AI 분석
정부가 인공지능 산업을 육성하면서도 안전성을 확보하기 위한 법안을 추진한다. 최근 챗GPT 같은 생성형 AI 확산에 따라 기술의 위험성에 대한 우려가 커지자, 정부는 고위험 AI와 저위험 AI를 구분해 관리하는 체계를 마련하기로 했다. 과학기술정보통신부는 3년마다 AI 기본계획을 수립하고 AI 안전연구소를 설립해 국민 안전을 보호할 방침이다. 또한 생성형 AI 서비스 제공자는 이용자에게 AI 사용 사실을 미리 알리고 결과물에 표시해야 한다. 이와 함께 AI 기술 개발과 산업 진흥을 위해 전문인력 양성과 데이터 제공 사업도 추진된다.
이 내용은 AI가 생성한 참고용 요약입니다.
정확한 내용은 원문을 확인하세요.
핵심 조항 및 영향
• 배경: 제안이유 세계적으로 인공지능이 교통, 의료, 서비스 등 다양한 분야에 활용되면서 일상생활의 편의 증진은 물론 산업적 활용 가능성에 대한 기대를 높이고 있음
• 내용: 이처럼 인공지능의 개발ㆍ이용이 거의 모든 산업분야에 적용되어 부가가치를 창출할 것으로 예상되고 있으나, 다른 한편으로는 인공지능의 위험성에 대한 우려도 확대되고 있음
• 효과: 특히 인공지능기술은 대량의 데이터를 학습하여 성능을 향상시키는 기계학습에 기반하고 있어 불확실성과 불투명성을 가지고 있으며, 노이즈 데이터로 인한 오류생성 가능성도 큼
원문에서 전체 내용 확인 →영향 평가
재정 영향: 법안은 인공지능안전연구소 운영, 기술개발 지원, 학습용 데이터 제작·제공, 전문인력 양성 등에 정부 예산 투입을 규정하고 있으며, 3년마다 기본계획 수립을 통해 지속적인 정책 자금 배분을 명시하고 있다.
사회 영향: 법안은 고위험 인공지능에 대한 확인제도와 생성형 인공지능의 사전 고지 및 표시 의무를 규정하여 국민의 생명·신체·재산 보호와 신뢰 기반 조성을 추구한다. 동시에 인공지능 기술개발 및 산업진흥을 통해 일상생활의 편의 증진을 목표로 한다.
관련 회의록
제434회 제2차 상임위원회 공청회 회의록
과학기술정보방송통신위원회2026-04-14공청회
제22대 제433회 제1차 과학기술정보방송통신위원회 (2026년 03월 11일)
과학기술정보방송통신위원회2026-03-11상임위원회
제22대 제432회 제3차 과학기술정보방송통신위원회 (2026년 02월 25일)
과학기술정보방송통신위원회2026-02-25상임위원회
제22대 제432회 제2차 과학기술정보방송통신위원회 (2026년 02월 11일)
과학기술정보방송통신위원회2026-02-11상임위원회
제22대 제432회 제1차 과학기술정보방송통신위원회 (2026년 02월 10일)
과학기술정보방송통신위원회2026-02-10상임위원회