정부가 인공지능(AI) 기술의 확산에 따라 산업 발전과 사회적 안전을 조화시키기 위한 제도적 기반을 마련했다. 과학기술정보통신부는 12일 ‘AI기본법 시행령’ 제정안을 입법예고하고, AI 사업자의 책임 강화와 이용자 보호를 핵심으로 하는 정책 방향을 제시했다.

이번 제정안은 고영향AI와 생성형AI 사용 사실을 이용자에게 반드시 고지하도록 의무화하고, 기본권 침해 가능성 등을 평가하는 ‘AI 영향평가 제도’를 구체화한 것이 핵심이다. 과기정통부는 입법예고를 통해 오는 12월 22일까지 40일간 의견을 수렴한 뒤, 내년 1월 22일 시행할 예정이다.

과기정통부는 글로벌 AI 규제 논의 흐름과 국내 산업 여건을 고려해, 과도한 규제보다는 산업 진흥 중심의 유연한 규제 체계를 구축했다고 설명했다. 특히 식품의약품안전처, 금융위원회, 원자력안전위원회 등 관계부처의 기존 법적 의무를 이행하면 AI기본법상 고영향AI 사업자의 책무를 수행한 것으로 간주하도록 했다.

AI의 투명성을 확보하기 위한 조치도 강화됐다. 사업자는 고영향AI 또는 생성형AI를 활용한 제품이나 서비스를 제공할 경우, 인공지능이 개입된 사실을 사전에 이용자에게 명확히 알리고 실제와 구분이 어려운 생성형 결과물에는 AI 생성 표시를 반드시 부착해야 한다. 다만 이용자의 연령이나 신체 조건 등을 고려해 고지 방식은 유연하게 적용할 수 있도록 했다.

AI 안전성 확보를 위한 기준도 마련됐다. 해외 규범을 참고해 학습 시 누적 연산량이 10의 26승 부동소수점 연산(FLOPs) 이상인 시스템을 안전성 확보 의무 대상 AI로 규정했다. 고영향AI 여부는 사용 영역, 기본권 침해 위험의 중대성, 발생 빈도 등을 종합적으로 고려해 판단한다. 과기정통부는 고영향AI 확인 절차에 약 30일이 소요되며, 1회에 한해 30일 연장할 수 있다고 밝혔다.

사업자가 AI가 사람의 기본권에 미치는 영향을 스스로 평가하는 ‘AI 영향평가 제도’도 세부적으로 구체화됐다. 평가 항목에는 해당 서비스가 어떤 기본권에 어떤 영향을 미치는지, 그리고 그 영향을 완화하기 위한 방안이 포함된다.

국내 AI 산업의 성장을 지원하기 위한 제도적 장치도 시행령에 반영됐다. AI 연구개발(R&D), 학습용 데이터 구축, AI 도입 및 활용 지원 등의 기준을 명시하고, AI 집적단지 지정 절차를 마련했다. 또한 인공지능안전연구소, 인공지능정책센터, AI 집적단지 전담기구 등 전문 기관의 지정과 운영 방안도 포함됐다.

정부는 제도의 현장 안착을 위해 최소 1년간 과태료 부과를 유예하고, 이 기간 동안 ‘통합안내지원센터(가칭)’를 운영해 기업들의 문의에 대응할 계획이다. 이를 통해 법 적용 과정에서의 혼선을 줄이고, 업계의 의견을 지속적으로 반영해 제도를 보완해 나가겠다는 방침이다.

배경훈 과기정통부 장관은 “AI기본법 시행령 제정안은 대한민국이 ‘AI G3’ 강국으로 도약하기 위한 제도적 초석이 될 것”이라며 “입법예고 기간 동안 현장의 다양한 의견을 적극 수렴해 산업 발전과 안전, 신뢰의 균형을 이루는 법제 기반을 마련하겠다”고 밝혔다.

AI기본법 시행령 제정안은 과학기술정보통신부 홈페이지의 ‘입법·행정예고’ 게시판에서 확인할 수 있으며, 의견은 오는 12월 22일까지 이메일 또는 우편으로 제출 가능하다.

  • 네이버 블러그 공유하기
  • 페이스북 공유하기
  • 트위터 공유하기
  • 카카오스토리 공유하기

▶ 기사제보 및 보도자료 press@cdaily.co.kr

- Copyright ⓒ기독일보, 무단전재 및 재배포 금지

#인공지능 #AI기본법 #기독일보