
인공지능(AI) 서비스 약관이나 사용자환경(UI) 등에 AI로 생성한 콘텐츠임을 사전고지하면 AI기본법상 AI 투명성 의무를 충족한 것으로 간주한다.
동법상 고영향 AI는 기본권에 중대한 영향을 미치는 AI시스템으로 사용영역, 기본권에 대한 위험 영향·중대성·빈도와 활용 영역별 특수성 등을 종합적으로 고려해 판단한다.
과학기술정보통신부는 8일 이같은 AI기본법 시행령 등 하위법령 제정 방향을 공개했다. 미국·일본의 규제 최소화 정책 등 글로벌 규범 동향과 국내 AI업계 의견을 고려, 규제보다는 진흥에 무게를 두고 필요 최소한의 규제를 마련한 것이다.
AI기본법은 생성형·고영향 AI 사용자에 대한 사전고지와 결과물 표시(워터마크) 의무를 부여한다. 정부는 비가시적인 워터마크를 인정하고 사업자 내부 업무용이거나 생성형·고영향 AI 기반이 명백한 경우 투명성 의무를 면제하는 것으로 정리했다. 단, 딥페이크 결과물에 대해서는 사용자 연령·신체 조건 등을 고려해 고지·표시하도록 한다.

고영향 AI 의무 대상은 생명·신체·기본권에 중대한 영향을 미치거나 위험을 초래할 우려가 있는 AI시스템으로 한정했다. 에너지, 보건의료, 원자력, 교통, 교육 등 법상 명시된 특정 영역에서 활용되는 AI시스템만 대상이다. 위험관리와 이용자보호 방안 마련을 통해 신뢰성 확보 조치를 하면 된다. <본지 9월 4일자 3면 참조>
또 누적 학습량이 10의 26제곱 부동소수점 연산 이상 중 사람의 생명, 신체의 안전, 기본권에 광범위하고 중대한 영향을 미칠 수 있는 고도화된 기술을 적용한 AI시스템을 '고성능 AI'로 분류하기로 했다.
고성능 AI는 위험식별 방법론, 평가지표와 우선순위·실행가능성을 고려한 완화조치 및 긴급대응체계를 마련해야 하는 등 방법으로 안전 확보 의무를 다하도록 한다.
과기정통부는 안전·신뢰 검·인증과 AI 영향평가 관련 기업 지원 예산 20억3000만원을 확보, 제도 연착륙을 돕는다. 이달 중 시행령 제정방향에 대한 업계 의견 수렴을 거쳐 입법예고할 예정이다.
AI기본법 시행령은 연내 제정 완료가 목표다. 오는 12월 확정될 예정이며 같은 달 AI 안전성 확보 의무 등 5개 가이드라인 완성본도 공개한다. 과태료 계도기간을 부여하기로 한 만큼 계도기간 중 산업계·시민단체 의견과 해외 규제 동향·수준을 고려, 계도기간 중 지속 고도화할 계획이다.
박종진 기자 truth@etnews.com