
유럽연합(EU)의 인공지능(AI)법(AI Act)에 이어 세계에서 두 번째로 제정된 AI에 관한 포괄적 법률이 바로 우리 나라의 인공지능기본법이다. 신뢰성있는 AI기술 활용을 목표로, AI 윤리원칙 수립과 이행을 위한 민간 자율 윤리위원회 설치도 가능해지고, 생성형 AI 결과물 표시 등 AI의 투명한 활용을 법제화했다는데 큰 의의가 있다고 하겠다.
특히 국민의 기본적 인권과 안전을 보호하고, 국민의 삶의 질 향상에 AI가 직접적으로 기여할 수 있도록 하는 선한 취지에서 만들어진 법이다. 국민에게 중요한 영향을 미치는 고영향 AI로 인한 위험을 관리하고 감독하는 체계도 포함하고 있다. AI 산업 활성화, 중소기업 지원, 데이터센터 구축 등 AI 생태계 조성에 초점을 두고 있는 것도 환영할 만 하다.
그러나 어떤 AI가 '고영향 AI'인지 규정하는게 쉽지 않다. '사람의 생명, 신체의 안전 및 기본권에 중대한 영향을 미치거나 위험을 초래할 우려가 있는 AI시스템'은 과연 어떤 AI를 말하는 것일까. 이 개념은 구체성이 약하며 실제 제재 수단은 하위 법령에 위임하고 있는 등, 이용자 입장에서나 기업 입장에서나 그 모호성과 다양한 해석 가능성 때문에 질타를 받고 있는 실정이다. '고영향' 이라는 개념을 '고위험' 으로 대체하고 그 정의를 엄격히 해야 산업현장에서 열심히 AI모델이나 서비스를 개발하고 있는 기업에게 불확실성을 줄여 주고, 이용자 보호에도 더 만전을 기할 수 있으리라 생각한다.
기업 입장에서는 기존 개인정보 보호법, 전자금융거래법, 인공지능 이용자 보호법 등 다양한 법제를 통해 AI서비스 운영에 관한 규제를 받고 있는데, 거기에 옥상옥 규제가 하나 더 얹어진 셈이라고 반발하고 있다. 이미 창작자 보호, 이용자 보호 등에 심혈을 기울이지 않으면 안되는 상황인데 거기에 포괄적 규제까지 더해진 셈이니 새로운 서비스를 개발할 때마다 리스크 검토에 많은 시간과 비용을 들여야 한다는 것이다. 물론 이루다 챗봇이 일으켰던 사회적 논란과 같은 문제가 재발되지 않기 위해서는 적절한 규제는 필요하다. 그러나, 규제 내용의 실질적 범위와 효력을 간결하고도 명확하게 하기는커녕 점점 더 복잡해지고 있다는 비판에는 귀기울여 볼 가치가 있다.
시민사회 역시 많은 우려를 표명하고 있다. 기본법상 고영향 AI를 규제하고 있지만, AI의 오작동이나 설계상 오류, 가치관 편향, 데이터 남용 등으로 인한 피해가 발생했을 때 구체적으로 어떤 기준으로 얼마나 보상해야 하는지에 관한 규정이 미비하다는 비판이 있다. 지금까지 딥페이크 영상물로 피해를 입은 사람들에 대한 유효한 보호책도 부족한 상황에서 앞으로 더 많이 등장하게 될 범죄적, 병리적 AI 활용으로부터 시민을 어떻게 보호할 것인가 하는 구체적 방안이 결여되어 있다는 것이다.
이제 누구나 사용하고 있는 생성형 AI의 사용이나 결과 표시 의무가 지나치게 강조될 경우, 게임과 같은 콘텐츠 산업에서 생성형 AI를 적용하는 데 많은 장애가 있을 수 있으며 기존 개인정보보호법 등과의 충돌이 생기는건 아닌지, 저작권법과는 어떤 관계를 갖는 것인지 등에 관한 명쾌한 답이 포함되어 있지 않다는 우려도 있다.
우리 국회가 제정한 인공지능기본법은 내년 1월 시행을 앞두고 기본부터 새로 다질 필요가 있다. 추가 논의에 시간이 부족하다면 시행을 미루면서 완성도를 높여도 좋겠다. 인공지능기본법의 기본을 다시 다듬어, 기업이 더 명확히 이해하고 따를 수 있도록 하며, 이용자는 더 안전하고 즐거운 AI생활을 할 수 있게 하는게 어떨까. 고민이 더 필요하다.
김장현 성균관대 교수