[기고] AI 기본법 '책임지는 자율성'을 설계해야 AI 강국 된다

6 hours ago 1
배성훈 LX공간정보연구원 스마트도시기획 그룹장배성훈 LX공간정보연구원 스마트도시기획 그룹장

2026년, 세계에서 두 번째로 포괄적 '인공지능(AI) 기본법' 시행을 앞둔 대한민국은 지금 중대한 기로에 서 있다. 이 법은 '산업 진흥'과 '신뢰 구축'이라는 두 마리 토끼를 잡겠다는 국가적 포부를 담고 있다. 그러나 법의 성공은 원대한 목표 선언이 아닌, 어떤 철학으로 제도를 설계하고 집행하는 지에 달려있다. 현재 하위 법령을 준비하는 과정에서 드러나는 논의의 방향은 우려를 낳기에 충분하다.

문제의 핵심은 AI 거버넌스 본질을 '기술적 완벽성'에서 찾으려는 시도다. '고영향 AI' 대상을 명확히 열거하고, '설명가능성(XAI)'의 기술적 요건을 법으로 규정하려는 움직임이 대표적이다. 이는 모든 위험을 예측하고 통제할 수 있다는 환상에 기반한 접근으로, 오히려 혁신의 족쇄가 되고 누구도 책임지지 않는 형식주의로 귀결될 위험이 크다.

우리는 유럽연합(EU) AI Act 등 글로벌 규범의 근본정신을 제대로 읽어야 한다. 이들 제도의 본질은 완벽한 법이나 기술의 구현이 아니다. 오히려 법과 기술의 불완전성을 인정하고, AI를 개발하고 운영하는 '실행자', 즉 사람의 윤리적 책임과 상식적 판단을 가장 중요한 가치로 삼는다. 법은 모든 세부 사항을 지시하는 대신, “당신이 전문가이니, 스스로 위험을 식별하고 그 과정을 추적·설명하며 결과에 책임지라”는 원칙적 방향만을 제시한다. '고영향 AI'의 정의가 다소 추상적인 것 역시, 규제 당국이 정해준 목록에 기대는 것이 아니라 실행자 스스로 자신의 시스템이 미칠 영향을 판단하고 책임지도록 유도하려는 의도가 담겨 있다.

이러한 철학적 배경에 대한 공감대 없이 특정 학계의 XAI 기술을 법이나 시행령에 명시하는 것은 특히 위험하다. 현장에서의 실효성이 충분히 검증되지 않은 기술을 의무화할 경우, 기업들은 책임의 본질을 고민하기보다 '규정 준수'라는 형식적 요건을 맞추는 데 급급하게 될 것이다. 이는 유능한 기술 전문가들을 규제 환경에서 이탈시키고, 기술적 부채만 쌓는 결과를 초래할 뿐이다.

따라서 AI 기본법의 성공적 안착을 위한 해법은 명확하다. 규제의 패러다임을 통제 중심에서 '실행자 중심의 책임 윤리'로 전환해야 한다. 정부와 국회는 하위 법령 제정 과정에서 규제의 목표가 세세한 기술 통제가 아닌 '실행자의 책임 있는 자율성 확보'에 있음을 명확히 해야 한다.

이를 위해 첫째, '고영향 AI' 판단 체계를 실행자 중심으로 재설계해야 한다. 국가인공지능위원회는 최종 판결자가 아닌, 기업이 스스로 위험을 평가하고 관리하는 데 필요한 가이드라인과 정보를 제공하는 조력자 역할을 맡아야 한다. 둘째, 설명가능성 의무는 기술 중립적 원칙으로 부과해야 한다. 특정 기술의 사용을 강제하는 대신, '자신의 시스템을 책임 있게 설명할 수 있는 프로세스'를 갖추도록 해야 한다. 개발 과정의 모든 결정과 근거를 기록하고 추적해, 문제가 발생했을 때 책임 소재를 분명히 하는 '설계 기반 책임성(Accountability by Design)'의 본질이 바로 이것이다.

과거 글로벌 표준과 동떨어진 '인터넷 실명제'가 결국 갈라파고스 규제로 남아 혁신의 발목을 잡았던 교훈을 잊어서는 안 된다. AI 기본법의 제정은 끝이 아니라 올바른 철학을 세우는 새로운 시작이다. 실행자의 전문성을 믿고 자율성을 존중하되, 그에 걸맞은 책임을 질 수 있는 제도적 환경을 설계하는 것만이 대한민국이 진정한 '책임감 있는 AI 강국'으로 도약하는 길이다.

배성훈 LX공간정보연구원 스마트도시기획 그룹장 shbae29@lx.or.kr

Read Entire Article