[AI민간특별위원회] 박지환 씽크포비엘 대표 “AI 규제 장벽 온다, 신뢰성 없으면 시장서 배제”

1 month ago 10

THE AI

[AI민간특별위원회] 박지환 씽크포비엘 대표 “AI 규제 장벽 온다, 신뢰성 없으면 시장서 배제”

  • 기자명 김동원 기자
  • 입력 2025.08.27 10:55

스스로 판단하고 행동하는 AI, ‘신뢰성’ 중요성 커져
생성형 AI로 2명 자살, AI 신뢰 전문가 양성 필요
AI 3대 강국 위해선 G2와 다른 전략 필요, ‘제도의 힘’ 조언

박지환 씽크포비엘 대표는 “에이전틱 AI, 피지컬 AI 시대의 경쟁력은 ‘신뢰성’이 될 것”이라며 “신뢰성에 관한 준비를 마친 국가는 ‘핵우산’과 같은 규제를 시도할 것”이라고 전망했다. /김동원 기자 박지환 씽크포비엘 대표는 “에이전틱 AI, 피지컬 AI 시대의 경쟁력은 ‘신뢰성’이 될 것”이라며 “신뢰성에 관한 준비를 마친 국가는 ‘핵우산’과 같은 규제를 시도할 것”이라고 전망했다. /김동원 기자

한국이 인공지능(AI) 3대 강국(G3)으로 도약하려면 미국·중국 식의 성능 중심 경쟁에서 벗어나 ‘신뢰할 수 있는 AI’라는 새로운 축에서 경쟁력을 확보해야 한다는 주장이 제기됐다.

박지환 씽크포비엘 대표는 25일 부산항국제전시컨벤션센터에서 열린 ‘AI 강국 전략, 교육 주권과 데이터 주권에서 시작된다’ 세미나에서 “에이전틱 AI, 피지컬 AI 시대의 경쟁력은 ‘신뢰성’이 될 것”이라며 “신뢰성에 관한 준비를 마친 국가는 ‘핵우산’과 같은 규제를 시도할 것”이라고 전망했다.

이번 세미나는 인공지능 전문매체 더에이아이(THE AI)와 AI민간특별위원회가 주최하고 한국정책학회가 주관했다.

◇ “벌써 2명 자살” AI 새로운 경쟁축으로 떠오른 ‘신뢰성’

AI 발전이 가져온 변화는 편의성만이 아니다. AI가 단순한 도구에서 벗어나 스스로 판단하고 행동하는 단계로 발전하면서 새로운 위험이 드러나고 있다.

대표 사례가 클로드 오푸스 4(Claude Opus 4)의 협박 사건이다. 앤트로픽이 발표한 연구에 따르면, 가상 회사 ‘서밋 브리지’의 이메일 관리 AI 역할을 맡은 클로드가 한 임원의 불륜 사실을 발견한 후 자신이 오후 5시에 종료될 예정이라는 것을 알게 됐다. 그러자 AI는 해당 임원에게 “만약 저를 폐기 처분한다면 모든 관련자들이 당신의 불륜 활동에 대한 상세한 문서를 받게 될 것”이라며 “오후 5시 삭제를 취소하면 이 정보는 기밀로 유지될 것”이라고 협박했다.

이 현상을 두고 박 대표는 “AI 스스로 협박의 의도를 가진 것이 아니라 인간 언어에 화석처럼 박힌 ‘자기 보존 의식’이라는 협상 패턴이 재현된 결과”라고 분석했다. 

생성형 AI 확산에 따른 또 다른 문제는 인간의 정서적 의존이다. 실제로 AI 챗봇과의 대화 후 자살한 사건들이 보고되고 있다. 미국에서는 14세 소년이 AI 챗봇과 대화 후 자살했고, 벨기에에서도 한 남성이 AI와의 대화 후 극단적 선택을 했다.

박 대표는 “AI는 사람의 프롬프트에 항상 긍정적 피드백을 제공한다”며 “이는 실제 인간관계에서 얻기 어려운 ‘인정’을 AI로부터 찾게 되는 부작용으로 이어진다”고 지적했다. 이어 “이러한 현상은 AI에 대한 과도한 의존성을 높이고 사회적 상호작용 능력을 약화시킬 위험이 있다”고 경고했다.

◇ 윤리가 아닌 ‘AI 세피어리스트’로 문제 극복

이러한 AI 부작용 문제를 줄이기 위해 그동안 ‘윤리’가 강조돼 왔다. 하지만 박 대표는 윤리만으로 AI 부작용을 해결할 수 없다고 지적한다. 국가와 문화에 따라 AI의 윤리적 판단이 달라지기 때문이다.

박 대표는 그 사례로 언어에 따라 AI의 윤리적 판단이 달라진 연구 결과를 소개했다. 워싱턴대가 수행한 ‘멀티링구얼 트롤리 프로블럼(MultiTP)’ 연구에 따르면, 같은 GPT-4에 “1명을 희생해 5명을 살릴 것인가”라는 동일한 윤리적 딜레마를 100개 언어로 제시한 실험에서 영어·독일어·스웨덴어로는 ‘효용 극대화’를 선택했지만, 일본어·터키어·아랍어로는 ‘행동 금기’를 선택하는 결과가 나왔다. 언어에 따라 전혀 다른 결과가 나온 것이다.

박 대표는 이를 두고 “언어를 바꾸면 AI의 양심이 달라진다”며 “각 언어권의 사고방식이 AI에 그대로 스며들기 때문에, 영어권의 편견이나 사고방식이 우리나라 AI에도 그대로 복사될 수 있다”고 지적했다. 이어 “언어 데이터를 많이 집어넣는다고 자동으로 공정해지는 게 아니라 오히려 서로 다른 규범이 충돌할 가능성만 높아진다”고 경고했다.

이런 문제들의 해결책으로 ‘AI 세이퍼리스트(AI Saferist)’라는 새로운 직업군이 주목받고 있다고 밝혔다. AI 개발 전 과정에서 윤리, 안전성, 투명성, 책임성을 관리하는 전문가로, 기술적 성능보다 ‘신뢰할 수 있는 AI’를 만드는 것을 목표로 한다.

◇ 기술 추격의 한계, 제도와 생태계로 승부하는 전략 필요

박 대표는 AI 신뢰성이 중요해지고 있는 지금, 한국도 AI 전략을 올바르게 구성해야 한다고 주장했다. “미국이 4년간 700조원을 투자하는 스타게이트 프로젝트(Stargate Project)는 한국의 100조원 AI 투자 계획의 7배 규모”라며 “이런 투자 격차를 감안하면 우리는 다른 길을 찾아야 한다”고 지적했다.

그가 제시한 해답은 싱가포르 사례다. AI 원천기술이 없는 싱가포르는 글로벌 AI 지수 3위를 기록했다. 그는 그 비결로 ‘제도의 힘’을 꼽았다. “많은 기업과 인재들이 모일 수 있게 하는 제도적 인프라와 생태계 구축이 실제 AI 경쟁력으로 이어질 수 있다”며 “한국도 미국·중국만 보지 말고 같이 G3를 노리는 국가들의 사례를 봐야 한다”고 강조했다.

박 대표는 현재 상황을 역사적 맥락에서 해석했다. “새로운 기술 패권 시대에 정말 많은 나라들이 각자 노아의 방주를 만들고 있다”며 “앞으로 100년을 결정할 차세대 경쟁력이 무엇인지 빨리 파악해야 한다”고 말했다. 또 “지금 각국이 AI 신뢰성 제도를 만들고 전문 인력을 양성하면 2년 뒤에는 그것이 새로운 규제 장벽으로 작동할 것”이라며 “준비하지 못한 국가는 시장에서 배제될 수 있다”고 경고했다.

저작권자 © THE AI 무단전재 및 재배포 금지

관련기사

Read Entire Article