- 미국 국방부(DoW) 가 Anthropic에 대해 국방물자생산법(Defense Production Act) 발동을 위협하며, 군사용 모델 제공과 군의 요구에 맞춘 조정을 강요하고 있음
- Anthropic은 국내 대규모 감시나 인간 통제 없는 자율 살상에 자사 모델이 사용되는 것을 거부하고 있으며, 이에 대한 보복으로 국방부가 회사를 공급망 위험(supply chain risk) 으로 지정하려 함
- 국방부는 Anthropic이 거부한 조건을 받아들이게 하기 위해 Google과 OpenAI와도 협상 중이며, 각 기업을 서로 경쟁시키려는 시도를 하고 있음
- 이에 Google과 OpenAI의 현직 직원 709명(구글 614명, 오픈AI 95명) 이 연명 공개서한을 통해, 두 회사가 연대하여 국방부의 요구를 거부할 것을 촉구함
- 이 서한은 AI의 군사적 오용에 대한 내부 저항과 업계 연대의 상징적 행동
공개서한의 주요 내용
- 국방부가 Anthropic에 대해 국방물자생산법 발동과 공급망 위험 지정을 위협하고 있음
- 요구 내용은 Anthropic의 AI 모델을 군에 제공하고, 군의 필요에 맞게 조정하도록 강제하는 것
- Anthropic은 국내 감시 및 자율 살상 무기 사용 금지라는 내부 원칙을 고수하고 있음
- 국방부는 Anthropic의 거부 이후 Google과 OpenAI와 협상을 진행 중
- 각 기업이 다른 기업보다 먼저 양보할 것이라는 두려움을 조성하려는 전략으로 묘사됨
- 서한은 이러한 분열 시도를 막기 위한 공동 입장 표명의 의미를 가짐
- “이 전략은 우리가 서로의 입장을 모를 때만 통한다”는 문구로 연대의 필요성을 강조
서명자와 참여 현황
- Google 직원 614명, OpenAI 직원 95명이 서명
- 모두 현직 직원으로 검증됨
- 일부는 실명으로, 다수는 익명(Anonymous) 으로 참여
- 서명은 익명 또는 실명 선택 가능, 모든 서명은 고용 증명 절차를 통해 검증됨
- 검증 방법: 회사 이메일 인증, Google Form 로그인, 또는 신분증 사진 제출 등
- 익명 서명자의 개인정보는 검증 후 24시간 내 자동 삭제됨
서한의 의의
- AI 기업 내부에서 군사적 활용에 대한 윤리적 한계 설정을 명확히 한 사례
- Google과 OpenAI 직원들이 기업 간 경쟁보다 공동 원칙을 우선시하는 입장을 공개적으로 표명
-
AI의 자율 살상 및 감시 기술 남용에 대한 업계 내부 견제로서 중요한 의미를 가짐