- 미국 국방장관이 Anthropic에 자사 인공지능 기술을 군사적 제한 없이 제공하라는 최후통첩을 전달함
- 국방부는 Anthropic이 이를 거부할 경우 ‘공급망 위험(supply chain risk)’ 기업으로 지정하겠다고 위협함
- Anthropic은 자율무기 시스템과 감시 목적 사용을 금지한다는 원칙을 공개적으로 밝힌 바 있음
- 2026년 1월, Anthropic은 Palantir와의 협력 과정에서 자사 AI가 베네수엘라 공격에 사용된 정황을 의심하며 원칙을 재확인함
- EFF는 정부의 압력에도 불구하고 기술 기업들이 감시 도구로 전락하지 말아야 함을 강조함
국방부의 압력과 Anthropic의 입장
- 미국 국방장관이 Anthropic에 군사적 제한 없는 기술 제공을 요구하며 압박을 가함
- Anthropic이 이를 거부하면 ‘공급망 위험’으로 지정되어 국방부와의 거래가 차단될 수 있음
- 이 지정은 일반적으로 중국 등 연방기관의 감시 대상 국가와 거래하는 기업에 적용되는 조치로 설명됨
- Anthropic은 자율무기 시스템과 감시 목적 사용을 지원하지 않겠다는 입장을 유지
- 이는 CEO Dario Amodei가 밝힌 “넘지 말아야 할 두 개의 붉은 선” 으로, 남용 방지를 위한 엄격한 검토와 안전장치가 필요하다고 명시함
- Anthropic의 AI 안전 핵심 원칙과 Claude의 헌장(Constitution) 은 자사 웹사이트에 공개되어 있음
논란의 배경
- 2025년 Anthropic은 기밀 정보 취급이 허가된 첫 AI 기업으로 알려짐
- 2026년 1월, Palantir와의 협력 중 자사 AI가 베네수엘라 공격에 사용된 정황을 인지하며 논란이 시작됨
- 이후 Amodei는 감시와 자율무기 사용 금지를 재확인하는 서신을 발표함
- 현재 미국 정부는 계약 해지 위협을 통해 Anthropic의 정책 변경을 요구 중임
EFF의 주장
- EFF는 정부의 압력으로 기업이 인권·시민자유 원칙을 포기해서는 안 된다고 강조
- 많은 기술 기업들이 이윤 등 다양한 이유로 원칙을 지키지 못하지만, 정부의 강요는 그 이유가 되어선 안 된다고 명시함
-
기업 고객, 대중, 엔지니어들은 Anthropic이 원칙을 지키길 기대하고 있음
- 기술 기업 전반이 감시 체계의 도구로 전락하지 않는 것이 중요하다고 경고함
관련 주제
-
인공지능(AI) 및 기계학습(Machine Learning) 관련 이슈로 분류됨
- EFF는 이 사안을 AI 윤리와 정부 감시의 경계 문제로 제시함