이번 사태는 Anthropic의 Claude가 Palantir의 Maven 시스템을 통해 미군 정보분석·표적 식별·시뮬레이션에 활용됐다는 점에서, 생성형 AI가 이미 군사 인프라 깊숙이 들어갔음을 보여준다. 출발점은 2017년 미 국방부의 Project Maven이었고, 2018년 구글은 내부 반발 끝에 발을 뺐지만 이후 Palantir와 Anthropic이 그 공백을 메웠습니다. Anthropic은 2026년 초 국방부에 미국 시민 대규모 감시 금지와 완전 자율무기 금지라는 두 조건을 제시했지만 받아들여지지 않았습니다. 이 과정에서 트럼프 행정부는 Anthropic을 사실상 배제하려 했고, 국방부는 회사를 공급망 리스크로 지정했습니다. 하지만 바로 그 무렵에도 Claude는 이란 관련 작전에 계속 쓰였고, 국방부 내부에서는 대체에 수개월이 걸릴 수 있다는 평가가 나왔습니다. 이건 AI 모델이 한 번 군 시스템에 깊이 통합되면 더 이상 단순 소프트웨어가 아니라 교체가 어려운 인프라가 된다는 뜻입니다. 동시에 OpenAI는 펜타곤 계약을 확대했고, Google은 2025년 AI 원칙에서 무기·감시 금지 문구를 삭제하며 업계 전반의 기준 이동을 보여줬습니다. 핵심 쟁점은 “AI가 직접 방아쇠를 당기지 않아도, 표적 추천과 우선순위 결정에 깊게 개입하면 어디까지 인간 통제라고 볼 수 있느냐”입니다. 결국 이 사건은 평시의 윤리 원칙이 전시에는 쉽게 흔들리고, 실제 협상력은 원칙보다 통합 깊이와 전환비용에서 나온다는 점을 드러냈습니다. 그래서 질문은 단순히 “AI 무기를 허용할 것인가”가 아니라, 누가 어떤 속도로 인간의 판단을 AI 추천으로 대체하게 될 것인가로 옮겨가고 있습니다.

2 weeks ago
6







English (US) ·