이란 학교 폭격의 책임을 AI에 돌린 사건, 더 근본적인 문제
6 hours ago
9
- 2026년 2월 미군이 이란 미나브 초등학교를 폭격해 175명 이상이 사망했으며, 초기에는 Anthropic의 Claude가 표적을 선택했다는 오보가 확산됨
- 실제 표적 결정은 Palantir의 Maven 시스템이 수행했으며, 오래된 군사 데이터 갱신 실패가 민간인 피해로 이어짐
- Maven은 킬체인 절차를 자동화해 1시간에 1,000개 표적을 결정할 정도로 속도를 높였고, 이 과정에서 검증과 재평가 단계가 제거됨
- 이러한 자동화는 과거 베트남전·코소보전의 오폭 사례처럼, 기술적 신뢰가 인간 판단을 대체한 반복된 구조적 문제로 이어짐
- 사건의 핵심은 AI의 오류가 아니라, 판단을 제거한 관료적 시스템과 인간 책임의 소멸이라는 점임
이란 미나브 초등학교 폭격과 ‘AI 책임론’의 허상
- 2026년 2월 28일, 미군이 이란 남부 미나브의 Shajareh Tayyebeh 초등학교를 폭격, 7~12세 여학생을 포함한 175~180명이 사망
- 폭격 직후 언론과 정치권은 Anthropic의 챗봇 Claude가 목표를 선택했는가에 집중
- 그러나 실제 표적 선정 시스템은 Palantir의 Maven이었으며, Claude는 관련 없음
- 해당 학교는 과거 군 시설이었으나 정보 갱신 실패로 여전히 군사 목표로 분류되어 있었음
Maven 시스템의 기원과 구조
- Maven은 2017년 미 국방부의 Algorithmic Warfare Cross-Functional Team에서 시작된 프로젝트
- 초기 목표는 드론 영상 분석 자동화로, 인간 분석가의 과중한 업무를 줄이는 것이었음
- Google이 처음 계약을 맡았으나 내부 반발로 철회했고, 이후 Palantir Technologies가 2019년부터 개발을 주도
- Maven은 위성·신호·센서 데이터를 통합해 목표 탐지부터 공격 명령까지 연결하는 표적화 인프라로 발전
- Palantir는 Maven을 “Smart System” 으로 재구성해 실시간 데이터 융합과 자동화된 의사결정 지원 기능을 통합
- Maven의 인터페이스는 Kanban형 워크플로우 보드로 구성되어, 목표가 단계별로 이동하며 처리됨
-
3번의 클릭으로 탐지 데이터를 공식 표적으로 전환할 수 있으며, 시스템이 공격 수단과 무기 조합을 추천함
‘킬체인’의 압축과 속도 경쟁
- Maven은 ‘킬체인(Kill Chain)’ 이라 불리는 군사 절차의 최신 압축 형태
- 킬체인은 탐지부터 파괴까지의 절차를 체계화한 개념으로, 미군은 수십 년간 이를 단축하는 기술을 개발해 옴
- Maven은 결정 속도를 극단적으로 높이는 시스템으로, 2024년 기준 1시간에 1,000개 표적 결정을 목표로 함
- 이는 3.6초당 1건, 개인 기준으로는 72초마다 1건의 결정을 내리는 속도
- 과거 2003년 이라크전에서는 2,000명이 수행하던 표적 작업을 20명으로 대체
- 속도 향상은 판단의 여유를 제거했고, 검증·이의 제기·재평가 과정이 사라짐
- 결과적으로 오판 가능성 증가와 민간인 피해 확대로 이어짐
역사적 반복: 기술적 신뢰와 판단의 소멸
- Maven의 문제는 새로운 현상이 아니라, 기술적 자동화가 판단을 대체한 역사적 패턴의 반복
- 1960년대 베트남전의 Operation Igloo White는 센서 기반 표적 시스템이 오작동하며 허위 성과를 양산
- CIA는 “파괴된 트럭 수”가 실제 존재 수를 초과했다고 보고, 자기검증 불가능한 시스템의 폐쇄성을 드러냄
- 2차대전의 정밀폭격 교리도 효율성에 집착하며 목표의 의미를 상실, ‘기술적 광신(technological fanaticism)’ 으로 불림
- 미 공군의 1998년 표적 매뉴얼은 “사실과 결론에 기반한 이성적 사고” 를 강조했으나,
- 실제 작전에서는 PowerPoint 기반의 ‘표적 패키지(TIP)’ 가 검증 없이 순환 인용(circular reporting)으로 확정됨
- 1999년 코소보전에서는 중국 대사관 오폭 사건이 이런 절차적 오류의 대표적 사례로 기록됨
판단의 제거와 ‘관료적 이중구속’
- 조직은 규칙을 따르면서도 예외를 해석할 판단자를 필요로 하지만,
- 판단을 인정하면 규칙의 권위가 흔들리기에 판단을 수치화·절차화하려 함
- 역사학자 Theodore Porter는 이를 “숫자에 대한 신뢰(Trust in Numbers)”라 명명
- Palantir CEO Alex Karp는 저서 The Technological Republic에서
- “소프트웨어가 조타수이며, 하드웨어는 AI의 권고를 실행하는 수단”이라 서술
- 인간의 중간 판단을 제거한 ‘자율적 집단행동(bee swarm)’ 모델을 이상으로 제시
- 그러나 이는 해석의 공간이 사라진 완전한 절차화, 즉 ‘부서지기 쉬운 관료제’ 로 귀결
- 회의·보고·검토 과정은 비효율이 아니라 판단이 개입되는 유일한 지점이었으나,
- Maven은 이를 소프트웨어의 워크플로우 칸반 보드로 대체해 판단의 여지 제거
미나브 학교 폭격의 구조적 원인
- 표적 패키지에는 해당 건물이 군사시설로 분류되어 있었고,
- 실제로는 Google Maps와 이란 상업 데이터베이스에 학교로 등록되어 있었음
- 그러나 1,000건/시간의 의사결정 속도에서는 누구도 이를 검색하거나 검증하지 않음
- 의회 승인 없이 2주간 6,000개 목표 공격, 그중 하나가 초등학교였음
- 사건 후 논의는 “Claude의 오류” 로 집중되며,
- 전쟁의 합법성, 의회의 승인 여부, 전쟁범죄 가능성 등 핵심 정치·법적 책임이 가려짐
- “AI 문제”라는 프레임은 인간의 결정과 책임을 은폐하는 도피처로 작동
- 누군가는 킬체인을 압축했고, 숙고를 ‘지연(latency)’으로 간주했으며,
-
1,000건/시간의 표적 결정을 ‘고품질’이라 부른 시스템을 설계
- 이 모든 결정은 인간이 내렸으며, AI는 그 책임을 대신할 수 없음
-
Homepage
-
개발자
- 이란 학교 폭격의 책임을 AI에 돌린 사건, 더 근본적인 문제