- OpenAI는 미국 국방부(Pentagon) 와 협약을 체결해 기밀 환경에서 AI 시스템을 배포하기로 함
- 협약에는 대규모 국내 감시, 자율 무기 지휘, 고위험 자동 의사결정에 OpenAI 기술을 사용하지 않는다는 세 가지 금지선(red lines) 이 포함됨
- 배포는 클라우드 전용 구조로 이루어지며, OpenAI의 안전 스택과 승인된 인력이 직접 관리하는 다층적 보호 체계를 유지함
- 계약 조항은 자율 무기 통제, 정보 수집, 사생활 보호 관련 미국 법률과 국방부 지침을 명시적으로 준수하도록 규정함
- OpenAI는 이번 협약이 민주적 통제와 안전성을 보장하는 새로운 기준이 될 것이라 강조함
협약의 주요 내용
-
OpenAI는 국방부(Department of War) 와 기밀 환경에서의 AI 시스템 배포에 합의했다고 발표
- 협약은 모든 AI 기업에도 동일한 조건으로 제공되길 요청했다고 명시
- OpenAI는 이번 협약이 이전의 어떤 기밀 AI 배포 계약보다 강력한 안전장치를 포함한다고 설명
-
OpenAI가 설정한 세 가지 금지선(red lines)
- OpenAI 기술을 대규모 국내 감시에 사용하지 않음
- OpenAI 기술을 자율 무기 시스템의 직접 지휘에 사용하지 않음
- OpenAI 기술을 사회 신용 시스템 등 고위험 자동 의사결정에 사용하지 않음
-
다른 AI 연구소들이 사용 정책 중심의 완화된 안전 조치를 취한 것과 달리, OpenAI는 다층적 보호 구조를 유지한다고 강조
-
클라우드 기반 배포, OpenAI의 안전 스택 유지, 승인된 인력의 직접 개입, 강력한 계약 조항을 포함
배포 구조 및 계약 조항
인력 및 운영 관리
- OpenAI는 보안 인가를 받은 엔지니어와 안전·정렬 연구자를 정부 현장에 배치
- 이들은 운영 과정에 직접 참여하며 시스템의 안전성을 지속적으로 검증
협약 체결 배경
- OpenAI는 미군이 강력한 AI 모델을 필요로 한다는 점을 인정하면서도, 기술적 안전장치가 완비될 때까지 계약을 미뤄왔다고 설명
-
핵심 안전 기능을 제거하지 않고도 국방부 지원이 가능함을 강조
- 또한 AI 연구소와 정부 간 긴장 완화를 위해 이번 협약을 추진했으며, Anthropic 등 다른 연구소에도 동일 조건이 적용되길 요청
Anthropic과의 비교
- OpenAI는 자사 계약이 Anthropic의 초기 계약보다 더 강력한 안전 보장을 제공한다고 언급
-
클라우드 전용 배포, OpenAI 안전 스택 유지, 승인 인력 개입으로 금지선이 더 확실히 지켜진다고 설명
- Anthropic이 계약에 이르지 못한 이유는 알 수 없다고 명시
주요 질의응답(FAQ)
-
자율 무기 사용 가능성: 계약, 법률, 정책, 클라우드 구조상 불가능
-
대규모 감시 가능성: 법률과 계약 조항상 금지, OpenAI 인력이 감시
-
안전 스택 없는 모델 배포 여부: 없음, 모든 배포는 안전 스택 포함
-
정부가 계약을 위반할 경우: OpenAI는 계약 해지 가능
-
법률 변경 시 적용 여부: 계약은 현재 기준의 법률과 정책에 고정, 이후 변경돼도 현행 기준 유지
Anthropic의 주장에 대한 대응
- Anthropic이 제시한 두 가지 금지선(감시, 자율 무기)에 대해 OpenAI는 자사 계약이 이를 명확히 보호한다고 설명
-
대규모 국내 감시는 법적으로 불법이며, 계약에 명시적으로 제외
-
완전 자율 무기는 엣지 배포가 필요하므로 클라우드 전용 구조에서는 불가능
- OpenAI는 추가적인 안전 스택과 기술 인력 개입을 통해 다층적 보호 체계를 강화했다고 명시