- OpenAI는 2018년 헌장(Charter) 에서 “다른 안전 중심 프로젝트가 AGI에 근접하면 경쟁을 멈추고 협력하겠다”는 ‘자기희생 조항’ 을 명시함
- Sam Altman의 발언을 정리한 표에 따르면 AGI 도달 예상 시점이 2033년에서 2025년으로 급격히 단축, 최근에는 “이미 AGI를 만들었다”는 언급까지 등장함
-
Arena.ai 모델 순위표에서는 Anthropic의 Claude와 Google의 Gemini가 상위권을 차지하고, OpenAI의 GPT-5.4는 6위로 뒤처짐
- 글은 이러한 상황이 헌장에서 제시한 “2년 내 성공 가능성이 절반 이상인 경쟁자 등장 시 협력” 조건을 충족한다고 지적함
- 결과적으로 OpenAI가 헌장에 따라 경쟁을 중단하고 협력해야 하지만, 현실적으로는 이상주의와 경제적 유인의 충돌을 보여주는 사례로 제시됨
OpenAI 헌장의 자기희생 조항
- 2018년 OpenAI 헌장은 AGI 개발 경쟁이 안전을 해칠 수 있다는 우려를 담고 있음
- “가치 정렬과 안전을 중시하는 프로젝트가 AGI에 근접하면 경쟁을 멈추고 지원하겠다”는 문구 포함
- “2년 내 성공 가능성이 절반 이상”일 때가 전형적 발동 조건으로 제시됨
- 이 조항은 현재도 공식 사이트(openai.com/charter)에 게시되어 있으며, 여전히 회사의 공식 정책으로 유지됨
Sam Altman의 AGI 예측 변화
- 표에 따르면 Altman은 2023년부터 2026년까지 AGI 도달 시점을 지속적으로 앞당김
- 2023년 5월에는 “10년 내 전문가 수준 초과”라 했으나,
- 2024~2025년에는 “2025년 AGI 도달”, “이미 AGI를 만들었다”는 발언까지 이어짐
- 2025년 이후 예측의 중앙값은 약 2년 이내로, 헌장의 발동 조건과 일치함
- 일부 인터뷰에서는 “AGI를 넘어 ASI(초지능)로 향하고 있다”는 표현도 등장
Arena.ai 모델 순위 비교
-
Arena.ai 리더보드 상위 10개 모델 중 Anthropic의 Claude-opus-4-6이 1위, Google의 Gemini 3.1이 3위
- OpenAI의 GPT-5.4-high는 6위로, 경쟁사 모델보다 낮은 평가
- 글은 Anthropic과 Google 모델이 ‘안전 중심적이고 가치 정렬적’ 이라고 언급하며, GPT와 호환 가능한 대체재로 간주됨
경쟁 중단 조건 충족 여부
- AGI 개발 시점이 2년 이내로 좁혀지고, 경쟁사 모델이 앞서 있는 상황에서 헌장의 “경쟁 중단 및 협력” 조건이 충족된 상태로 평가됨
- Arena.ai가 AGI를 측정하기에 적절한지는 논란이 있으나, 헌장의 정신은 ‘무기 경쟁 회피’ 에 있음
- 따라서 OpenAI는 Anthropic 및 Google과 협력해야 한다는 결론으로 이어짐
이상주의와 현실의 괴리
- 글은 실제로 OpenAI가 경쟁을 멈출 가능성은 없다고 명시함
- 이 사례는 이상주의적 원칙이 경제적 유인 앞에서 무력화되는 현실을 보여줌
- 또한 AGI의 정의와 목표 시점이 계속 이동하고, 최근에는 ASI 논의로 초점이 옮겨진 현상을 지적함