우리는 분열되지 않을 것이다

3 weeks ago 11

  • 미국 국방부(DoW) 가 Anthropic에 대해 국방물자생산법(Defense Production Act) 발동을 위협하며, 군사용 모델 제공과 군의 요구에 맞춘 조정을 강요하고 있음
  • Anthropic은 국내 대규모 감시인간 통제 없는 자율 살상에 자사 모델이 사용되는 것을 거부하고 있으며, 이에 대한 보복으로 국방부가 회사를 공급망 위험(supply chain risk) 으로 지정하려 함
  • 국방부는 Anthropic이 거부한 조건을 받아들이게 하기 위해 Google과 OpenAI와도 협상 중이며, 각 기업을 서로 경쟁시키려는 시도를 하고 있음
  • 이에 Google과 OpenAI의 현직 직원 709명(구글 614명, 오픈AI 95명) 이 연명 공개서한을 통해, 두 회사가 연대하여 국방부의 요구를 거부할 것을 촉구함
  • 이 서한은 AI의 군사적 오용에 대한 내부 저항과 업계 연대의 상징적 행동

공개서한의 주요 내용

  • 국방부가 Anthropic에 대해 국방물자생산법 발동공급망 위험 지정을 위협하고 있음
    • 요구 내용은 Anthropic의 AI 모델을 군에 제공하고, 군의 필요에 맞게 조정하도록 강제하는 것
    • Anthropic은 국내 감시 및 자율 살상 무기 사용 금지라는 내부 원칙을 고수하고 있음
  • 국방부는 Anthropic의 거부 이후 Google과 OpenAI와 협상을 진행 중
    • 각 기업이 다른 기업보다 먼저 양보할 것이라는 두려움을 조성하려는 전략으로 묘사됨
  • 서한은 이러한 분열 시도를 막기 위한 공동 입장 표명의 의미를 가짐
    • “이 전략은 우리가 서로의 입장을 모를 때만 통한다”는 문구로 연대의 필요성을 강조

서명자와 참여 현황

  • Google 직원 614명, OpenAI 직원 95명이 서명
    • 모두 현직 직원으로 검증됨
    • 일부는 실명으로, 다수는 익명(Anonymous) 으로 참여
  • 서명은 익명 또는 실명 선택 가능, 모든 서명은 고용 증명 절차를 통해 검증
    • 검증 방법: 회사 이메일 인증, Google Form 로그인, 또는 신분증 사진 제출 등
    • 익명 서명자의 개인정보는 검증 후 24시간 내 자동 삭제

서한의 의의

  • AI 기업 내부에서 군사적 활용에 대한 윤리적 한계 설정을 명확히 한 사례
  • Google과 OpenAI 직원들이 기업 간 경쟁보다 공동 원칙을 우선시하는 입장을 공개적으로 표명
  • AI의 자율 살상 및 감시 기술 남용에 대한 업계 내부 견제로서 중요한 의미를 가짐

Read Entire Article