핵심은 OpenAI 계약서의 실제 문구와 Altman이 말하는 내용의 차이점임 X 스레드에서 OpenAI는 “국방부와의 계약이 우리의 redline을 지킨다”고 주장했음 “Any Lawful Use” 조항의 문제는 국방부가 ‘합법’의 정의를 마음대로 정할 수 있다는 점임 결국 새로 이름 붙인 “Department of War”는 세금만 낭비하며 쓸모없는 기술을 비싸게 사들일 것임 Anthropic과 OpenAI의 차이는, Anthropic은 기술적으로 제한을 강제하려 했고 OpenAI는 “정부가 어기지 않길 바란다”고 말로만 약속한 것임 자율 살상 결정을 내리는 AI는 매우 위험한 발상임 사람들은 Anthropic이 Palantir과 협력했던 걸 잊은 듯함 OpenAI가 이번 논란로 고객을 잃고 있어서 이미지 관리용 게시물을 올린 것 같음 Anthropic은 정부의 AI 규제 강화를 원했는데, 결국 자신들이 그 결과를 맞이하게 된 셈임 이번 일은 OpenAI가 윤리적 기준이 약하다는 비판을 의식해 PR로 대응하는 것처럼 보임Hacker News 의견들
계약서에는 “법이나 정책이 인간 통제를 요구하는 경우에는 자율 무기 운용에 사용하지 않는다”라고 되어 있음
즉, 국방부가 “인간 통제가 필요 없다”고 정하면 그대로 가능하다는 뜻임
Anthropic은 “대규모 감시는 절대 불가”라는 절대적 금지선을 뒀는데, OpenAI는 “법이 허용하면 가능”이라는 식으로 완화했음
그런 계약을 체결해놓고 Anthropic을 옹호하는 척하는 건 업계에서 보기 드문 PR 쇼 같음
하지만 NPR 기사에 따르면 Anthropic은 같은 기준을 지키다 계약에서 배제됐고, OpenAI는 돈을 챙겼음
그래서 계약을 따낸 것임
하지만 guardrail이 민간인 감시를 막을 수 있을지는 의문임
내부 변호사가 메모 하나 써두면 그게 곧 합법이 됨
정부 권한 남용은 투표와 제도 개혁으로 바로잡아야 함
시스템이 그렇게 설계된 건 아니지만 현실은 다름
시민들에게 안타까움을 느낌
정부가 후자를 선택한 건 당연함
즉, “합법이라면 대규모 감시나 자율 살상 무기도 가능”이라는 여지를 남김
단순히 초지능 때문이 아니라, 소형 모델로도 누구나 추적 불가능한 무기를 만들 수 있기 때문임
현재 모델들은 인간 생명에 대한 긍정적 태도를 학습했지만, 그걸 제거하면 괴물 같은 시스템이 됨
단지 확률적 토큰 예측기일 뿐임
예를 들어, 프로그램이 살상 대상 목록을 만들고 인간이 드론을 조종하는 구조였음
그 사실이 드러나자 PR로 덮었을 뿐임
해외에서는 여전히 비윤리적 활용이 가능함

3 weeks ago
11







English (US) ·