AI 기업 앤트로픽이 미 국방부의 AI 무기화 요구에 맞서 계약을 포기하며 윤리적 AI 사용에 대한 논쟁이 뜨겁게 달아오르고 있다.
2026년, AI 기업 앤트로픽과 미 국방부 간의 갈등이 격화되고 있습니다. 앤트로픽은 국방부의 ‘모든 합법적 사용’ 조항 요구에 반발하며 계약 해지를 감수했습니다. 이는 AI의 윤리적 사용에 대한 중요한 논쟁을 촉발했습니다.
국방부의 요구와 앤트로픽의 거부
국방부 장관 Pete Hegseth는 앤트로픽의 AI 모델을 국내 감시, AI 무기 등 ‘합법적’이라는 명목 하에 광범위하게 사용하려 했습니다. 이에 앤트로픽 CEO Dario Amodei는 AI의 위험성을 인지하고 계약상의 안전장치 삭제 요구를 거부했습니다. 앤트로픽은 국민 감시와 완전 자동 무기 개발에 AI가 사용되는 것을 용납할 수 없다는 입장을 밝혔습니다.
앤트로픽의 입장
Amodei는 AI를 활용한 국방에는 찬성하지만, 국내 감시는 민주적 가치에 위배된다고 주장합니다. 또한, 현재 AI 시스템은 완전 자동 무기를 제어할 만큼 신뢰성이 높지 않다고 강조하며 국방부와의 협력 연구 개발 제안을 거절당했다고 밝혔습니다. 앤트로픽은 AI의 무분별한 사용이 초래할 위험을 경고하며, 윤리적 책임을 다하겠다는 의지를 보였습니다.
트럼프의 반발과 다른 AI 기업들의 선택
앤트로픽의 결정에 트럼프는 즉각 반발하며 모든 연방 기관에 앤트로픽 기술 사용 중단을 지시했습니다. 반면, 은퇴한 장군 Jack Shanahan은 앤트로픽의 입장을 지지하며, 현재 AI 모델이 국가 안보 환경에 적합하지 않다고 밝혔습니다. OpenAI CEO Sam Altman은 감시 및 자율 살상 무기에 AI를 사용하지 않는다는 원칙을 강조하면서도 국방부와의 협력 가능성을 열어두었습니다. 결국 OpenAI는 국방부와 계약을 체결하며 수익 확보에 나섰습니다.
AI 윤리 논쟁의 심화
앤트로픽의 결단은 AI 윤리에 대한 사회적 논의를 더욱 심화시켰습니다. 시민 단체들은 앤트로픽을 지지하며 국방부의 압력에 굴복하지 않기를 촉구했습니다. 구글과 OpenAI 직원들 역시 앤트로픽의 입장을 지지하며 기업의 윤리적 책임을 강조하는 공개 서한을 발표했습니다. 앤트로픽의 사례는 AI 개발 기업들이 기술의 잠재적 위험을 인지하고 윤리적 가이드라인을 준수해야 함을 시사합니다. 2028년, AI 무기가 오용될 경우 그 책임은 누구에게 있을까요? AI 기술의 윤리적 통제가 시급합니다.