트럼프 행정부가 Anthropic AI 기술 사용을 금지하며 미 국방부와 AI 기업 간의 갈등이 심화되고 있습니다. 국방부는 국가 안보를 이유로 AI 사용 제약에 반발하고 있습니다.
트럼프, Anthropic AI 기술 사용 전면 금지
도널드 트럼프 행정부가 2026년 금요일, 인공지능 기업 Anthropic의 제품 사용을 연방 기관에서 금지하는 조치를 단행했습니다. 이는 미국 군대가 AI 시스템 사용 방식을 민간 AI 기업이 제한할 수 있는지에 대한 첨예한 갈등을 고조시키는 행보입니다.
트럼프 대통령은 Truth Social 게시글에서 Anthropic을 "좌파 멍청이들"이라고 칭하며 "모든 연방 기관"에 Anthropic 기술 사용을 즉시 중단하라고 지시했습니다. 동시에 국방부는 Anthropic을 "공급망 위험"으로 지정할 준비를 하고 있습니다. 이는 일반적으로 중국 Huawei가 제조한 통신 장비와 같은 외국 적대국의 기술 제품과 관련된 명칭입니다.
Anthropic과 국방부의 갈등
이번 결정은 Anthropic과 피트 헤지세스 국방장관 간의 이례적으로 공개적인 논쟁에 따른 것입니다. 국방부는 이를 "모든 합법적 목적" 요구 사항이라고 칭했습니다. 이는 군대가 AI 모델을 라이선스하면 공급업체가 부과한 안전 정책에 제약받지 않고 합법적인 임무에 자유롭게 사용할 수 있어야 함을 의미합니다.
헤지세스 국방장관은 X에서 트럼프의 비판에 동조하며 "’효과적인 이타주의’라는 위선적인 수사로 포장된 [Anthropic과 CEO 다리오 아모데이]는 미국 군대를 굴복시키려 시도했습니다. 이는 실리콘 밸리의 이념을 미국인의 생명보다 우선시하는 비겁한 기업의 도덕적 과시 행위입니다."라고 말했습니다. 그는 "그들의 진정한 목표는 분명합니다. 미국 군대의 작전 결정에 대한 거부권을 장악하는 것입니다. 이는 용납할 수 없습니다."라고 덧붙였습니다.
6개월의 유예 기간과 Claude 대체 경쟁
Axios에 따르면 이 계획에 따라 국방부는 Anthropic과의 최대 2억 달러 규모의 계약을 해지하고 국방 계약업체 및 기타 공급업체에 Anthropic의 Claude 모델을 국방부와 관련된 작업에 사용하지 않음을 인증하도록 요구할 것입니다. 행정부는 기관 및 계약업체가 대안으로 전환할 시간을 벌 수 있도록 6개월의 유예 기간을 허용하고 있습니다.
Claude는 군의 기밀 시스템, 국방부의 가장 민감한 정보 작업, 무기 개발 및 작전 계획을 지원하는 시스템에 사용되어 왔기 때문에 전환이 특히 어려울 수 있습니다. 국방 관계자들은 Claude의 성능이 매우 뛰어나다고 평가하며 기존 워크플로에서 분리하는 것이 어려울 것이라고 인정했습니다.
Anthropic의 주장과 국방부의 반박
Anthropic은 특정 용도, 특히 대규모 국내 감시 및 완전 자율 무기는 금지되어야 한다고 주장합니다. CEO 다리오 아모데이는 열정적인 에세이에서 회사가 "양심적으로" 이러한 안전 장치를 제거할 수 없다고 경고하며 현재 AI 시스템은 완전 자율적인 치명적인 의사 결정에 충분히 신뢰할 수 없으며 대규모 감시는 남용의 심각한 위험을 수반한다고 밝혔습니다.
국방부는 군대가 이미 자체 규칙과 감독하에 운영되고 있으며 특히 "감시" 및 "자율성"의 정의가 논쟁의 여지가 있는 회색 지대에서 공급업체의 서비스 약관에 의해 임무 결정이 제한될 수 없다고 주장합니다.
미국 국가 안보에 미치는 영향
단기적으로 행정부의 조치는 국방부가 Anthropic의 모델을 기밀 환경에서 제거하면서 동시에 생성형 AI를 통합하기 시작한 정보 분석 및 계획 작업의 연속성을 유지하는 미묘한 전환을 관리하도록 강요합니다. 장기적인 의미는 더 광범위합니다.
이번 금지는 연방 시장, 특히 국방에 대한 접근이 "모든 합법적 사용" 조건 수락에 달려 있을 수 있음을 시사하며 특정 국가 안보 애플리케이션에 대한 강력한 제한선을 부과하려는 AI 기업의 영향력을 잠재적으로 감소시킵니다. 또한 정부 공급업체로서 AI 기업에 대한 실질적인 질문을 제기합니다. 정부가 주요 AI 제공업체를 민감한 시스템에서 몰아내면 기관 및 계약업체는 더 적은 수의 대안으로 통합되어 기밀 환경에서 운영할 의향과 능력이 있는 회사에 대한 의존도가 높아질 수 있습니다. 이러한 중요한 군사 인프라의 혼란은 국가 안보 위협을 더욱 야기할 수 있다고 일부는 주장합니다.
경쟁자들의 움직임: Grok, OpenAI, Google
이번 결정은 경쟁 환경을 재편할 수 있습니다. Elon Musk의 xAI는 이미 Grok 모델을 기밀 군사 시스템에 도입하기로 합의했으며 이는 Anthropic과의 관계가 무너지면 xAI를 잠재적인 대체자로 자리매김했습니다. 그러나 Grok의 안전과 신뢰성에 대한 심각한 우려가 연방 정부 내에서 제기되었습니다. 한편 국방부는 OpenAI 및 Google과 협력하여 모델의 가용성을 비기밀 시스템에서 보다 민감한 환경으로 확대하는 방안을 논의하고 있습니다.
OpenAI CEO Sam Altman은 또한 Anthropic의 핵심 윤리적 반대와 일치하는 회사로 자리매김하려고 노력했습니다.
정치 및 업계의 반발
경쟁자들 사이에서도 Anthropic과의 싸움은 이례적인 공감을 불러일으켰습니다. Google 및 OpenAI의 수백 명의 직원이 청원서에서 Anthropic을 지지하여 군사 응용 프로그램에 대한 AI 산업 전반의 내부 긴장을 강조했습니다. Anthropic에 대한 금지를 무산시킬 수 있는 한 가지 요인은 통합된 AI 부문의 거부입니다.
Anthropic은 진행 중인 임무의 중단을 피하기 위해 전환에 협력하겠다고 밝혔습니다.
앞으로의 전망
행정부의 결정은 여러 가지 즉각적인 테스트 사례를 설정합니다. 첫째 기관 및 계약업체는 Anthropic 도구가 운영에 얼마나 깊이 내장되어 있는지, 성능 또는 보안 저하 없이 얼마나 빨리 마이그레이션할 수 있는지 결정해야 합니다. 둘째 라이벌은 감시, 자율성 및 위험이 큰 환경에서 AI 시스템이 예측 불가능하게 작동할 위험에 대한 내부 및 외부 감시를 관리하면서 "모든 합법적 사용"에 대한 국방부의 요구를 충족하는 방법을 놓고 자체적인 균형을 맞춰야 합니다. 마지막으로 금지는 Anthropic을 넘어서는 근본적인 정책 질문을 제기합니다. 국가 안보를 위해 최첨단 AI를 배포하기 위한 경쟁에서 누가 경계를 설정합니까? 작전 유연성이 필요한 정부입니까, 아니면 기술에 대한 액세스를 구축하고 제어하는 민간 기업입니까?