2026년 OpenAI 로보틱스 책임자 칼리노프스키의 사임은 국방부 계약의 감시 및 자율 무기 윤리 문제를 부각시키며 AI 산업의 거버넌스와 벤더 평가에 중대한 변화를 가져왔습니다.
칼리노프스키 사임: AI 윤리 경고등
2026년 현재, AI 기술 발전과 함께 윤리적 거버넌스 논의는 그 어느 때보다 중요해졌습니다. 이러한 상황 속에서 OpenAI 로보틱스 책임자 케이틀린 칼리노프스키의 사임은 AI 산업계에 큰 충격을 주었습니다. 그녀는 미국 국방부와의 계약 체결 과정에서 핵심 안전장치 검토가 미흡했다고 주장했습니다. 특히 국내 감시와 자율 무기 사용에 대한 우려를 제기하며, 이는 “원칙에 대한 문제”임을 분명히 했습니다. 이 사건은 AI 개발과 배포에 있어 윤리적 책임의 중요성을 다시 한번 강조하는 경고등이 되었습니다.
“원칙의 문제”: 감시 및 자율 무기 논쟁
케이틀린 칼리노프스키는 그녀의 LinkedIn 게시물에서 “사법적 감독 없는 미국인 감시와 인간 승인 없는 치명적인 자율성은 더 많은 숙고가 필요했던 선을 넘었다”고 강하게 비판했습니다. 이는 OpenAI와 국방부 계약의 핵심 쟁점이었습니다. 그녀는 개인적인 불화가 아닌 AI 기술의 사회적 영향력에 대한 깊은 우려 때문에 사임을 결정했다고 밝혔습니다. 이처럼 고위 리더의 윤리적 소신 표명은 AI 기술의 잠재적 오용 가능성에 대한 광범위한 사회적 논의를 촉발하는 중요한 계기가 되었습니다.
기업 구매자, 거버넌스 프로세스에 주목
칼리노프스키의 사임은 AI 솔루션을 도입하려는 기업 구매자들 사이에서 OpenAI의 거버넌스 프로세스에 대한 심각한 우려를 불러일으켰습니다. 그레이하운드 리서치의 산치트 비르 고기아 수석 분석가는 2026년에도 “고위 리더가 감시 안전장치나 치명적인 자율성에 대한 불충분한 심의를 우려하며 떠날 때, 논의는 빠르게 인물에서 프로세스로 전환된다”고 지적합니다. 이는 계약 수정만으로는 해결될 수 없는 근본적인 문제로 인식되고 있으며, 기업들은 AI 벤더의 내부 통제 시스템에 더 큰 비중을 두기 시작했습니다.
진화하는 AI 벤더 평가 프레임워크
이 사건은 기업들이 AI 벤더를 평가하는 방식에 중대한 변화를 가져왔습니다. 고기아는 2026년 현재, 많은 조직이 단일 AI 모델 제공업체에 표준화하기보다 여러 AI 모델 제공업체를 비교 평가하고 있다고 설명합니다. 또한, 대규모 AI 시스템 배포를 승인하기 전에 추가적인 거버넌스 문서 요구사항을 벤더 계약에 통합하는 것이 새로운 표준이 되고 있습니다. 이는 AI 기술의 복잡성과 잠재적 위험에 대응하기 위한 기업들의 방어적인 전략으로 해석될 수 있습니다.
국가 안보, AI 소싱의 새로운 변수
칼리노프스키 사임 사건은 AI 벤더 평가에 있어 국가 안보 요소의 중요성도 부각시켰습니다. 에베레스트 그룹의 압히셰크 셍굽타 부사장은 2026년 기업들이 “AI 스택을 고려할 때 평가해야 할 또 다른 위험 벡터를 갖게 됐다”고 말합니다. 그는 특히 지정학적으로 중요한 경제권에서 “국가 안보 지침이 AI 소싱 고려 사항에 점점 더 큰 영향을 미칠 것”이라고 예측합니다. 이는 AI 기술이 단순히 상업적 도구를 넘어 전략적 자산으로 인식되면서 발생하는 필연적인 변화입니다.
OpenAI 국방부 계약 논란의 시작
OpenAI는 2026년 2월 27일, 미국 국방부와 논란의 계약을 체결했습니다. 이는 국방부가 경쟁사 앤트로픽을 국내 대량 감시 또는 완전 자율 무기 사용 거부로 인해 공급망 위험으로 지정한 지 불과 몇 시간 후에 이루어졌습니다. 샘 알트만 CEO는 당일 저녁 국방부가 OpenAI의 감시 및 자율 무기 관련 레드라인에 동의했다고 발표했습니다. 하지만 이 계약은 즉각적으로 AI 커뮤니티와 대중의 강한 비판에 직면하며, OpenAI의 윤리적 입지에 대한 의문을 제기했습니다.
여론 압력 속 계약 내용의 수정
초기 발표 이후, 샘 알트만 CEO는 X(구 트위터)를 통해 계약 체결이 “기회주의적이고 부주의해 보였다”고 인정하며, 계약 처리 과정에 미흡함이 있었음을 시사했습니다. 대중과 내부 직원의 거센 압력 속에 OpenAI는 계약 내용을 신속하게 수정했습니다. 개정된 계약은 미국 시민에 대한 국내 감시를 명시적으로 금지하고, 이 금지 조항을 위치 정보 및 브라우징 기록을 포함한 상업적으로 획득된 데이터로까지 확대했습니다. 또한 정보기관은 계약 범위에서 제외되었습니다.
법적 전문가들의 지속적인 우려 표명
OpenAI가 계약을 수정했음에도 불구하고, 법률 전문가들과 디지털 권리 단체들은 여전히 우려를 표하고 있습니다. 비영리 단체인 전자 프론티어 재단(EFF)은 2026년에도 “비밀 합의와 기술적 보증만으로는 감시 기관을 제어하기에 결코 충분하지 않았다”고 경고합니다. 고기아 또한 기업 구매자들의 위험 관리 팀이 “그러한 약속이 어떻게 이행되는지, 누가 강제하는지, 그리고 나중에 해석이 변경될 경우 어떻게 되는지”와 같은 심층적인 질문을 던지기 시작했다고 지적했습니다. 이는 단순히 문서화된 조항 이상의 신뢰 문제를 의미합니다.
앤트로픽의 공급망 위험 지정과 재협상
OpenAI의 국방부 계약 논란은 경쟁사 앤트로픽에게도 영향을 미쳤습니다. 국방부가 앤트로픽을 공급망 위험으로 지정한 후, IT 산업계의 반발이 거세졌습니다. 애플, 구글, 엔비디아, OpenAI 등을 회원사로 둔 정보기술산업협의회(ITIC)는 국방부 장관에게 서한을 보내, 이러한 지정은 외국 적대국에 적용되는 것이며 미국 기술 접근을 제한할 수 있다고 주장했습니다. 샘 알트만 CEO도 앤트로픽의 복귀를 공개적으로 지지하며, 국방부가 “우리와 합의한 것과 동일한 조건을 제공하기를 바란다”고 밝혔고, 앤트로픽은 국방부와 재협상에 돌입했습니다.
2026년, AI 윤리 거버넌스의 숙제
2026년 현재, OpenAI 국방부 계약 사태는 AI 산업이 직면한 윤리적 딜레마와 거버넌스 구축의 시급성을 명확히 보여줍니다. 고위 리더의 사임, 기업 구매자의 평가 기준 변화, 그리고 국가 안보 문제의 부상 등 이 사건은 여러 층위에서 AI의 미래를 재정의하고 있습니다. AI 기술의 폭발적인 발전 속도를 감안할 때, 투명하고 강력한 윤리적 가이드라인과 책임 있는 거버넌스 프레임워크를 마련하는 것은 2026년 이후에도 AI 산업의 지속 가능한 성장을 위한 가장 중요한 숙제로 남을 것입니다.