구글 버텍스 AI 권한 상승 취약점: CISO의 새로운 보안 과제
최근 구글의 버텍스 AI에서 발견된 권한 상승 취약점은 클라우드 환경, 특히 AI 서비스 에이전트를 관리하는 데 있어 기존의 보안 과제와는 전혀 다른 차원의 문제임을 보여줍니다. 보안 업체 XM사이버의 보고에 따르면, 기본 설정 상태에서 권한이 낮은 사용자가 높은 권한을 가진 서비스 에이전트 역할로 상승할 수 있는 가능성이 확인되었습니다. 이는 클라우드 서비스 제공업체의 ‘공유 책임’ 모델이 가지는 허점을 드러내는 사례이며, CISO에게 새로운 보안 패러다임을 요구하고 있습니다.
버텍스 AI 취약점의 본질
XM사이버는 버텍스 AI에서 낮은 권한의 사용자가 서비스 에이전트의 액세스 토큰을 획득하여 해당 에이전트가 가진 권한을 행사할 수 있음을 밝혔습니다. 이는 구글 클라우드가 관리하는 서비스 에이전트가 프로젝트 전반에 걸쳐 광범위한 권한을 자동으로 부여받는 구조적 특성 때문에 발생합니다. 낮은 권한 사용자의 권한 상승 가능성을 "의도된 동작"이라고 설명하는 것은 기업의 거버넌스 모델이 특정 업체의 아키텍처에 종속되어 있음을 의미하며, 이는 구조적 설계 결함으로 이어질 수 있습니다.
반복되는 클라우드 보안 문제
버텍스 AI의 취약점은 이번이 처음이 아닙니다. 과거 마이크로소프트 애저 스토리지, 아마존 AWS 세이지메이커 등 다른 클라우드 환경에서도 유사한 권한 상승 문제가 발생했습니다. 클라우드 서비스 업체는 이러한 문제에 대해 '설계상 문제' 또는 '정상 동작'이라고 해명하며 '공유 책임'이라는 개념을 방어 수단으로 활용하는 경향을 보입니다. CISO는 '매니지드' 서비스가 곧 '보안이 보장된다'는 의미라는 믿음을 버리고, AI 워크로드에 연결된 모든 서비스 아이덴티티를 직접 점검해야 합니다.
기업 보안 원칙과의 괴리
이번 보고서는 버텍스 AI의 신뢰 모델이 기업 보안 원칙과 근본적으로 어긋나 있음을 시사합니다. 플랫폼에서 AI 기능을 바로 사용할 수 있도록 매니지드 서비스 에이전트에 광범위한 권한을 부여하는 것은 편의성을 제공하지만, 가시성과 통제력 저하라는 대가를 수반합니다. 이러한 서비스 계정은 백그라운드에서 작동하며 프로젝트 전반에 걸친 권한을 갖고 있어, 시스템의 동작 방식을 이해하는 사용자가 이를 조작할 수 있습니다.
보완 통제 구축의 필요성
CISO는 클라우드 서비스 제공업체가 '의도된 동작'의 정의를 다시 정리해주기를 기다리는 것이 아니라, 즉시 보완 통제를 구축해야 합니다. 악의적인 내부자가 취약점을 악용하여 원래 허용된 범위를 넘어서는 접근 권한을 스스로 부여할 수 있기 때문입니다. 인증 범위를 줄이고 그 사이에 강력한 보안 경계를 설정하여 피해 범위를 제한하는 방법이 필요하지만, 이는 비용 증가라는 부작용을 초래할 수 있습니다.
감시 사각지대에 놓인 서비스 에이전트
대부분의 기업 보안 도구는 서비스 에이전트의 동작을 모니터링하는 체계를 갖추고 있지 않아, 이러한 유형의 문제를 찾아내지 못합니다. 서비스 에이전트가 악용되더라도 공격자처럼 보이지 않고 플랫폼이 정상적으로 작동하는 것처럼 보이기 때문에 위험은 더욱 심각해집니다. 서비스 에이전트를 특권을 가진 직원처럼 취급하고 감시하며, 예상치 못한 쿼리 실행, 스토리지 접근, 세션 동작을 기준으로 경고 체계를 구축해야 합니다.
보이지 않는 위험에 대한 인식 전환
지금까지 대부분의 기업은 사용자 활동은 기록했지만, 플랫폼 내부에서 무슨 일이 벌어지는지는 들여다보지 않았습니다. 이제는 서비스 에이전트처럼 제대로 이해하지 못하는 아이덴티티 아래에서 코드가 실행되고, 어떤 작업이 이뤄지는지도 모니터링하지 않은 채 안전하다고 가정한 환경을 그대로 신뢰하는 것은 "보이지 않는 위험"에 해당한다는 인식을 바꿔야 합니다. AI 환경에서는 이러한 위험이 더욱 증폭됩니다.
결론
구글 버텍스 AI에서 발견된 권한 상승 취약점은 클라우드 보안의 새로운 도전 과제를 제시합니다. CISO는 클라우드 서비스 제공업체의 '공유 책임' 모델의 한계를 인식하고, 자체적인 보안 통제 체계를 강화해야 합니다. 서비스 에이전트에 대한 지속적인 모니터링과 감시, 그리고 예상치 못한 활동에 대한 경고 시스템 구축을 통해 AI 환경의 숨겨진 위험을 관리해야 할 것입니다.