챗GPT, 모델 컨텍스트 프로토콜(MCP) 공개…보안 전문가들 우려하는 이유는?
Generative AI(생성형 인공지능, genAI)는 IT 업계에 고전적인 딜레마를 던져줍니다. 잘 작동할 때는 놀라울 정도로 다재다능하고 유용하며, 거의 모든 것을 할 수 있다는 꿈을 꾸게 만듭니다. 하지만 제대로 작동하지 않을 때는 엉뚱한 답을 내놓거나, 지시 사항을 무시하고, 공상 과학 공포 영화의 줄거리를 강화하는 듯한 모습을 보여줍니다. 최근 OpenAI가 모델 컨텍스트 프로토콜(MCP)을 사용하여 genAI 모델이 모든 소프트웨어에 완전하게 접근할 수 있도록 하는 변화를 발표했을 때 우려가 컸던 이유입니다.
MCP란 무엇이며 왜 중요할까요?
MCP는 애플리케이션이 LLM(대규모 언어 모델)에 컨텍스트를 제공하는 방식을 표준화하는 개방형 프로토콜입니다. OpenAI는 Responses API에서 원격 MCP 서버 지원을 추가하여 개발자들이 단 몇 줄의 코드로 자사의 모델을 모든 MCP 서버에서 호스팅되는 도구에 연결할 수 있도록 했습니다. 페이팔, 스트라이프, 쇼피파이, 스퀘어, 슬랙, 퀵북스, 세일즈포스, 구글 드라이브 등 인기 있는 앱을 가진 많은 회사가 MCP를 사용하겠다고 공개적으로 밝혔습니다. genAI LLM이 이러한 앱 및 더 많은 앱과 데이터 및 작업을 조정할 수 있다는 것은 매력적일 수 있지만, 많은 보안 전문가들은 우려를 표하고 있습니다.
보안 전문가들이 MCP에 우려하는 이유
가장 큰 우려는 보안입니다. MCP는 genAI 도구가 민감한 데이터에 접근하고 앱을 제어할 수 있게 하여 위험을 기하급수적으로 증가시킵니다. LastPass의 CTO 겸 CSO인 Christofer Hoff는 링크드인에서 "자동화된 워크플로우를 위한 표준화된 인터페이스는 훌륭하지만, 보안 측면에서 볼 때 끔찍합니다. 악당들은 MCP를 매우 좋아할 것입니다. MCP가 있는데 왜 멀웨어가 필요할까요?"라고 말했습니다. SailPoint의 CISO인 Rex Booth 또한 "에이전트를 민감한 데이터 소스에 연결하는 경우 강력한 안전 장치가 필요합니다."라고 우려했습니다.
LLM의 환각 현상과 데이터 유출 위험
Anthropic 자체도 genAI 모델이 항상 자체적인 안전 장치를 준수하지 않는다는 점을 지적했습니다. QueryPal CEO인 Dev Nag는 불가피한 데이터 사용 문제를 예상합니다. "모델이 어떤 파일을 볼 수 있고 어떤 파일을 볼 수 없는지 지정해야 하며, 이를 지정할 수 있어야 합니다."라고 말했습니다. 그는 이어 "LLM은 환각을 일으키고 잘못된 텍스트 가정을 합니다. AI가 핵심 재무 정보를 보고 회계를 변경할 수 있게 하고 싶지 않을 것입니다."라고 경고했습니다. LLM이 의도와 다르게 작동하여 민감한 정보가 유출될 수 있는 위험은 간과할 수 없습니다.
이중 방어 전략의 중요성
Nag는 통신 양쪽에서 안전 장치를 신뢰하지 않고, 양쪽에 제외 지침을 제공하는 것이 가장 좋은 방어라고 주장합니다. 예를 들어 모델이 Google Docs에 접근하려는 경우, Google Docs 레이어에 LLM의 호출을 허용하지 않도록 지시하고, LLM 측에서는 작업 문서는 보여주되 재무 문서는 보여주지 않도록 지시해야 합니다. 이중 방어 전략은 LLM의 오류로 인한 데이터 유출 위험을 최소화하는 데 필수적입니다.
맺음말
MCP 상호작용의 개념은 훌륭하지만, 현재 기술 수준으로는 위험이 따릅니다. 보안 전문가들은 genAI 모델의 보안 취약점과 데이터 유출 위험을 강조하며, MCP를 신중하게 구현하고 강력한 안전 장치를 마련해야 한다고 주장합니다. 자동화와 효율성을 추구하는 것도 중요하지만, 그에 앞서 데이터 보안과 개인 정보 보호를 최우선으로 고려해야 할 것입니다.