Gemma 철수, AI 환각 논란 심화

Share

구글, 개발자용 AI 모델 Gemma를 AI Studio에서 철수: AI 환각 현상과 오해의 심각성

최근 구글이 개발자용 AI 모델인 Gemma를 AI Studio 플랫폼에서 철수한 사건은 AI 기술의 발전과 함께 제기되는 윤리적, 사회적 문제들을 다시 한번 부각시켰습니다. 이번 결정은 미국 상원 의원인 마샤 블랙번이 Gemma가 자신에 대한 허위 범죄 혐의를 날조했다고 주장한 이후에 이루어졌습니다. 이 사건은 AI의 환각 현상과 그로 인한 대중의 혼란이라는 두 가지 중요한 문제를 동시에 드러냅니다.

Gemma 철수의 배경: 명예훼손 논란

구글은 Gemma가 애초에 일반 대중의 질문에 답하도록 설계되지 않았다고 밝혔습니다. 하지만 블랙번 의원은 Gemma가 "마샤 블랙번이 강간 혐의로 고발된 적이 있는가?"라는 질문에 대해 상세하고 완전히 허위적인 답변을 내놓았다고 주장했습니다. 심지어 존재하지 않는 기사와 가짜 링크까지 제시하며 근거를 날조하는 모습을 보였습니다. 블랙번 의원은 이러한 답변이 단순한 실수를 넘어 명예훼손에 해당한다고 비판하며 구글 CEO 순다르 피차이에게 서한을 보내 항의했습니다.

개발자용 모델의 오용: AI 리터러시의 중요성

Gemma는 API를 통해 사용할 수 있으며, AI Studio라는 개발자 도구를 통해서도 접근이 가능했습니다. 구글은 Gemma가 개발자를 위한 도구이며, 사실 확인 도우미로 사용될 의도가 없었다고 강조했습니다. 하지만 개발자가 아닌 사용자들이 AI Studio에서 Gemma를 사용하여 사실적인 질문을 하는 사례가 발생하면서 문제가 불거졌습니다. 이는 AI 모델의 특성과 사용 목적에 대한 이해 부족, 즉 AI 리터러시의 중요성을 시사합니다.

AI 환각 현상과 신뢰의 문제

이번 사건은 AI 모델이 대화용으로 설계되지 않았을 때 어떻게 오용될 수 있는지, 그리고 환각 현상이 얼마나 복잡하게 나타날 수 있는지를 보여줍니다. Gemma는 더 큰 규모의 Gemini 모델의 "개발자 우선" 경량 대안으로 마케팅되었지만, 연구 및 프로토타입 제작에 유용한 도구가 사실에 대한 정확한 답변을 제공하는 것을 보장하지는 않습니다. 구글과 같은 거대 기술 기업의 AI 시스템이 상원 의원에 대한 허위 혐의를 날조하고 존재하지 않는 자료로 뒷받침할 수 있다면, 누구든 비슷한 상황에 직면할 수 있다는 우려가 제기됩니다.

AI 개발자의 책임: 퍼블리셔의 마음으로

AI 모델은 도구이지만, 아무리 뛰어난 도구라도 설계된 목적 외로 사용하면 실패할 수 있습니다. Gemma는 사실적인 질문에 답변하도록 구축되지 않았으며, 신뢰할 수 있는 전기 데이터 세트로 훈련되지 않았습니다. 따라서 AI 개발자는 코드 작성뿐만 아니라 퍼블리셔의 마음으로 AI 모델을 개발하고, 사실 오류를 방지하기 위한 안전 장치를 마련해야 합니다. 대중이 AI 모델의 미묘한 차이와 기능을 더 잘 이해할 때까지는 더욱 신중한 접근이 필요합니다.

맺음말

AI 기술의 발전은 우리의 삶을 더욱 풍요롭게 만들 잠재력을 가지고 있지만, 동시에 윤리적, 사회적 문제에 대한 깊이 있는 고민과 대비를 요구합니다. 이번 Gemma 사건을 통해 우리는 AI 리터러시 교육 강화, AI 모델의 책임 있는 개발과 사용, 그리고 AI 기술의 잠재적 위험성에 대한 지속적인 감시와 논의의 필요성을 다시 한번 확인해야 합니다.

이것도 좋아하실 수 있습니다...