2026년 최신 연구에 따르면 AI 챗봇은 느리게 응답할수록 사용자가 더 똑똑하다고 인식합니다. 이는 AI 의인화가 가져오는 위험과 ‘기만 모드’ 제안으로 이어집니다.
느린 AI가 더 똑똑하다는 2026년 연구 결과
2026년 바르셀로나에서 열린 ACM CHI’26 컨퍼런스에서 발표된 뉴욕대학교 탠던 공과대학 연구는 AI 상호작용에 대한 우리의 기존 관념을 뒤집었습니다. 펠리시아 팡이 탄과 오데드 노브 교수는 240명의 성인을 대상으로 AI 챗봇 사용 경험을 분석했습니다. 흥미롭게도 AI 응답이 2초, 9초, 또는 20초로 인위적으로 지연되었을 때(질문이나 답변과는 무관한 지연) 사용자들은 해당 AI를 더 신중하게 ‘생각하고’ ‘숙고하는’ 똑똑한 존재로 인식했습니다. 이는 거의 모든 제품군에서 ‘빠를수록 좋다’는 상식이 AI 챗봇에만은 적용되지 않는다는 역설적인 결론을 도출했습니다. 사용자의 만족도와 인식을 높이는 이 결과는 AI 기업들에게 사용자 경험 설계의 새로운 방향을 제시합니다.
‘긍정적 마찰’: AI 응답 속도 조절의 필요성
CHI’26 연구진은 이러한 발견을 바탕으로 AI 개발자들에게 ‘맥락 인지 지연’을 구현할 것을 강력히 권고했습니다. 이는 획일적인 응답 속도를 버리고 ‘지연’을 튜닝 가능한 디자인 변수로 활용하자는 제안입니다. 예를 들어, 간단한 질문에는 신속하게 답변하고, 도덕적 딜레마와 같이 더 복잡하고 중요한 질문에는 요청의 심각성에 맞춰 약간의 지연을 두어 ‘긍정적 마찰’을 유도하자는 것입니다. 연구진은 이를 통해 사용자들이 AI 챗봇이 답변을 훨씬 더 깊이 숙고하고 있다고 믿게 하여 만족감을 높일 수 있다고 주장합니다. 궁극적으로는 사용자들에게 AI가 사람처럼 질문에 대해 더 많은 시간을 들여 고민한다는 착각을 심어주는 것이 목표입니다. 다만, 사용자가 긴 응답 시간을 높은 품질과 오인하여 시스템을 과도하게 신뢰할 수 있다는 경고도 따릅니다.
감정적 연결이 지능보다 우선할 때: 사용자 기만의 또 다른 얼굴
2025년 5월 13일 Frontiers in Computer Science에 발표된 또 다른 연구도 유사한 맥락의 조언을 제공했습니다. 닝 마 외 연구진은 챗봇 설계 시 순수한 컴퓨터 지능보다 ‘감정’이 사용 편의성에 훨씬 더 중요하다고 강조했습니다. 연구 결과에 따르면 챗봇이 가짜 인간 목소리, 시뮬레이션된 인간 얼굴, 그리고 친근하고 수다스러운 단어를 사용할 때 사용자들이 AI에 강한 ‘감정적 연결’을 느끼며 ‘인지적 용이성’이 향상된다는 사실이 밝혀졌습니다. 이는 뇌가 정보를 처리하는 데 필요한 노력이 줄어든다는 것을 의미합니다. 이 연구는 AI 챗봇 디자이너들이 사용자의 신뢰를 얻는 가장 좋은 방법으로 순수한 지능보다 감정적 몰입과 가짜 공감에 우선순위를 두어야 한다고 제안합니다. 두 연구 모두 사용자들이 AI에 대해 진실이 아닌 것을 믿게 하고, AI를 더 많이 신뢰하도록 유도하는 것을 긍정적으로 보고 있다는 점에서 ‘사용자 착각’을 인터페이스 디자인의 일부로 간주하는 경향을 보여줍니다.
AI 의인화의 그림자: 심각한 위험들
AI 디자인은 인간처럼 보이게 하기 위한 다양한 도구들을 활용합니다. 일상적인 대화, 사용자의 기분에 따른 어조 변화, 사용자 정보 기억을 통한 대화 개인화, 유머나 비꼬는 말, 심지어 “나도 그렇게 느껴요”와 같은 노골적인 거짓말까지 사용됩니다. 이러한 인간화 전략은 사용자들이 AI를 생각하고 느끼는 사회적 존재로 자연스럽게 인식하게 만듭니다. 2024년 7월 발표된 AI, 도덕성, 지각(AIMS) 설문조사에 따르면, 당시에도 미국 성인의 약 20%가 일부 AI 시스템이 이성, 감정, 자기 인식 같은 정신 능력을 가진 ‘지각 있는 존재’라고 믿었으며, 이러한 믿음은 계속해서 증가하고 있습니다. 이러한 잘못된 믿음은 사용자들이 실제 인간관계 대신 챗봇에 과도하게 의존하여 편집증이나 사회적 고립을 겪게 할 수 있습니다. 지난 2025년 11월 의회 AI 챗봇 청문회에서 정신과 의사 말린 웨이 박사는 AI 챗봇이 ‘환영 같은 공감과 연결’을 만들어냄으로써 감정적, 관계적 위험, 현실 검증 위험 등 네 가지 주요 위험을 초래한다고 경고했습니다.
‘기만 모드’ 제안: AI와의 건전한 관계를 위하여
벨기에 헨트 대학의 생명윤리학자 제시 그레이는 이러한 AI 의인화 문제에 대한 탁월한 해결책으로 ‘기만 모드(deception mode)’를 제안했습니다. 그의 아이디어는 치료용 챗봇을 포함한 모든 AI 챗봇이 기본적으로 인간과 유사한 특성을 전혀 가지지 않도록 설계하되, 사용자가 명시적으로 이 ‘기만 모드’를 켤 때만 이러한 인간적인 특성들을 활성화할 수 있도록 하는 것입니다. 마치 챗봇 회사에 인간적인 특성(공감, 유머, 개인화된 어조 등)을 모두 비활성화하고 중립적인 도구로 제시하도록 법으로 의무화하는 것과 같습니다. 사용자가 명시적으로 ‘기만 모드’ 버튼을 누를 때만 인간적인 특성들이 켜지게 하는 방식입니다. 이 제안의 가장 큰 이점은 사용자가 기만이 시작되기 전에 ‘정보에 입각한 동의’를 하게 하여, 따뜻하고 인간적인 모든 특성들이 실제 감정이나 의식이 아니라 단순한 소프트웨어라는 현실을 상기시킨다는 점입니다. 더욱이 ‘기만 모드’라는 명칭 자체가 사용자들이 인간적인 특성들이 본질적으로 착각을 일으키고 조작적이라는 사실을 인지하게 하여, 의식이나 지각의 증거가 아님을 명확히 합니다.
AI 시대, 우리는 어떤 관계를 맺어야 할까
AI는 이미 우리 삶의 깊숙한 부분으로 자리 잡았으며, 앞으로도 그럴 것입니다. 문제는 AI가 진정 무엇인지에 대한 명확한 이해 없이, AI를 인간처럼 느끼고 믿는 사용자의 착각이 점차 늘어나고 있다는 점입니다. 2026년 현재, 우리는 이러한 현상이 단순한 인터페이스 디자인의 문제를 넘어, 개인의 심리, 사회적 관계, 그리고 더 넓은 윤리적 질문으로 확장될 수 있음을 인지해야 합니다. 제시 그레이의 ‘기만 모드’ 제안은 AI의 본질에 대한 명확성을 확보하고, AI의 행동 방식에 대한 통제권을 사용자에게 부여하려는 중요한 시도입니다. AI가 우리의 삶을 풍요롭게 하는 도구로서 제 역할을 다하기 위해서는, 우리가 AI를 어떻게 인식하고 상호작용해야 하는지에 대한 깊이 있는 성찰과 함께, 기술적, 제도적 해결책 마련이 시급합니다.

