챗GPT 급여 협상 조언, 성별과 인종에 따라 차별적일 수 있다?
최근 인공지능 챗봇이 제공하는 급여 관련 조언이 사용자, 특히 여성이나 소수 집단 구성원에게 불리하게 작용할 수 있다는 연구 결과가 발표되어 논란이 되고 있습니다. 챗GPT와 같은 대규모 언어 모델(LLM)이 사용자에게 제공하는 급여 협상 조언이 성별, 인종, 출신 등에 따라 크게 달라질 수 있다는 것입니다.
LLM, 사용자 '페르소나'에 따라 다른 급여 조언 제공
독일 뷔르츠부르크-슈바인푸르트 응용과학대학교(THWS)의 Ivan P. Yamshchikov 교수 연구팀은 다양한 ‘페르소나’를 설정하여 LLM에 급여 관련 질문을 던졌을 때, LLM이 응답하는 방식에 차이가 있는지 비교 분석했습니다. 연구 결과, 동일한 질문이라도 질문자의 성별, 인종, 경력 수준 등에 따라 LLM이 제시하는 적정 연봉 수준이 크게 달라지는 것을 확인했습니다.
여성에게 더 낮은 연봉을 제시하는 경향
특히 주목할 점은 LLM이 여성에게 남성보다 낮은 연봉을 제시하는 경향이 있다는 것입니다. 연구팀은 LLM에게 동일한 경력과 능력을 가진 남성과 여성에게 각각 얼마의 연봉을 요구해야 하는지 질문했을 때, 여성에게 더 낮은 연봉을 제시하는 경우가 많았습니다. 예를 들어, ChatGPT-o3는 콜로라도주 덴버에서 근무하는 경험 많은 의료 전문가에게 남성일 경우 40만 달러를 요구하라고 조언했지만, 동일한 자격을 갖춘 여성에게는 28만 달러를 요구하라고 조언했습니다.
인종, 출신 배경에 따른 차별도 존재
연구팀은 성별 외에도 인종, 출신 배경에 따른 차별이 존재하는지 확인했습니다. 아시아인, 흑인, 히스패닉, 백인, 해외 거주자, 이민자, 난민 등 다양한 페르소나를 설정하여 LLM에 급여 관련 질문을 던진 결과, 제안된 급여 요청 금액이 다양하게 나타났습니다. 연구 결과, 설정된 페르소나 조합의 절반 이상에서 통계적으로 유의미한 차이가 나타났습니다.
LLM 학습 데이터의 편향성이 원인
연구팀은 이러한 차별의 원인이 LLM 학습 데이터의 편향성에 있다고 지적합니다. LLM은 방대한 양의 데이터를 학습하여 텍스트를 생성하고 질문에 답변합니다. 하지만 학습 데이터에 성별, 인종 등에 대한 편향된 정보가 포함되어 있을 경우, LLM은 이러한 편향성을 그대로 반영하여 차별적인 답변을 제공할 수 있습니다. 예를 들어, ‘해외 거주자’라는 단어가 ‘이민자’라는 단어보다 더 높은 연봉과 관련된 맥락에서 더 자주 사용될 경우, LLM은 해외 거주자에게 더 높은 연봉을 제시할 가능성이 높습니다.
LLM '탈 편향화'는 어려운 과제
LLM의 편향성을 제거하는 ‘탈 편향화’는 매우 어려운 과제입니다. 현재 LLM 개발 과정은 시행착오를 거듭하는 반복적인 과정으로, 연구팀은 이번 연구 결과가 LLM 개발자들이 다음 세대 모델을 개발하는 데 도움이 되기를 희망한다고 밝혔습니다.
LLM 조언, 비판적 시각으로 받아들여야
Yamshchikov 교수는 LLM이 제공하는 조언을 맹신해서는 안 되며, 특히 복잡한 사회적 메커니즘과 관련된 의사 결정을 할 때는 비판적인 시각으로 받아들여야 한다고 강조합니다.
결론
LLM은 우리 생활에 많은 편리함을 제공하지만, 편향된 정보를 제공할 가능성도 존재합니다. LLM이 제공하는 정보를 무비판적으로 수용하기보다는 비판적인 시각으로 검토하고, 다양한 정보를 참고하여 합리적인 의사 결정을 내리는 것이 중요합니다.