AI 채용, 공정성 논란의 중심에 서다: 당신의 미래는 알고리즘에 맡겨도 괜찮을까요?
최근 인공지능(AI) 기반 채용 방식에 대한 불만이 고조되고 있습니다. 캘리포니아주에서 제기된 집단 소송은 AI 채용 기술이 구직자들에게 불공정한 프로필을 생성하고 있다는 주장을 담고 있습니다. 이 소송은 에잇폴드 AI(Eightfold AI)를 표적으로 하며, 이 회사가 사용하는 도구를 공정신용보고법(FCRA)과 유사하게 규제해야 한다고 주장합니다. AI 채용이 보편화되는 상황에서 이번 소송은 중요한 전환점이 될 수 있습니다.
AI 채용, 숨겨진 위험 요소들
소송의 핵심은 에잇폴드 AI가 구직자 데이터를 수집하고 이를 바탕으로 채용 결정을 내리는 데 사용되는 보고서를 기업에 판매한다는 것입니다. 원고 측은 이 과정에서 연방 및 주 차원의 공정 신용 및 소비자 보고 법률, 그리고 불공정 경쟁법을 위반했다고 주장합니다. 에잇폴드는 자사를 "세계 최대의 자체 갱신 인재 데이터 소스"라고 홍보하며, 15억 개 이상의 글로벌 데이터 포인트를 활용한다고 합니다. 여기에는 링크드인(LinkedIn), 크런치베이스(Crunchbase)와 같은 공개 자원은 물론, 소셜 미디어 프로필, 지원자 위치 정보, 그리고 숨겨진 추적 도구에서 수집된 정보도 포함됩니다.
보이지 않는 평가, 부당한 결과
AI 알고리즘은 이러한 데이터를 분석하여 지원자의 "적합성"을 0에서 5까지의 점수로 평가합니다. 이 평가는 문화 적합성, 예상되는 미래 경력 궤적과 같은 요인에 대한 "결론, 추론 및 가정"에 기반합니다. 문제는 이러한 보고서가 지원자에게 거의 보이지 않고, 내용에 대해 이의를 제기할 기회가 주어지지 않는다는 점입니다. 낮은 점수를 받은 지원자는 인사 담당자가 지원서를 검토하기도 전에 탈락하는 경우가 많습니다. 원고 측은 이러한 방식이 FCRA 요구 사항을 위반하며, AI 사용에 대한 면제 조항은 없다고 주장합니다.
FCRA, AI 채용에도 적용될까?
FCRA는 소비자 보고 기관에서 제공하는 모든 형태의 정보(서면, 구두 등)를 소비자 보고서로 정의하며, 이는 신용, 보험은 물론 "고용 목적"에도 사용될 수 있습니다. 소송에 따르면, 이러한 정의는 "습관, 도덕, 삶의 경험"에 대한 정보를 포함하는 보고서에도 적용됩니다. 1970년 FCRA가 제정될 당시에는 자동화된 선별 기술이 존재하지 않았지만, 당시 법률 제정자들은 컴퓨터와 데이터 전송 기술을 통한 소비자 정보 접근성 증가에 대해 우려했습니다. 그들은 "개성이 없는 오류", 부정확한 데이터, 그리고 "우둔하고 생각 없는 기계"에 의한 분석이 사람들을 부당하게 고용에서 배제할 수 있다고 보았습니다.
규제와 투명성 확보의 필요성
그레이하운드 리서치(Greyhound Research)의 수석 분석가 산치트 비르 고기아(Sanchit Vir Gogia)는 이번 소송이 "거버넌스 실패"와 "근본적인 책임 격차"를 드러낸다고 지적합니다. 실제로 Workday와 같은 다른 HR 회사들도 AI 기반 채용 도구가 인종, 연령, 장애를 이유로 차별을 한다는 혐의로 소송에 직면해 있습니다. 만약 법원이 AI 평가를 신용 보고서와 유사하게 판단한다면, 채용은 규제 영역으로 진입하게 될 것입니다. 이는 기업들이 통지, 투명성, 감사 권한, 그리고 이의 제기에 대한 규칙을 명확히 설정해야 함을 의미합니다. 고기아는 기업들이 채용 도구가 고용 결정에 영향을 미칠 경우, 모델의 논리, 데이터 출처, 그리고 지원자가 거절된 이유를 설명할 수 있어야 한다고 강조합니다.
AI 채용의 빛과 그림자
물론 AI가 채용에 가치를 더할 수 있다는 점은 부인할 수 없습니다. AI는 초기 인재 소싱, 선별, 평가에 성공적으로 활용될 수 있으며, AI 서기관은 채용 담당자가 지원자와의 논의에 더 집중할 수 있도록 조용히 메모를 할 수 있습니다. AI는 대규모 지원자 풀을 필터링하고 순위를 매기며, 반복적인 HR 작업을 자동화하고, 내부 데이터베이스에서 간과된 지원자를 식별하는 데 유용합니다. 하지만 AI가 판단 영역으로 넘어가는 순간 문제가 발생합니다. 성격 특성을 평가하거나, 미래 역할을 예측하거나, 지원자의 교육 수준을 평가하는 것은 모두 "수학적 객관성으로 포장된 주관적인 추론"입니다.
인간의 역할, 책임 있는 AI 사용
고기아는 기업들이 벤더로부터 로그, 편향 감사, 모델 업데이트에 대한 공개 등 인간이 이해할 수 있는 증거를 요구해야 한다고 조언합니다. 모델이 무엇을 평가했는지, 왜 한 지원자가 다른 지원자보다 높은 순위를 받았는지, 그리고 채용 담당자가 그 결과를 정당화해야 할 경우 무엇을 말할 수 있는지 질문해야 합니다. 이러한 질문에 대한 답변은 프로세스 변경으로 이어질 수 있습니다. 예를 들어, 그레이하운드의 유럽 제조 고객 중 한 곳은 관리자가 AI가 이미 후보자 명단을 작성했더라도 모든 결정 지점에서 그 근거를 기록해야 하도록 채용 파이프라인을 재설계했습니다. 이를 통해 감사 추적을 개선하고, 오류를 포착하며, 팀에게 "AI를 판결이 아닌 입력으로 취급"하도록 가르쳤습니다.
AI 채용, 인간과 기계의 조화로운 공존을 향하여
AI 채용 기술은 효율성을 높이고 숨겨진 인재를 발굴하는 데 기여할 수 있습니다. 하지만 동시에 공정성, 투명성, 그리고 책임성이라는 중요한 가치를 훼손할 위험도 안고 있습니다. 기업은 AI 채용 도구를 도입할 때 이러한 윤리적 문제에 대한 깊이 있는 고민과 함께, 인간의 역할을 재정립하고 AI 사용에 대한 엄격한 거버넌스를 구축해야 합니다. AI 채용의 미래는 인간과 기계가 조화롭게 공존하며, 공정하고 투명한 채용 환경을 만들어가는 데 달려 있습니다.