AI 사칭 사기 주의보 발령

Share

AI 음성 및 영상 위조 사기: 진화하는 위협과 예방 전략

2025년, 인공지능(AI) 기술의 발전은 사이버 범죄의 새로운 지평을 열었습니다. 특히 음성 복제와 딥페이크 영상을 활용한 AI 사칭 사기는 신뢰하는 사람을 감쪽같이 흉내 내어 개인과 기업을 대상으로 광범위하게 발생하고 있습니다. 이 글에서는 AI 사칭 사기의 실태를 살펴보고, 전문가들이 제시하는 효과적인 예방 전략을 소개합니다.

AI 사칭 사기란 무엇인가?

AI 사칭 사기는 범죄자가 인공지능 기술을 사용하여 특정인의 음성, 얼굴, 심지어는 글쓰기 스타일까지 정교하게 모방하는 사기 수법입니다. 특히 음성 복제 기술은 단 몇 초 분량의 음성 샘플만으로도 특정인의 음성을 완벽하게 재현할 수 있습니다. 이러한 샘플은 음성 메시지, 인터뷰, 소셜 미디어 영상 등 다양한 경로를 통해 수집됩니다.

일부 사기꾼들은 딥페이크 기술을 활용하여 화상 통화까지 위조합니다. 예를 들어, 회사의 임원을 사칭하여 직원들에게 거액의 자금 이체를 승인하도록 유도하는 사례가 보고되고 있습니다.

AI 사칭 사기의 급증 원인

전문가들은 AI 사칭 사기의 급증 원인으로 기술 발전, 비용 감소, 접근성 확대를 꼽습니다. 디지털 위조 기술의 발전으로 공격자들은 가족, 상사, 심지어 정부 관료와 같이 신뢰하는 사람의 신분을 사칭하여 개인 정보나 금전적 이득을 취합니다. 이러한 사칭은 매우 설득력이 높아 숙련된 전문가조차 속을 수 있다는 점이 문제입니다.

AI 사칭 사기의 대상

AI 사칭 사기는 전화 통화, 화상 통화, 메시지 앱, 이메일 등 다양한 경로를 통해 발생합니다. 범죄자들은 음성 복제 기술을 활용하여 신뢰하는 사람처럼 들리는 "보이스 피싱(vishing)" 전화를 걸어 피해자를 속입니다. FBI는 AI가 생성한 가짜 전화가 미국 정치인, 예를 들어 마르코 루비오 상원 의원을 사칭하여 허위 정보를 퍼뜨리고 대중의 반응을 유도하는 사례에 대해 경고했습니다.

기업을 대상으로 한 보이스 피싱의 경우, 사이버 범죄자들은 딥페이크 화상 회의를 통해 회사 임원을 사칭합니다. 2024년에는 영국 엔지니어링 회사인 Arup의 CFO를 사칭한 공격자가 직원들을 속여 2,500만 달러에 달하는 자금 이체를 승인하도록 한 사례가 있었습니다.

AI 사칭 사기로부터 안전하게 지키는 방법

전문가들은 AI 사칭 사기가 피해자에게 거짓된 긴박감을 조성하기 때문에 성공한다고 말합니다. 범죄자들은 익숙한 목소리나 얼굴을 신뢰하려는 본능을 악용합니다. 가장 중요한 방어책은 신중하게 확인하는 것입니다. 즉, 즉각적으로 반응하기보다는 시간을 갖고 상대방의 신원을 확인하는 것이 중요합니다.

수상한 전화나 영상을 받으면 전화를 끊고 이미 저장된 번호로 다시 전화하십시오. 사이버 보안 분석가 Ashwin Raghu는 사기꾼들이 순간적인 반응을 노린다는 점을 지적하며, 다시 전화하는 것이 긴박감을 해소하는 데 도움이 된다고 말합니다.

딥페이크 영상은 부자연스러운 입 모양, 깜박이는 배경, 어색한 시선 처리 등 몇 가지 단서를 가지고 있을 수 있습니다. 마찬가지로 AI 생성 음성은 처음에는 설득력 있게 들리더라도 부자연스러운 멈춤이나 일관성 없는 배경 소음이 있을 수 있습니다.

다단계 인증(MFA)을 추가하여 보안을 강화하는 것도 도움이 됩니다. MFA는 사기꾼이 자격 증명을 훔쳐도 계정에 접근하기 어렵게 만듭니다. 사이버 보안 전문가 Jacqueline Jayne은 직접적인 확인과 MFA를 함께 사용하는 것이 가장 좋다고 말합니다.

맺음말

AI는 놀라운 기능을 제공하지만, 동시에 사기꾼에게 강력한 사기 수법을 제공합니다. 경계를 늦추지 않고 의심스러운 요청을 확인하며 이러한 위협에 대해 공개적으로 이야기함으로써 AI 사칭 사기의 위험을 줄일 수 있습니다. 아무리 현실적인 딥페이크라도, 주의를 기울이면 피해를 예방할 수 있습니다.

이것도 좋아하실 수 있습니다...