[해외 DS] 딥보이스 기술 악용한 보이스피싱 기승, 가족 암호로 막는다
AI 기술 발전으로 음성 복제가 쉬워지면서 보이스피싱 수법이 더욱 교묘해져
가족이나 친구 간에 미리 정해둔 암호를 통해 딥보이스 음성 사기를 예방할 수 있어
개인, 기업, 정부가 협력하고, 법적·교육적 차원에서의 보완책을 마련해야
[해외DS]는 해외 유수의 데이터 사이언스 전문지들에서 전하는 업계 전문가들의 의견을 담았습니다. 저희 글로벌AI협회 연구소(GIAI R&D)에서 콘텐츠 제휴가 진행 중입니다.
지난 한 해 동안 미국에서 가장 흔한 사기 유형은 사칭 사기였다. 2023년 미국의 연방거래위원회에는 856,000건 이상의 사례가 보고됐으며, 전국적으로 27억 달러의 피해액이 발생했다. 사기꾼들은 친구나 친척의 신분을 도용하거나 은행 직원이나 연방 요원을 속여 전화, 문자 또는 이메일을 통해 피해자들을 속였다고 한다.
딥보이스 인공지능이 발전함에 따라 목소리만으로는 구분이 어려워지고 있으며, 이에 따라 보이스피싱 범죄의 수법도 점점 더 교묘해지고 있다. 전문가들은 이러한 문제가 편의성과 저렴한 비용으로 인해 더욱 악화할 것으로 보고 있다. 또한 목소리 복제 방법이 단순하여 온라인에 게시된 비디오나 잘못 걸린 전화 통화에서 추출한 짧은 음성 샘플만으로도 사람의 목소리와 감정 실린 어투를 합성할 수 있는 상황이다.
가족 목소리도 믿지 못하는 시대, 음성 비밀번호로 신원 확인해야
딥보이스 보이스피싱을 방지할 수 있는 방법이 있다. 로그인 화면에서 아이디와 비밀번호를 입력하라는 본인 확인 요청과 같이, 가족이나 친구들만 알고 있는 비밀번호나 안전 단어를 설정하여 서로의 신원을 확인하는 검증 단계를 추가하는 것이다. 특히 경보가 울리거나 비정상적인 압력을 가하는 전화를 받았을 때도 침착하게 대응하고, 암호를 요구하여 전화한 사람이 누구인지 반드시 확인해야 한다고 전문가들은 조언한다.
하지만 가족의 목소리를 신뢰하는 것은 인간의 본능이다. 미국 애리조나주에 거주하는 제니퍼 드스테파노(Jennifer DeStefano)는 지난해 6월 상원 사법부 소위원회에서 AI가 자기 딸의 목소리를 모방한 것에 처음에는 속았다고 증언했다. 그녀의 딸이 스키 여행 중 안전하다는 것을 알게 되어 실제 사기로 이어지지는 않았지만, 그녀는 긴급 상황에서 사랑하는 사람의 신원을 확인하는 것은 현실적으로 어렵다고 지적했다.
그러나 현재로서는 통화 상대방이 누구인지 알 수 있는 다른 확실한 방법이 없다고 오디오 딥페이크에 관해 연구해 온 하니 파리드(Hany Farid) 미 UC버클리대 컴퓨터과학과 교수는 강조했다. 또한 본인들만 아는 음성 비밀번호나 코드 문구를 사용하는 것이 AI 음성 사기에 대처하는 가장 간단한 방법이라고 그는 덧붙였다. 컴퓨터 비밀번호와는 다르게, 코드 문구는 자주 사용되지 않아 잊기 쉬우므로, 서로에게 주기적으로 코드 문구를 확인하는 것이 좋다고 권장했다.
납치·사기 예방하는 가족 암호, 기억하기 쉬운 가족 이야기로 만들어
자녀를 둔 부모라면 어릴 때부터 비밀번호 확인 절차에 익숙해지도록 가르치는 것이 좋다. 이 방법은 납치를 당한 후에도 유효하지만, 무엇보다 납치를 예방하는 데에도 효과적이다. 부모 대신 아이를 데리러 온 사람에게 비밀번호를 요구하는 습관을 길러주면, 위험한 상황을 미리 방지할 수 있는 가능성이 커진다. 또한 드스테파노가 언급한 긴급한 상황에서도 이 방법이 유용하다고 할 수 있다.
애칭을 활용하는 방법도 있다. 위급 상황에서 평소 사용하지 않는 별명으로 서로를 확인하는 것이 가능하며, 보안을 강화하기 위해 상대방과 연결된 일회성 비밀번호 인증 앱을 사용하는 것을 고려할 수 있다. 복잡한 단어보다는 가족 이야기에 기반한 쉽게 기억할 수 있는 코드를 설정하는 것이 좋다.
물론 암호 문구가 노출될 가능성은 언제나 존재한다. 해킹이나 협박을 통해 암호를 얻어낼 수 있기 때문이다. 그러나 통화 상대가 은행 직원이나 경찰이라고 주장할 경우, 직접 방문하여 확인하는 것이 안전하다. 상대방이 만남을 기피한다면, 그것은 보이스피싱일 가능성이 매우 높다.
금융·통신, AI 기술 활용해 보이스피싱 방지
최근에는 딥보이스와 더불어 딥페이크까지 결합한 보이스피싱 유형도 보고되고 있다. 기존의 사기 수법보다 더욱 정교하고 빠르게 진행되어 개인이 일상적으로 주의를 기울여도 방어가 어려운 상황에 이르렀다. 일각에서는 AI를 활용한 보이스피싱 피해 규모가 이미 개인이 대응할 수 있는 범위를 넘어서며, 포괄적인 대응 계획이 필요하다고 우려의 목소리를 높이고 있다.
실제로 은행과 통신사를 비롯한 여러 기관들이 AI 보이스피싱에 대응하기 위해 저마다의 방법을 도입하고 있다. 특히, 은행은 AI 기술이 통합된 ATM을 사용하여 의심스러운 고객의 행동이나 거래 패턴을 감지한다. 이상 징후가 발견되면, ATM은 자동으로 경고 문구를 표시하거나 추가적인 본인 확인을 요구한다. 또한 고객의 거래 데이터를 분석해 이상 거래를 탐지하고 차단하는 시스템을 구축하여 보이스피싱으로 인한 금융 피해를 줄이려고 한다.
통신사에서는 음성 스팸 필터링 시스템을 통해 알려진 보이스피싱 번호를 차단하고, AI를 활용하여 새롭게 등장하는 스팸 번호를 신속하게 감지하여 발신을 차단하고 있다. 이러한 기술적 대응은 보이스피싱 범죄자들이 새로운 수법으로 변화하는 것에 발맞춰 대응력을 강화하고 있다는 평가를 받고 있다.
AI 보이스피싱으로 인한 피해가 증가함에 따라, 개인, 기업, 정부가 이 문제를 해결하기 위해 협력할 필요성이 점점 더 커지고 있다. 기술적인 해결책뿐만 아니라 법적 및 교육적 차원에서의 보완도 효과적인 대응을 위해 필요하다. 전문가들은 추가적인 시스템 구축이 완료될 때까지 가족 및 지인과의 안전 암호 설정을 통해 경각심을 유지하는 것을 당부했다.
*편집진: 영어 원문의 출처는 사이언티픽 아메리칸(Scientific American)으로 본지의 편집 방향과 일치하지 않을 수도 있습니다.