음파 명의 도용의 놀라운 증가
사랑하는 사람으로부터 목소리가 똑같아 보이는 전화를 받고 사고 후 긴급한 재정 지원을 요청하는 전화를 받았다고 상상해 보십시오. 이제 자신의 목소리가 아니라 정교한 AI가 생성한 복제의 목소리가 나온다고 상상해 보세요. 이 소름 끼치는 시나리오는 더 이상 공상 과학 소설이 아닙니다. 전문가들은 현재 미국인 4명 중 1명이 AI 음성 복제 사기의 표적이 되고 있다고 경고하면서 위협이 급속도로 확대되고 있습니다.
한때 첨단 기술 연구실에만 국한되었던 이 기술은 점점 더 접근하기 쉽고 놀라울 정도로 현실화되었습니다. AI 음성 복제 소프트웨어는 이제 종종 소셜 미디어 비디오, 음성 메일 또는 공개 인터뷰에서 스크랩한 사람의 목소리 중 단 몇 초만으로 설득력 있는 오디오 흉내를 생성할 수 있습니다. 이러한 딥페이크 오디오 클립은 정교한 사기 계획에 사용되어 정서적 취약성과 신뢰를 노립니다.
Dr. Veridian AI 윤리 연구소의 디지털 보안 연구 책임자인 Aris Thorne은 최근 가상 세미나에서 상황의 심각성을 강조했습니다. Thorne은 "기술에 정통한 피해자라도 음성 모방이 사실상 실제 사람과 구별할 수 없기 때문에 희생자가 희생양이 되는 경우가 크게 증가하고 있습니다."라고 말했습니다. "이러한 도구에 쉽게 접근할 수 있다는 것은 사기꾼의 진입 장벽이 믿을 수 없을 정도로 낮아서 인구통계 전반에 걸쳐 만연한 위협이 된다는 것을 의미합니다."
포위 공격을 받고 있는 미국인의 4분의 1
미국인 4명 중 1명이 표적이 되고 있다는 통계는 독립적인 사이버 보안 감시 기관인 DTI(Digital Trust Initiative)가 2024년 3월 발표한 종합 보고서에서 비롯되었습니다. "에코 챔버: AI 음성 사기의 범위 확장"이라는 제목의 보고서는 보고된 사건, 소비자 설문 조사 및 위협 인텔리전스에서 얻은 데이터를 분석했습니다. 이러한 맥락에서 표적화란 의심스러운 AI 생성 음성 전화나 메시지를 받았거나 음성 데이터가 잠재적으로 손상되어 불법 온라인 포럼에서 복제가 가능한 것으로 식별된 개인을 의미합니다.
DTI의 조사 결과에 따르면 노년층은 여전히 "조부모 사기"(사기꾼이 곤경에 처한 손자를 가장하는 경우)의 주요 표적이지만 범위는 상당히 확대되었습니다. 기업 임원들은 사기성 송금을 승인하는 'CEO'의 가짜 전화를 받고 있으며, 심지어 젊은 성인들도 가짜 응급 서비스나 금융 기관을 이용한 사기 사기의 희생양이 되고 있습니다. 이 보고서는 지난 12개월 동안 AI 음성 관련 사기 시도가 350% 증가했다는 점을 강조하며 대중의 인식과 강력한 보호 조치가 중요하다는 점을 시사했습니다.
AI 사칭에 대한 디지털 방어 강화
AI 음성 복제 사기로부터 자신과 사랑하는 사람을 보호하려면 회의론과 선제적인 보안 습관을 결합하는 다층적인 접근 방식이 필요합니다. Thorne 박사와 같은 전문가들은 몇 가지 중요한 조언을 제공합니다.
- '비밀 단어' 프로토콜 설정: 가까운 가족 구성원과 고유하고 명확하지 않은 코드 단어나 문구에 동의하세요. 그 사람이라고 주장하는 의심스러운 전화를 받으면 비밀 단어를 요구하세요. 제공할 수 없는 경우 즉시 끊으십시오.
- 독립적으로 확인: 전화나 메시지로 인해 긴박감을 느끼거나 금전이 요구되는 경우 항상 알려진 대체 연락 방법을 통해 요청을 확인하세요. 그 사람의 전화번호로 다시 전화하거나 별도로 문자 메시지를 보내세요. 의심스러운 발신자가 제공한 연락처 정보를 절대 사용하지 마십시오.
- 비정상적인 요청에 대한 질문: 매우 개인적인 정보, 은행 정보 또는 즉각적인 송금을 요구하는 전화에 주의하세요. 특히 발신자의 성격에 맞지 않는 경우라면 더욱 그렇습니다.
- 음성 데이터 노출 제한: 온라인에서 공개적으로 공유하는 음성 클립에 유의하세요. 완전히 피하기는 어렵지만, 공개 음성 녹음을 최소화하면 복제에 사용할 수 있는 데이터 풀이 줄어들 수 있습니다.
- 사고 신고: 표적이 되었다고 의심되는 경우 미국 연방거래위원회(FTC) 또는 관련 국가 당국에 신고하세요. 이 데이터는 추세를 추적하고 보호 전략을 알리는 데 도움이 됩니다.
- 자신과 다른 사람을 교육하세요: 이러한 사기에 대한 정보를 친구나 가족, 특히 더 취약할 수 있는 노인 친척과 공유하세요.
더 넓은 환경: 규제 및 인식
개인의 경계를 넘어 AI 음성 복제의 확산을 막기 위한 입법 조치와 기술적 보호 장치에 대한 요구가 커지고 있습니다. 미국을 포함한 전 세계 정부는 사기와 허위 정보를 위해 무기화될 수 있는 AI 도구를 규제하는 방법을 놓고 고심하고 있습니다. AI가 생성한 콘텐츠에 대한 공개 의무화와 악의적 사용에 대한 처벌 강화에 대한 논의가 진행 중이다.
또한 기술 기업들은 합성 음성을 식별할 수 있는 AI 탐지 도구 등 대책을 모색하고 있다. 그러나 AI 기능이 발전함에 따라 이러한 복제 기술도 정교해지면서 탐지 경쟁이 계속되고 있습니다. 궁극적으로 이러한 만연한 디지털 위협을 완화하려면 대중의 인식, 강력한 개인 방어, 국회의원과 기술 혁신가의 공동 노력이 결합되어야 합니다.
경계를 유지하고 안전을 유지하세요
AI 음성 복제 시대에는 새로운 수준의 디지털 주의가 필요합니다. 기술은 혁신을 약속하지만 더 어두운 응용 프로그램은 개인 보안과 재정적 안녕에 심각한 위험을 초래합니다. 위협을 이해하고, 사전 예방적인 방어 전략을 채택하고, 최신 정보를 유지함으로써 개인은 점점 더 설득력 있고 위험한 음파 흉내를 내는 데 대한 취약성을 크게 줄일 수 있습니다.






