Тревожный рост числа подражателей Сонику
Представьте, что вам звонит отчаянный человек, его голос, казалось бы, одинаковый, и просит о срочной финансовой помощи после несчастного случая. А теперь представьте, что этот голос принадлежит вовсе не им, а сложной копии, созданной искусственным интеллектом. Этот пугающий сценарий больше не является научной фантастикой; это быстро растущая угроза: эксперты предупреждают, что каждый четвертый американец в настоящее время подвергается мошенничеству с клонированием голоса с помощью искусственного интеллекта.
Эта технология, когда-то ограничивавшаяся высокотехнологичными лабораториями, становится все более доступной и пугающе реалистичной. Программное обеспечение для клонирования голоса с использованием искусственного интеллекта теперь может генерировать убедительные аудиоизображения всего за несколько секунд голоса человека, часто взятого из видеороликов в социальных сетях, голосовых сообщений или публичных интервью. Эти дипфейковые аудиоклипы затем используются в тщательно продуманных схемах мошенничества, используя эмоциональную уязвимость и доверие.
Доктор. Арис Торн, директор по исследованиям цифровой безопасности в Веридианском институте этики ИИ, подчеркнул серьезность ситуации на недавнем виртуальном семинаре. «Мы наблюдаем значительный рост числа случаев, когда жертвы, даже те, кто обычно технически подкован, становятся жертвами, потому что голосовая мимика практически неотличима от реального человека», — заявил Торн. «Легкость доступа к этим инструментам означает, что барьер входа для мошенников невероятно низок, что делает его широко распространенной угрозой для всей демографической группы».
Четверть американцев в осаде
Статистика – каждый четвертый американец становится жертвой – взята из всеобъемлющего отчета, опубликованного в марте 2024 года Инициативой цифрового доверия (DTI), независимой организацией по надзору за кибербезопасностью. В отчете, озаглавленном «Эхо-камера: расширение охвата голосового мошенничества с использованием ИИ», проанализированы данные зарегистрированных инцидентов, опросов потребителей и информации об угрозах. Под таргетингом в этом контексте понимаются лица, которые либо получили подозрительный голосовой вызов или сообщение, сгенерированный искусственным интеллектом, либо чьи голосовые данные были идентифицированы как потенциально скомпрометированные и доступные для клонирования на незаконных онлайн-форумах.
Выводы DTI показывают, что, хотя пожилые люди остаются основной мишенью для «мошенничества с бабушками и дедушками» (когда мошенники выдают себя за внука, попавшего в беду), масштабы значительно расширились. Руководители предприятий становятся жертвами фальшивых звонков от «руководителей», санкционирующих мошеннические банковские переводы, и даже молодые люди становятся жертвами мошенничества самозванцев с участием фиктивных служб экстренной помощи или финансовых учреждений. В отчете отмечено увеличение на 350 % попыток мошенничества, связанного с голосом ИИ, за последние 12 месяцев, что свидетельствует о критической необходимости информирования общественности и принятия надежных защитных мер.
Укрепление вашей цифровой защиты от олицетворения ИИ
Защита себя и своих близких от мошенничества с клонированием голоса с помощью ИИ требует многоуровневого подхода, сочетающего скептицизм с упреждающими навыками безопасности. Такие эксперты, как доктор Торн, дают несколько важных советов:
- Создайте протокол «секретного слова». Согласуйте уникальное, неочевидное кодовое слово или фразу с близкими членами семьи. Если вы получите подозрительный звонок от имени них, потребуйте секретное слово. Если они не могут его предоставить, немедленно повесьте трубку.
- Подтвердить независимо: Если звонок или сообщение вызывает ощущение срочности или требует денег, всегда подтверждайте запрос с помощью альтернативного известного способа связи. Перезвоните этому человеку по номеру, который, как вы знаете, принадлежит ему, или отправьте ему отдельное сообщение. Никогда не используйте контактную информацию, предоставленную подозрительным звонящим.
- Необычные запросы: Будьте осторожны с звонками, в которых просят предоставить очень личную информацию, банковские реквизиты или немедленные денежные переводы, особенно если это не характерно для звонящего.
- Ограничьте раскрытие голосовых данных. Помните, какие голосовые записи вы публикуете в Интернете. Полностью избежать этого сложно, но сведение к минимуму записей публичных голосов может сократить объем данных, доступных для клонирования.
- Сообщайте о происшествиях. Если вы подозреваете, что стали жертвой, сообщите об этом в Федеральную торговую комиссию (FTC) США или соответствующие национальные органы. Эти данные помогают отслеживать тенденции и разрабатывать защитные стратегии.
- Обучайте себя и других: делитесь информацией об этих мошенничествах с друзьями и родственниками, особенно с пожилыми родственниками, которые могут быть более уязвимыми.
Более широкий ландшафт: регулирование и осведомленность
Помимо индивидуальной бдительности, растет потребность в законодательных действиях и технологических гарантиях для борьбы с распространением клонирования голоса с помощью искусственного интеллекта. Правительства во всем мире, в том числе в Соединенных Штатах, пытаются решить, как регулировать инструменты искусственного интеллекта, которые могут быть использованы для мошенничества и дезинформации. В настоящее время ведутся дискуссии об обязательном раскрытии контента, созданного искусственным интеллектом, и более строгих наказаниях за его злонамеренное использование.
Кроме того, технологические компании изучают меры противодействия, такие как инструменты обнаружения искусственного интеллекта, которые могут распознавать синтетические голоса. Однако по мере развития возможностей ИИ растёт и сложность методов клонирования, что превращает обнаружение в непрерывную гонку вооружений. В конечном счете, сочетание осведомленности общественности, надежной индивидуальной защиты и согласованных усилий законодателей и технологических новаторов будет иметь решающее значение для смягчения этой повсеместной цифровой угрозы.
Сохраняйте бдительность, оставайтесь в безопасности
Эра клонирования голоса с помощью искусственного интеллекта требует нового уровня цифровой осторожности. Хотя эта технология обещает инновации, ее более темные применения представляют значительный риск для личной безопасности и финансового благополучия. Понимая угрозу, принимая стратегии превентивной защиты и оставаясь в курсе, люди могут значительно снизить свою уязвимость к этим все более убедительным и опасным звуковым подражаниям.






