Главная / Новости / Клонирование голоса звучит как научная фантастика, но оно уже происходит
Клонирование голоса звучит как научная фантастика, но оно уже происходит
Быстрое развитие искусственного интеллекта (ИИ) принесло как пользу, так и риск.
Одной из тревожных тенденций является злоупотребление клонированием голоса. За считанные секунды мошенники могут клонировать голос и обманом заставить людей думать, что другу или члену семьи срочно нужны деньги.
Новостные агентства, в том числе CNN, предупреждают, что подобные виды мошенничества потенциально могут повлиять на миллионы людей.
Поскольку технологии облегчают преступникам вторжение в наше личное пространство, сохранять осторожность при их использовании сейчас важнее, чем когда-либо.
Что такое клонирование голоса?
Развитие искусственного интеллекта создало возможности для генерации изображений, текста, голоса и машинного обучения.
Хотя искусственный интеллект предлагает множество преимуществ, он также предоставляет мошенникам новые методы эксплуатации людей с целью получения денег.
Возможно, вы слышали о «дипфейках», когда искусственный интеллект используется для создания фейковых изображений, видео и даже аудио, часто с участием знаменитостей или политиков.
Клонирование голоса, разновидность технологии дипфейков, создает цифровую копию голос человека, фиксируя его речевые модели, акцент и дыхание из коротких аудиообразцов.
После того, как речевой образец будет записан, генератор голоса с искусственным интеллектом может преобразовать вводимый текст в очень реалистичную речь, напоминающую голос целевого человека.
Благодаря развитию технологий клонирование голоса можно выполнить всего лишь с помощью трехсекундного аудиосэмпла.
Хотя простая фраза типа «привет, есть кто-нибудь?» может привести к мошенничеству с клонированием голоса, более длительный разговор помогает мошенникам уловить больше деталей голоса. Поэтому лучше всего делать звонки краткими, пока вы не будете уверены в личности звонящего.
Клонирование голоса имеет ценные применения в сфере развлечений и здравоохранения: оно позволяет артистам удаленно работать с голосом (даже посмертно) и помогает людям с речью. инвалидов.
Однако это вызывает серьезные проблемы конфиденциальности и безопасности, подчеркивая необходимость защитных мер.
Как этим пользуются преступники
Киберпреступники используют технологию клонирования голоса выдавать себя за знаменитостей, представителей власти или обычных людей в целях мошенничества.
Они создают срочность, завоевывают доверие жертвы и запрашивают деньги с помощью подарочных карт, банковских переводов или криптовалюты.
Процесс начинается со сбора средств образцы аудио из таких источников, как YouTube и TikTok.
Далее технология анализирует звук для создания новых записей.
После того, как голос клонирован, его часто можно использовать в мошеннических сообщениях. сопровождается подделкой идентификатора вызывающего абонента, чтобы выглядеть заслуживающим доверия.
Многие случаи мошенничества с клонированием голоса попали в заголовки газет.
Например, преступники клонировали голос директора компании в Объединенных Арабских Эмиратах, чтобы организовать ограбление на сумму 51 миллион австралийских долларов.
Бизнесмен из Мумбаи стал жертвой мошенничества с клонированием голоса, включающего фальшивый звонок из посольства Индии в Дубае.
Недавно в Австралии мошенники использовали голос клон премьер-министра Квинсленда Стивена Майлза, чтобы попытаться обманом заставить людей инвестировать в биткойны.
Подростки и дети также преследуются. В ходе мошенничества с похищением людей в США был клонирован голос подростка, а ее родителей манипулировали, чтобы они выполнили требования.