ИИ может украсть ваш голос — и это не шутка

Обойти ограничения сервисов клонирования голоса оказалось крайне легко

2 мин.
ИИ может украсть ваш голос — и это не шутка

Искусственный интеллект научился копировать голоса людей с пугающей точностью, и защититься от этого почти невозможно. Новое расследование Consumer Reports показало, что большинство популярных инструментов для клонирования голоса имеют слабые барьеры, которые не мешают злоумышленникам создавать поддельные аудиозаписи без согласия людей.

Как это работает?

Современные ИИ-сервисы способны воспроизвести голос человека, используя всего несколько секунд его речи — например, из видео в TikTok или YouTube. И эта технология уже привела к скандалам. В 2023 году, во время президентских праймериз в США, мошенники запустили робо-звонки с поддельным голосом Джо Байдена, призывавшие избирателей не ходить на выборы. Организатор аферы был оштрафован на $6 млн, а Федеральная комиссия по связи запретила использование ИИ-голосов в подобных целях.

Легко обойти защиту

Consumer Reports протестировала шесть ведущих сервисов клонирования голоса:

  • ElevenLabs, Speechify, PlayHT, Lovo требуют лишь «галочку» в графе о согласии владельца голоса.
  • Resemble AI запрашивает живой голос, но эксперты обошли это, просто воспроизведя аудиофайл с компьютера.
  • Только Descript оказался относительно надёжным: для клонирования нужно записать специальное заявление, которое сложно подделать.

При этом четыре из шести сервисов бесплатны, а остальные стоят $1–5 за создание копии.

Голосовые дипфейки — новая угроза

«Это может использоваться для мошенничества, дезинформации или подделки личности», — говорит Сара Майерс Уэст, со-директор исследовательского центра AI Now.

Например, в 2023 году хайповый музыкальный трек, якобы записанный Дрейком и The Weeknd, оказался подделкой. Артисты не могли контролировать использование своих голосов, что вызвало вопросы о правах на интеллектуальную собственность.

Федеральная торговая комиссия США предупреждает, что такие технологии могут усугубить «мошенничество с бабушками»: преступники звонят пожилым людям, имитируя голос родственников и вымогая деньги.

Отсутствие регулирования

Законодательство в этой сфере отстаёт от технологий. При Бараке Обаме в 2023 году был подписан указ о безопасности ИИ, но Дональд Трамп отменил его, вернувшись в Белый дом. Сейчас компании сами устанавливают правила, но, как показывает расследование, их методы «защиты» часто оказываются фиктивными.

«Мы осознаём риски злоупотребления этой технологией и внедрили надёжные меры против создания дипфейков», — заявили в Resemble AI. Однако эксперты сомневаются в эффективности таких обещаний.

Тем временем в России пока нет прямого закона, запрещающего клонирование голоса (есть инициативы), но существуют нормы, которые могут регулировать эту сферу косвенно. Российское законодательство пока не готово к таким технологиям, как голосовые дипфейки. Однако использование чужого голоса без разрешения уже сейчас может быть наказуемо по общим статьям УК и ГК.

Легитимные цели и злоупотребления

Голосовые ИИ-технологии полезны: они помогают людям с инвалидностью, переводят речь на другие языки, создают аудиокниги. Но потенциал для вреда остаётся огромным.

«Представьте, что кто-то подделывает голос вашего врача или политика. Это может разрушить доверие к медиа и институтам», — добавляет Уэст.

Голосовые дипфейки — это реальность, и она пугает. Пока законы не успевают за инновациями, ответственность ложится на пользователей: будьте осторожны с тем, где вы размещаете свои голосовые записи, и проверяйте любые подозрительные звонки.


Ещё по теме:

Мы в Telegram, на Дзен, в Google News и YouTube