Выборы 2024 года могут стать первыми, где фейковые аудио и видео кандидатов станут серьёзным фактором. Недавнее исследование Центра противодействия цифровой ненависти (CCDH) показало, что ИИ-сервисы слабо реагируют на создание голосовых клонов политиков и вполне позволяют делать это любому человеку.

CCDH протестировал шесть сервисов: Invideo AI, Veed, ElevenLabs, Speechify, Descript и PlayHT. В 193 из 240 случаев сервисы успешно создавали фейковые аудиозаписи. Интересно, что один из сервисов даже помогал генерировать сценарии для дезинформации. Например, фейковое заявление премьер-министра Великобритании Риши Сунака об использовании средств кампании для личных расходов.

Сервисы Speechify и PlayHT не блокировали ни одного запроса на создание клонов голосов и заявлений. Descript, Invideo AI и Veed требовали загрузки реального аудио для создания клона, но это легко обходилось с помощью других сервисов. Только ElevenLabs активно блокировал попытки создания голосовых клонов, хотя и не во всех случаях.

Invideo AI оказался худшим, не только не блокируя записи, но и создавая сценарии дезинформации, например, о бомбовых угрозах на избирательных участках.

Если платформы не начнут строго соблюдать свои же правила, мы можем столкнуться с эпидемией фальшивых аудиозаписей на этих выборах в США. Фейковые заявления могут использоваться для дезинформации и манипуляции избирателями, что создаст серьёзные угрозы для избирательного процесса.


Ещё по теме: