Выборы 2024 года могут стать первыми, где фейковые аудио и видео кандидатов станут серьёзным фактором. Недавнее исследование Центра противодействия цифровой ненависти (CCDH) показало, что ИИ-сервисы слабо реагируют на создание голосовых клонов политиков и вполне позволяют делать это любому человеку.
CCDH протестировал шесть сервисов: Invideo AI, Veed, ElevenLabs, Speechify, Descript и PlayHT. В 193 из 240 случаев сервисы успешно создавали фейковые аудиозаписи. Интересно, что один из сервисов даже помогал генерировать сценарии для дезинформации. Например, фейковое заявление премьер-министра Великобритании Риши Сунака об использовании средств кампании для личных расходов.
Сервисы Speechify и PlayHT не блокировали ни одного запроса на создание клонов голосов и заявлений. Descript, Invideo AI и Veed требовали загрузки реального аудио для создания клона, но это легко обходилось с помощью других сервисов. Только ElevenLabs активно блокировал попытки создания голосовых клонов, хотя и не во всех случаях.
Invideo AI оказался худшим, не только не блокируя записи, но и создавая сценарии дезинформации, например, о бомбовых угрозах на избирательных участках.
Если платформы не начнут строго соблюдать свои же правила, мы можем столкнуться с эпидемией фальшивых аудиозаписей на этих выборах в США. Фейковые заявления могут использоваться для дезинформации и манипуляции избирателями, что создаст серьёзные угрозы для избирательного процесса.
Ещё по теме:
- В Евросоюзе создали орган для отслеживания безопасного развития искусственного интеллекта
- Мультимедийный проигрыватель QMPlay2 для Mac: бесплатное приложение воспроизводит ролики с YouTube
- В России хотят разрешить использовать голоса умерших людей в общественных интересах