Прецедент в Калифорнии: судья закрыл дело из-за дипфейка от свидетеля

Американские суды столкнулись с волной сгенерированных доказательств

2 мин.
Прецедент в Калифорнии: судья закрыл дело из-за дипфейка от свидетеля

Американская судебная система столкнулась с беспрецедентным вызовом: использование генеративного искусственного интеллекта для фабрикации улик перешло из теоретической плоскости напрямую в залы суда. Судья в Калифорнии была вынуждена прекратить разбирательство по гражданскому иску после того, как сторона истца представила видеосвидетельства, полностью созданные нейросетью.

​Инцидент произошёл в рамках жилищного спора Mendones v. Cushman & Wakefield. Внимание профильных медиа привлек тот факт, что это один из первых задокументированных случаев, когда дипфейк использовался не просто для дезинформации в интернете, а как официальное свидетельское показание под присягой. По данным NBC News, судья Виктория Колаковски заподозрила подлог во время просмотра видеозаписи. Её насторожили характерные для ИИ артефакты: монотонный голос, «смазанные» черты лица и неестественная цикличность мимики.

​Детальный анализ подтвердил опасения: запись имела все признаки генеративного контента. Более того, фальсификация коснулась не только видео. В материалах дела были обнаружены фотографии с камеры наблюдения Ring, где фоновое изображение было чёрно-белым, а фигура человека — цветной и чёткой, что технически невозможно для оригинальной записи и указывает, как минимум, на грубый монтаж. В ответ на это неуважение судья приняла жёсткое решение о прекращении производства по делу ещё в сентябре, а в начале ноября отклонила ходатайство о пересмотре, окончательно закрепив решение.

​Юристы предупреждают, что данный случай – лишь начало системного кризиса доверия. Если ранее суды штрафовали адвокатов за использование ChatGPT и выдуманных им прецедентов, то теперь речь идёт о подделке вещественных доказательств. Судья Скотт Шлегель из Луизианы опасается, что истцы могут начать использовать клонирование голоса для фабрикации угроз в других делах. Его коллега Эрика Ю отмечает, что поддельные документы могут легко попасть в официальные реестры, подрывая институт публичной отчётности.

​На данный момент единой системы отслеживания таких инцидентов в США не существует, а суды вынуждены экспериментировать с методами верификации на ходу. Национальный центр кибербезопасности (NCSC) предлагает классифицировать подозрительные материалы как «неподтверждённые ИИ-доказательства», однако формальных протоколов пока нет.

​Брайан Лонг, генеральный директор компании Adaptive Security, в комментарии изданию TechSpot подчеркнул сложность ситуации:

«Горькая правда в том, что ИИ следующего поколения делает подделки невероятно убедительными, а инструменты детектирования за ними не поспевают. Юридическим фирмам нужны новые процессы: всегда верифицировать аудио и видео через второй канал, запрашивать исходные файлы и по возможности подтверждать личность вживую. Чем раньше вы распознаете попытку имитации, тем в большей безопасности будут ваши клиенты».

Пока индустрия ИИ остаётся без жёсткого регулирования, суды фактически превращаются в «Дикий Запад», где традиционные стандарты доказательной базы проходят проверку на прочность новыми технологиями.


Ещё по теме:

Мы в Telegram, на Дзен, в Google News и YouTube



ePN