Американская судебная система столкнулась с беспрецедентным вызовом: использование генеративного искусственного интеллекта для фабрикации улик перешло из теоретической плоскости напрямую в залы суда. Судья в Калифорнии была вынуждена прекратить разбирательство по гражданскому иску после того, как сторона истца представила видеосвидетельства, полностью созданные нейросетью.
Инцидент произошёл в рамках жилищного спора Mendones v. Cushman & Wakefield. Внимание профильных медиа привлек тот факт, что это один из первых задокументированных случаев, когда дипфейк использовался не просто для дезинформации в интернете, а как официальное свидетельское показание под присягой. По данным NBC News, судья Виктория Колаковски заподозрила подлог во время просмотра видеозаписи. Её насторожили характерные для ИИ артефакты: монотонный голос, «смазанные» черты лица и неестественная цикличность мимики.
Детальный анализ подтвердил опасения: запись имела все признаки генеративного контента. Более того, фальсификация коснулась не только видео. В материалах дела были обнаружены фотографии с камеры наблюдения Ring, где фоновое изображение было чёрно-белым, а фигура человека — цветной и чёткой, что технически невозможно для оригинальной записи и указывает, как минимум, на грубый монтаж. В ответ на это неуважение судья приняла жёсткое решение о прекращении производства по делу ещё в сентябре, а в начале ноября отклонила ходатайство о пересмотре, окончательно закрепив решение.
Юристы предупреждают, что данный случай – лишь начало системного кризиса доверия. Если ранее суды штрафовали адвокатов за использование ChatGPT и выдуманных им прецедентов, то теперь речь идёт о подделке вещественных доказательств. Судья Скотт Шлегель из Луизианы опасается, что истцы могут начать использовать клонирование голоса для фабрикации угроз в других делах. Его коллега Эрика Ю отмечает, что поддельные документы могут легко попасть в официальные реестры, подрывая институт публичной отчётности.
На данный момент единой системы отслеживания таких инцидентов в США не существует, а суды вынуждены экспериментировать с методами верификации на ходу. Национальный центр кибербезопасности (NCSC) предлагает классифицировать подозрительные материалы как «неподтверждённые ИИ-доказательства», однако формальных протоколов пока нет.
Брайан Лонг, генеральный директор компании Adaptive Security, в комментарии изданию TechSpot подчеркнул сложность ситуации:
«Горькая правда в том, что ИИ следующего поколения делает подделки невероятно убедительными, а инструменты детектирования за ними не поспевают. Юридическим фирмам нужны новые процессы: всегда верифицировать аудио и видео через второй канал, запрашивать исходные файлы и по возможности подтверждать личность вживую. Чем раньше вы распознаете попытку имитации, тем в большей безопасности будут ваши клиенты».
Пока индустрия ИИ остаётся без жёсткого регулирования, суды фактически превращаются в «Дикий Запад», где традиционные стандарты доказательной базы проходят проверку на прочность новыми технологиями.
Ещё по теме:
- Финансовая эффективность Apple: $2,4 млн на сотрудника и лишь третье место в технологическом рейтинге
- Производство iPhone перебирается в Индию, но китайские рабочие остаются жертвами эксплуатации
- Школьные туалеты в США превратились в зоны тотального контроля ради борьбы с вейпами