Искусственный интеллект ввёл юристов в заблуждение и поставил их под удар в суде

Доверяй, как говорится, но даже ИИ проверяй

1 мин.
Искусственный интеллект ввёл юристов в заблуждение и поставил их под удар в суде

Суд в американском Вайоминге потребовал разъяснений от группы адвокатов, которые представили материалы с фиктивными ссылками на прецеденты. Выяснилось, что юристы воспользовались искусственным интеллектом для подготовки документов. И нейросеть выдала в качестве результатов поиска несуществующие дела [PDF].

Суть разбирательства касалась иска против Walmart и Jetson Electronic Bikes, Inc., поданного ещё в 2023 году. Истцы, семья из шести человек, заявили, что купленный в Walmart гироборд с литий-ионным аккумулятором загорелся ночью, полностью уничтожил их дом и причинил тяжёлые травмы.

В январе 2024 года защита подала ходатайство об исключении ряда доказательств, обосновав его ссылками на восемь судебных решений. Позже выяснилось, что такие дела никогда не рассматривались.

Судья обратил внимание, что приведённые прецеденты отсутствуют в базе Westlaw и не зафиксированы в судебной системе Вайоминга. Адвокаты были вынуждены объяснить происхождение этих ссылок. Они признали, что в процессе подготовки документов использовали искусственный интеллект, который «сгенерировал» решения, не имеющие реального подтверждения. В юридической фирме этот инцидент стал поводом для обсуждения необходимости усиления контроля при работе с ИИ.

Это далеко не первый случай, когда искусственный интеллект вводит юристов в заблуждение. В 2023 году адвокаты, представлявшие истца в разбирательстве с авиакомпанией Avianca, сослались на судебные решения, которых никогда не существовало – их «создал» ChatGPT. Когда суд усомнился в подлинности материалов, юристы не сразу признали ошибку и продолжили настаивать на фиктивных цитатах, за что были оштрафованы на 5 тыс. долларов.

А в 2024 году адвокат Майкл Коэн представил в суде ссылки на дела, полученные с помощью чат-бота Gemini. Хотя на этот раз обошлось без санкций, судья охарактеризовал ситуацию как «нелепую и постыдную».

Технологии искусственного интеллекта всё активнее применяются в юридической сфере, но эти случаи указывают на то, что без серьёзной проверки такие инструменты могут привести к опасным последствиям – вплоть до дисциплинарных мер и дисквалификации адвокатов.


Ещё по теме:

Мы в Telegram, на Дзен, в Google News и YouTube