Суд в Калифорнии оштрафовал юриста на $10 тыс за фальшивые ссылки, сгенерированные ИИ

Люди так и не поняли, что искусственный интеллект может обманывать

2 мин.
Суд в Калифорнии оштрафовал юриста на $10 тыс за фальшивые ссылки, сгенерированные ИИ

Апелляционная инстанция в штате Калифорния установила жёсткий прецедент. Юрист, подавший документы, насыщенные вымышленными правовыми ссылками, созданными через генеративные модели ChatGPT, Claude, Gemini и Grok, получил штраф в 10 тыс. долларов. 

В решении заявлено, что вся ответственность за применение подобных инструментов лежит на самих специалистах, и игнорировать возможность появления недостоверной информации недопустимо.

Выяснилось, что почти все приведённые прецеденты в материалах обращения оказались выдуманными. Нарушитель признал факт нарушения, уточнив, что не осознавал способности систем придумывать источники. 

Позднее он сообщил о прохождении дополнительного обучения и пообещал исключить подобные ошибки в дальнейшем. При этом судьи указали на всё более широкое проникновение нейросетей в юридическую практику и предупредили, что их небрежное использование перегружает судебную систему и способствует подрыву доверия к самой профессии.

Расследование, проведённое редакцией 404 Media, показало, что случай в Калифорнии не единичный. На основе данных, собранных исследователем Дамьеном Шарлотеном, удалось выявить свыше 410 эпизодов по всему миру, при этом 269 из них — в США. 

Основное внимание журналисты уделили не самим санкциям, а тем, как нарушители объясняли свои действия. Ради этого пришлось работать с федеральными и региональными архивами, выкупать копии дел и изучать пояснения, содержащиеся в ответах на судебные запросы.

Оправдания поражают разнообразием. Одни юристы ссылаются на срочность и перегрузку, другие упоминают личные трудности — от болезни до смерти родственников. Иногда вина перекладывается на неопытных помощников или фрилансеров. Попадаются и более экстравагантные объяснения — сбои в работе ИИ, перебои с интернетом, заражение компьютеров вредоносным кодом или даже «личные эксперименты с алгоритмами».

Объединяет все случаи одно — юристы начали частопопадать в ловушку, сформированную ускорением рабочих процессов и растущим числом дел. Клиенты требуют молниеносных решений, а специалисты, пытаясь угнаться за ритмом, полагаются на ИИ, не перепроверяя его выводы вручную. При этом именно точность и достоверность остаются центральными требованиями к любому профессионалу в сфере права.

Положение осложняется тем, что генеративные модели стремительно встраиваются в повседневную работу. Они интегрируются в привычные правовые базы, используются стартапами как штатные инструменты и постепенно воспринимаются как часть фона. Это формирует иллюзию безопасности, из-за которой всё больше несуществующих цитат и ложных прецедентов проникают в официальные документы.

Кроме упомянутых ChatGPT, Gemini и Claude, юристы в США активно применяют Grok, Perplexity, а также встроенные алгоритмы в системах Westlaw и LexisNexis. На рынке функционируют десятки стартапов, предлагающих автоматизированных помощников для адвокатов и правовых аналитиков.


Ещё по теме:

Мы в Telegram, на Дзен, в Google News и YouTube



ePN