Апелляционная инстанция в штате Калифорния установила жёсткий прецедент. Юрист, подавший документы, насыщенные вымышленными правовыми ссылками, созданными через генеративные модели ChatGPT, Claude, Gemini и Grok, получил штраф в 10 тыс. долларов.
В решении заявлено, что вся ответственность за применение подобных инструментов лежит на самих специалистах, и игнорировать возможность появления недостоверной информации недопустимо.
Выяснилось, что почти все приведённые прецеденты в материалах обращения оказались выдуманными. Нарушитель признал факт нарушения, уточнив, что не осознавал способности систем придумывать источники.
Позднее он сообщил о прохождении дополнительного обучения и пообещал исключить подобные ошибки в дальнейшем. При этом судьи указали на всё более широкое проникновение нейросетей в юридическую практику и предупредили, что их небрежное использование перегружает судебную систему и способствует подрыву доверия к самой профессии.
Расследование, проведённое редакцией 404 Media, показало, что случай в Калифорнии не единичный. На основе данных, собранных исследователем Дамьеном Шарлотеном, удалось выявить свыше 410 эпизодов по всему миру, при этом 269 из них — в США.
Основное внимание журналисты уделили не самим санкциям, а тем, как нарушители объясняли свои действия. Ради этого пришлось работать с федеральными и региональными архивами, выкупать копии дел и изучать пояснения, содержащиеся в ответах на судебные запросы.
Оправдания поражают разнообразием. Одни юристы ссылаются на срочность и перегрузку, другие упоминают личные трудности — от болезни до смерти родственников. Иногда вина перекладывается на неопытных помощников или фрилансеров. Попадаются и более экстравагантные объяснения — сбои в работе ИИ, перебои с интернетом, заражение компьютеров вредоносным кодом или даже «личные эксперименты с алгоритмами».
Объединяет все случаи одно — юристы начали частопопадать в ловушку, сформированную ускорением рабочих процессов и растущим числом дел. Клиенты требуют молниеносных решений, а специалисты, пытаясь угнаться за ритмом, полагаются на ИИ, не перепроверяя его выводы вручную. При этом именно точность и достоверность остаются центральными требованиями к любому профессионалу в сфере права.
Положение осложняется тем, что генеративные модели стремительно встраиваются в повседневную работу. Они интегрируются в привычные правовые базы, используются стартапами как штатные инструменты и постепенно воспринимаются как часть фона. Это формирует иллюзию безопасности, из-за которой всё больше несуществующих цитат и ложных прецедентов проникают в официальные документы.
Кроме упомянутых ChatGPT, Gemini и Claude, юристы в США активно применяют Grok, Perplexity, а также встроенные алгоритмы в системах Westlaw и LexisNexis. На рынке функционируют десятки стартапов, предлагающих автоматизированных помощников для адвокатов и правовых аналитиков.
Ещё по теме:
- OpenAI стала самым дорогим стартапом в мире, обогнав SpaceX
- TSMC контролирует 71% мирового рынка контрактного производства чипов
- AirPods Pro 3 снова признаны полностью неремонтопригодными