Житель Норвегии, Арве Хьялмар Холмен, был шокирован, когда обнаружил, что ChatGPT распространяет ложные обвинения в его адрес. Чат-бот заявил, что он якобы убил двоих своих детей и пытался убить третьего, за что был приговорён к 21 году тюрьмы. Это заявление, конечно, абсолютно ложно и никак не соответствовало действительности.
Согласно жалобе, поданной правозащитной организацией NOYB (None of Your Business), Холмен решил проверить, какую информацию выдаст ChatGPT, если запросить своё имя. Ответ чат-бота потряс его: искусственный интеллект не только «придумал» историю о преступлении, но и добавил реальные детали из жизни мужчины, такие как количество и пол его детей, а также название его родного города. Эти данные были смешаны с вымышленной информацией, создавая эффект достоверности.
Такое поведение ChatGPT нарушает требования Общего регламента по защите данных (GDPR), поскольку Холмен не может просто исправить или удалить эту информацию, как того требует закон.
По словам мужчины, его репутация остаётся под угрозой до тех пор, пока эта информация будет доступна. Даже предупреждения, которые ChatGPT иногда выводит, напоминая пользователям проверять достоверность, не может гарантировать, что люди не поверят ложным утверждениям.
«Некоторые считают, что "нет дыма без огня"», – сказал Холмен. «Меня больше всего пугает тот факт, что кто-то может прочитать эти данные и поверить в их правдивость».
В настоящее время ChatGPT больше не повторяет эти ложные обвинения против Холмена. По словам NOYB, последнее обновление модели, судя по всему, решило проблему: теперь чат-бот ищет информацию о людях в интернете, когда его спрашивают об их личности. Однако, как ранее заявляли в OpenAI, компания не может исправить информацию в обучающих данных, а может только блокировать её вывод. Это значит, что фейловая история об убийце детей, скорее всего, всё ещё хранится во внутренних данных модели. Если Холмен не сможет добиться её удаления, это будет считаться нарушением GDPR.
«Даже если ложные персональные данные не распространяются, GDPR распространяется на внутренние данные так же, как и на общедоступные», — отметили в NOYB.
Не единичный случай
Холмен — не первый, кому галлюцинации ChatGPT испортили жизнь. Вскоре после релиза ИИ-модели в конце 2022 года австралийский мэр угрожал подать в суд за клевету, после того как чат-бот ложно заявил, что он сидел в тюрьме. В то же время модель связала реального профессора права с вымышленным скандалом о сексуальных домогательствах. Ещё позже радиоведущий подал в суд на OpenAI из-за ложных обвинений в финансовых махинациях.
В некоторых случаях OpenAI фильтрует выходные данные, чтобы избежать вредоносных ответов, но, вероятно, не удаляет ложную информацию из обучающих данных. Однако, по мнению юриста NOYB, этого недостаточно для защиты репутации людей.
«Добавление предупреждения о том, что вы не соблюдаете закон, не отменяет сам закон», — заявила она. «Компании [разрабатывающие] ИИ не могут просто "скрывать" ложную информацию от пользователей, продолжая использовать её внутри системы. Они должны понимать, что на них распространяется действие GDPR. Если галлюцинации моделей не будут остановлены, люди будут страдать от репутационного ущерба».
Требования NOYB
В NOYB считают, что OpenAI должна приложить больше усилий для предотвращения клеветнических ответов. Организация подала жалобу в Норвежский орган по защите данных (Datatilsynet), требуя обязать OpenAI удалить ложные данные и доработать модель, чтобы исключить неточные результаты. Кроме того, NOYB предлагает наложить административный штраф для предотвращения подобных нарушений в будущем.
Это уже вторая жалоба NOYB против ChatGPT. Первая была подана в апреле прошлого года в Австрийский орган по защите данных. В последние годы государства ЕС всё чаще проверяют компании, работающие в сфере искусственного интеллекта, и OpenAI остаётся одной из главных целей. В 2023 году Европейский совет по защите данных создал рабочую группу для расследования проблем, связанных с ChatGPT, и возможных мер принуждения.
Последствия для OpenAI
На данный момент OpenAI уже столкнулась с последствиями в одной из стран ЕС. В 2024 году компания была оштрафована на $16 млн, а сервис временно заблокирован в Италии. Это случилось после утечки данных, в которой были разговоры пользователей и платёжная информация. Чтобы восстановить работу ChatGPT, OpenAI обязали предоставить инструмент, с помощью которого пользователи могут запросить исправление своих персональных данных, если они были обработаны некорректно.
Если норвежские органы по защите данных примут аналогичное решение, OpenAI может быть вынуждена внести серьёзные изменения в свою модель. Возможно, даже потребуется полностью переобучить алгоритм ChatGPT.
Ещё по теме: