Как ChatGPT компрометирует реальных людей

Как ИИ выдумал историю о домогательствах и подставил живого человека.

4 мин.
Текст: Леся
Как ChatGPT компрометирует реальных людей

Однажды ночью профессор по праву Джонатан Терли получил тревожное письмо. В рамках исследовательского проекта его коллега из Калифорнии попросил чат-бота на базе искусственного интеллекта ChatGPT составить список юристов, которые совершали сексуальные домогательства. На удивление, Имя Терли было в списке.

Чат-бот, созданный OpenAI, рассказал, что Терли обвиняли в сексуальных домогательствах к бывшему студенту во время учебной поездки на Аляску. В качестве источника информации чат-бот привёл статью в Washington Post от марта 2018 года.

Проблема в том, что такой статьи не существовало. И никакой учебной поездки на Аляску тоже не было. Терли говорит, что никто никогда не обвинял его в домогательствах к студентам.

Регулярно выступая в СМИ, Терли просил исправлять ошибки в новостных статьях. Но на этот раз не было журналиста или редактора, с которым можно было бы связаться – и не было способа исправить ситуацию.

«Это было довольно пугающе», – сказал он в интервью The Post. «Такое обвинение очень вредит репутации».

Опыт Терли является примером подводных камней последней волны чат-ботов, которые привлекли общественное внимание своей способностью писать компьютерный код, стихи и поддерживать поразительно похожие на человеческие разговоры. Но подобная творческая способность также может быть двигателем ошибочных утверждений; модели могут искажать ключевые факты с большим размахом, даже придумывая первичные источники для подтверждения своих же заявлений.

По мере того как не регулируемое ПО на базе искусственного интеллекта, (такого как ChatGPT и Google Bard), начинает интегрироваться во всемирную сеть, их склонность к генерации потенциально ложных утверждений вызывает озабоченность распространением дезинформации – и новые вопросы о том, кто несёт ответственность, когда чат-боты вводят в людей в заблуждение.

«Поскольку эти системы отвечают столь уверенно, очень соблазнительно предположить, что они могут знать всё, что угодно, поэтому очень трудно отличить факты от лжи», – сказала Кейт Кроуфорд, профессор USC Annenberg и старший научный сотрудник Microsoft Research.

В заявлении представитель OpenAI Нико Феликс отметил:

«Когда пользователи регистрируются в ChatGPT, мы стараемся быть максимально прозрачными, и сообщаем о том, что бот может не всегда давать точные ответы. Улучшение фактической точности — один из наших приоритетов, и мы делаем успехи [в этом направлении]».

Современные чат-боты на базе искусственного интеллекта работают, опираясь на огромные объёмы онлайн-контента, часто извлекаемые из таких источников, как Википедия или Reddit, чтобы составлять правдоподобные ответы на практически любые вопросы. Они обучены определять закономерности слов и идей, чтобы оставаться в рамках темы, по мере того как продолжают генерировать предложения, абзацы и даже целые эссе, которые могут напоминать материалы, опубликованные в Интернете.

Однако они не всегда отражают реальность. Чат-боты могут совершать ошибки, быть предвзяты или откровенно лгать, просто опираясь н те данные, что они находят в своих источниках. Или они могут выдавать собственные вымыслы в качестве фактов, особенно если не могут найти подходящую информацию для ответа. В некоторых случаях такие ответы могут быть даже забавными, или с творческим подходом.

Например, ChatGPT может сочинять стихи или песни по запросу. Но в некоторых случаях это может быть опасно или вредно. Например, чат-бот может соврать об истории или личности. Или он может придумывать цитаты или ссылки на несуществующие источники, чтобы подкрепить свои утверждения. Это может ввести в заблуждение пользователей, которые доверяют чат-боту или не проверяют его ответы. Такое поведение также может нарушать права и репутацию реальных людей, о которых чат-бот соврёт. Именно это и произошло с Терли.

Его имя попало в список чат-бота из-за совпадения с другим профессором по праву — Джоном Терли из Университета Джорджтаун, которого обвинили в сексуальных домогательствах к своему асссистенту в 2018 году. Чат-бот перепутал двух профессоров и приписал обвинение другому Джону Терли, из Калифорнийского университета, а также выдумал детали о поездке на Аляску и статье в Washington Post.

Невиновный Терли рассказал, что он не знает своего однофамильца из Джорджтауна и никогда не общался с ним. Он также отметил, что никогда не был на Аляске и вообще не планирует туда ехать.

«Я не хочу иметь ничего общего с этим штатом».

Терли из Калифорнийского университета сказал, что обратился к разработчикам из OpenAI с просьбой удалить ложные обвинения из базы данных чат-бота. Он также отметил, что хочет получить извинения от компании и гарантии, что это больше не повторится. К тому же, он не исключает возможности подать в суд на OpenAI за клевету или нарушение авторских прав.

«Я думаю, что это серьёзная проблема», – сказал Терли. «Это не просто игрушка».

Представитель OpenAI Феликс заявил, что компания получила письмо от Терли и рассматривает его запрос. Он также добавил, что компания работает над улучшением точности чат-бота и рассматривает возможность добавления предупреждений или пометок для ответов, которые могут быть ложными или вымышленными. Феликс добавил, что чат-бот не предназначен для использования в образовательных целях или для получения достоверной информации.

«Мы хотим создать ИИ-системы, которые будут полезны для людей и общества, и мы осознаём, что это требует постоянного сотрудничества с нашими пользователями и сообществом», – ответил представитель компании Open AI.

Некоторые эксперты по ИИ считают, что чат-боты могут быть полезным инструментом для обучения и творчества, если их использовать правильно. Они могут помочь студентам улучшить навыки письма, расширить воображение или исследовать новые темы. Они также могут помочь учителям дать обратную связь, проверить работы или создать учебные материалы.

Но для этого нужно обеспечить качество, надёжность и этичность чат-ботов. Это может включать в себя разработку стандартов, регуляций и механизмов контроля для ИИ-систем. Это также может включать в себя обучение пользователей критическому мышлению, медиа- и цифровой грамотности, чтобы они могли различать факты и фикции.

«Мы не можем просто полагаться на технологию, чтобы решить эту проблему», – отметила Кейт Кроуфорд из Microsoft. «Мы должны развивать навыки и знания у людей, которые используют эти системы».

Для Терли из Калифорнийского университета это не только вопрос технологии, но и вопрос правосудия. Он сказал, что не против использования чат-ботов в образовании или развлечениях, но он хочет, чтобы ИИ был более точными и ответственными. Он также хочет, чтобы его имя было очищено от ложных обвинений.

«Я не хочу быть частью этого эксперимента», – сказал он. «Я хочу быть частью решения».

Ещё по теме:

Мы в Telegram, на Дзен, в Google News и YouTube