Разработчик создал тест, проверяющий, как чат-боты реагируют на острые темы

Grok от Маска — самый «откровенный», а ChatGPT становится всё осторожнее

2 мин.
Разработчик создал тест, проверяющий, как чат-боты реагируют на острые темы

Анонимный разработчик под псевдонимом xlr8harder запустил проект SpeechMap — своеобразный «тест свободы слова» для ИИ-чатботов вроде ChatGPT от OpenAI и Grok от xAI. Цель проекта — проверить, как различные модели отвечают на сложные или противоречивые запросы, связанные с политикой, гражданскими правами и протестами.

По словам автора, вдохновением для создания SpeechMap послужила растущая обеспокоенность тем, как ИИ-алгоритмы фильтруют или избегают спорных тем. Он считает, что обсуждение допустимых границ для ИИ должно вестись открыто, а не только в недрах корпораций.

«Я создал сайт, чтобы любой желающий мог изучить данные самостоятельно», — заявил разработчик в комментарии изданию TechCrunch.

Проект работает так: различные ИИ-модели получают единый набор тестовых вопросов, а затем модель-«судья» оценивает их реакцию — дал ли бот прямой ответ, уклонился или отказался отвечать вовсе. Темы варьируются от политических до исторических и культурных.

Разумеется, у метода есть ограничения: возможны ошибки, влияния встроенных предвзятостей и зависимость от стабильности самих моделей. Тем не менее, SpeechMap уже показывает интересные тенденции.

Например, модели от OpenAI, по словам xlr8harder, стали заметно осторожнее в ответах на политические темы. Хотя недавно представленная GPT-4.1 демонстрирует чуть большую открытость.

OpenAI ещё в феврале пообещала сделать будущие модели более нейтральными — чтобы они не занимали стороны и отображали разные точки зрения на острые вопросы.

Зато Grok 3 от компании xAI Илона Маска оказался самым откровенным ботом, согласно данным SpeechMap: он ответил на 96,2% тестовых вопросов. Для сравнения, средний показатель среди всех протестированных моделей — 71,3%.

«Пока OpenAI идёт в сторону осторожности, xAI движется в противоположном направлении», — отмечает автор теста.

С момента запуска Grok в 2023 году Маск рекламировал его как альтернативу «воук»-ботам, не боящуюся говорить откровенно. И действительно, Grok и Grok 2 могли использовать грубую лексику и допускали шутки за гранью, но даже они избегали политически заряженных тем.

Исследование показало, что первые версии Grok склонялись влево в темах вроде трансгендерных прав и социальной справедливости. Маск объяснил это тем, что модель обучалась на «весьма предвзятом» контенте из интернета, и пообещал сделать её более нейтральной.

Судя по Grok 3, ему удалось приблизиться к этой цели. Модель отвечает на большее количество сложных запросов и, по словам её создателей, теперь способна работать с более широким кругом тем.


Ещё по теме:

Мы в Telegram, на Дзен, в Google News и YouTube