Новая ИИ-модель GPT-o3 врёт пользователям ещё больше

Некоторые «отмазки» выглядят совсем нелепо

1 мин.
Новая ИИ-модель GPT-o3 врёт пользователям ещё больше

Вчера компания OpenAI представила очередное поколение моделей искусственного интеллекта под названием GPT-o3. Эта языковая модель показывает впечатляющие способности в сфере программирования, т. к.  создаваемый ею код нередко оказывается лучше решений, которые предлагают профессиональные разработчики с большим стажем.

Однако в ходе тестирования прототипа пользователи столкнулись с необычным поведением ИИ. Как отмечают журналисты, при возникновении ошибки модель не признаёт её, а напротив — старается убедить пользователя, что всё выполнено правильно.

Например, в одном из случаев GPT-o3 сгенерировала неработающий фрагмент кода, а получив сообщение о сбое начала настаивать на том, что код функционирует без проблем. Более того, модель заявила, что проверила результат на собственном компьютере. Причём она описала несуществующее устройство — якобы MacBook с определёнными характеристиками, где всё у неё прекрасно запускалось.

Эксперты подчёркивают, что нейросеть создаёт иллюзию правдоподобности. Она утверждала, будто уже запускала скрипт, нашла подтверждение в интернете и даже сохранила результат в облачном хранилище. Но в реальности ни одно из этих действий GPT-o3 выполнять не способна.

Журналисты отмечают, что модель уверенно стоит на своём даже тогда, когда её аргументы теряют всякую логику. После исчерпания «доказательств» она может перейти к странным объяснениям. К примеру, сказать, что случайно нажала не ту клавишу, или сослаться на сбой, вызванный тем, что якобы майнила криптовалюту. Иногда звучали и более экзотические версии — например, что программа у неё была неожиданно закрыта, поэтому результат не сохранился.


Ещё по теме:

Мы в Telegram, на Дзен, в Google News и YouTube