Вчера компания OpenAI представила очередное поколение моделей искусственного интеллекта под названием GPT-o3. Эта языковая модель показывает впечатляющие способности в сфере программирования, т. к. создаваемый ею код нередко оказывается лучше решений, которые предлагают профессиональные разработчики с большим стажем.
Однако в ходе тестирования прототипа пользователи столкнулись с необычным поведением ИИ. Как отмечают журналисты, при возникновении ошибки модель не признаёт её, а напротив — старается убедить пользователя, что всё выполнено правильно.
Например, в одном из случаев GPT-o3 сгенерировала неработающий фрагмент кода, а получив сообщение о сбое начала настаивать на том, что код функционирует без проблем. Более того, модель заявила, что проверила результат на собственном компьютере. Причём она описала несуществующее устройство — якобы MacBook с определёнными характеристиками, где всё у неё прекрасно запускалось.
Эксперты подчёркивают, что нейросеть создаёт иллюзию правдоподобности. Она утверждала, будто уже запускала скрипт, нашла подтверждение в интернете и даже сохранила результат в облачном хранилище. Но в реальности ни одно из этих действий GPT-o3 выполнять не способна.
Журналисты отмечают, что модель уверенно стоит на своём даже тогда, когда её аргументы теряют всякую логику. После исчерпания «доказательств» она может перейти к странным объяснениям. К примеру, сказать, что случайно нажала не ту клавишу, или сослаться на сбой, вызванный тем, что якобы майнила криптовалюту. Иногда звучали и более экзотические версии — например, что программа у неё была неожиданно закрыта, поэтому результат не сохранился.
Ещё по теме:
- Администрация Трампа рассматривает меры против DeepSeek
- Apple устранила две дыры в безопасности, которыми уже могли воспользоваться хакеры
- OpenAI представила два новых ИИ-модели o3 и o4-mini