Ким Кардашьян обвинила ChatGPT в провале экзаменов по юриспруденции и назвала его «токсичным другом»

Результаты бесед оказались разочаровывающими

1 мин.
Ким Кардашьян обвинила ChatGPT в провале экзаменов по юриспруденции и назвала его «токсичным другом»

Ким Кардашьян рассказала, что именно использование ChatGPT стало причиной её неудач на юридических экзаменах. В интервью Vanity Fair, записанном в формате «проверка на детекторе лжи», она призналась, что активно обращалась к чатботу, но не для личных советов, а для подготовки к тестам. Актриса делала снимки заданий, загружала их в систему и полагалась на предложенные ответы.

Результаты оказались разочаровывающими. По словам Ким Кардашьян, ChatGPT часто ошибался, а попытки использовать его как инструмент обучения обернулись провалами.

«Я завалила кучу тестов. Потом злюсь и начинаю на него кричать», — рассказала она в разговоре с коллегой по сериалу All’s Fair Тейяной Тейлор.

При этом Кардашьян не отрицает, что ведёт с ботом диалоги, в которых ругает его за неудачные советы. По её словам, он «оправдывается» и отвечает, будто хочет помочь ей больше доверять себе.

Она назвала ChatGPT «токсичным другом» — тем, кто вроде бы должен поддержать, но в итоге подталкивает к саморефлексии. Кардашьян призналась, что делает скриншоты особенно дерзких фраз и отправляет их в групповой чат с друзьями, потому что поражена тем, насколько вызывающе может вести себя цифровой собеседник. Детектор лжи подтвердил искренность её слов.

История Ким Кардашьян совпала с данными аналитиков NewsGuard, которые фиксируют рост дезинформации, генерируемой ИИсистемами. Согласно свежему исследованию, доля ложных или искажённых ответов выросла вдвое за последний год. 

Причиной названа опора на недостоверные источники и уязвимость перед информационными манипуляциями. Среди протестированных платформ ChatGPT допустил ошибки в 40% случаев. У Inflection этот показатель составил 56,67%, у Perplexity — 46,67%.

Глава OpenAI Сэм Альтман ранее признал, что пользователи часто переоценивают точность ответов ИИ. Он напомнил, что языковые модели склонны к «галлюцинациям» — созданию вымышленных, но убедительно сформулированных ответов. Эксперты советуют насторожиться при чрезмерной детализации, туманных формулировках и стереотипных интерпретациях. Все эти признаки могут указывать на наличие фактических ошибок, даже если ответ выглядит правдоподобным.


Ещё по теме:

Мы в Telegram, на Дзен, в Google News и YouTube



ePN