ChatGPT проанализировал здоровье по данным Apple Watch и поставил пугающий диагноз. Врач назвал это бредом

Колумнист Washington Post загрузил в нейросеть данные за 10 лет

2 мин.
ChatGPT проанализировал здоровье по данным Apple Watch и поставил пугающий диагноз. Врач назвал это бредом

Когда технический обозреватель The Washington Post Джеффри Фаулер предоставил ChatGPT доступ к данным своих Apple Watch за целое десятилетие, он рассчитывал получить полезные инсайты о состоянии организма. Вместо этого искусственный интеллект выдал пугающий и абсолютно неверный медицинский анализ, заставив журналиста усомниться в готовности подобных технологий к работе с реальными пациентами.

Эксперимент с катастрофическим результатом

Функция интеграции ChatGPT с Apple Health («Здоровье») была запущена 7 января 2026 года. Решив протестировать новинку, Фаулер подключил чат-бот к своей статистике, содержащей 29 миллионов шагов и 6 миллионов измерений пульса, и попросил оценить состояние сердечно-сосудистой системы.

Вердикт нейросети шокировал колмниста: ChatGPT поставил здоровью журналиста оценку «F» (неуд). В панике Фаулер переслал отчёт своему лечащему врачу. Реакция медика была однозначной: ИИ грубо ошибся.

По словам врача, риск сердечного приступа у Фаулера настолько низок, что страховая компания, скорее всего, даже не одобрит дополнительные обследования, чтобы опровергнуть выводы нейросети.

«Чем больше я использовал ChatGPT Health, тем хуже становились результаты», – резюмировал мужчина.

Сомнительная методология и ложные выводы

Известный кардиолог Эрик Тополь из Института Scripps Research также раскритиковал анализ ChatGPT, назвав его «безосновательным». По мнению эксперта, инструмент абсолютно не готов к тому, чтобы давать какие-либо медицинские советы.

Главная проблема заключалась в том, что ИИ опирался на приблизительные оценки Apple Watch, такие как VO2 max (максимальное потребление кислорода) и вариабельность сердечного ритма. Врачи считают эти метрики слишком неточными для клинических заключений. Сама Apple подчёркивает, что собирает лишь «оценочные данные» VO2 max – для точного измерения требуются беговая дорожка и специальная маска. Независимые исследования показывают, что погрешность смарт-часов в этом показателе может достигать 13% в меньшую сторону.

Кроме того, ChatGPT ошибочно интерпретировал данные о пульсе в покое: он зафиксировал якобы тревожный рост показателей, не учитывая, что за 10 лет журналист менял модели смарт-часов, а разные поколения устройств могут отслеживать ритм по-разному. Примечательно, что когда настоящий врач захотел проверить сердце Фаулера, он назначил липидограмму (анализ на холестерин) – тест, который не предложили ни ChatGPT, ни его конкурент Claude от Anthropic.

Генератор случайных чисел вместо диагноза

Наибольшую тревогу вызвала нестабильность ответов. Когда Фаулер задавал один и тот же вопрос несколько раз, оценка его сердечно-сосудистого здоровья хаотично скакала от «F» (неуд) до «B» (хорошо). Периодически бот «забывал» базовые факты о пользователе, включая его возраст и пол, а иногда игнорировал результаты свежих анализов крови.

Доктор Тополь назвал такой разброс «совершенно неприемлемым». Он предупредил, что подобные сбои могут привести к двум опасным сценариям: либо здоровые люди начнут паниковать без причины, либо пациенты с реальными проблемами получат ложное успокоение.

В OpenAI признали проблему, но заявили, что не смогли воспроизвести столь экстремальные перепады в оценках, с которыми столкнулся журналист. Компания пояснила, что при интерпретации больших массивов данных ChatGPT может придавать разный вес различным источникам информации в разных беседах.

Приватность и «серая зона» регулирования

И OpenAI, и Anthropic запустили свои функции анализа здоровья как бета-продукты для платных подписчиков. Хотя компании утверждают, что эти инструменты не призваны заменить врачей, на практике боты охотно выдают детальные кардиологические заключения по запросу.

OpenAI заявляет о принятии дополнительных мер безопасности: данные здоровья шифруются и не используются для обучения моделей. Однако, поскольку ChatGPT юридически не является поставщиком медицинских услуг, на него не распространяется действие американского закона о защите медицинских данных.

Регуляторный ландшафт остаётся размытым. Комиссар FDA (Управление по санитарному надзору) Марти Макари недавно заявил, что задача ведомства – «уйти с дороги», чтобы не мешать инновациям в сфере ИИ. Техногиганты, в свою очередь, настаивают на том, что лишь предоставляют информацию, а не делают медицинские заявления, требующие сертификации.

Опыт Джеффри Фаулера служит наглядным предупреждением: доверять анализ своего здоровья чат-боту пока рано, каким бы уверенным тоном он ни озвучивал свой диагноз.

Мы в Telegram, на Дзен, в Google News и YouTube



ePN