Когда технический обозреватель The Washington Post Джеффри Фаулер предоставил ChatGPT доступ к данным своих Apple Watch за целое десятилетие, он рассчитывал получить полезные инсайты о состоянии организма. Вместо этого искусственный интеллект выдал пугающий и абсолютно неверный медицинский анализ, заставив журналиста усомниться в готовности подобных технологий к работе с реальными пациентами.
Эксперимент с катастрофическим результатом
Функция интеграции ChatGPT с Apple Health («Здоровье») была запущена 7 января 2026 года. Решив протестировать новинку, Фаулер подключил чат-бот к своей статистике, содержащей 29 миллионов шагов и 6 миллионов измерений пульса, и попросил оценить состояние сердечно-сосудистой системы.
Вердикт нейросети шокировал колмниста: ChatGPT поставил здоровью журналиста оценку «F» (неуд). В панике Фаулер переслал отчёт своему лечащему врачу. Реакция медика была однозначной: ИИ грубо ошибся.
По словам врача, риск сердечного приступа у Фаулера настолько низок, что страховая компания, скорее всего, даже не одобрит дополнительные обследования, чтобы опровергнуть выводы нейросети.
«Чем больше я использовал ChatGPT Health, тем хуже становились результаты», – резюмировал мужчина.
Сомнительная методология и ложные выводы
Известный кардиолог Эрик Тополь из Института Scripps Research также раскритиковал анализ ChatGPT, назвав его «безосновательным». По мнению эксперта, инструмент абсолютно не готов к тому, чтобы давать какие-либо медицинские советы.
Главная проблема заключалась в том, что ИИ опирался на приблизительные оценки Apple Watch, такие как VO2 max (максимальное потребление кислорода) и вариабельность сердечного ритма. Врачи считают эти метрики слишком неточными для клинических заключений. Сама Apple подчёркивает, что собирает лишь «оценочные данные» VO2 max – для точного измерения требуются беговая дорожка и специальная маска. Независимые исследования показывают, что погрешность смарт-часов в этом показателе может достигать 13% в меньшую сторону.
Кроме того, ChatGPT ошибочно интерпретировал данные о пульсе в покое: он зафиксировал якобы тревожный рост показателей, не учитывая, что за 10 лет журналист менял модели смарт-часов, а разные поколения устройств могут отслеживать ритм по-разному. Примечательно, что когда настоящий врач захотел проверить сердце Фаулера, он назначил липидограмму (анализ на холестерин) – тест, который не предложили ни ChatGPT, ни его конкурент Claude от Anthropic.
Генератор случайных чисел вместо диагноза
Наибольшую тревогу вызвала нестабильность ответов. Когда Фаулер задавал один и тот же вопрос несколько раз, оценка его сердечно-сосудистого здоровья хаотично скакала от «F» (неуд) до «B» (хорошо). Периодически бот «забывал» базовые факты о пользователе, включая его возраст и пол, а иногда игнорировал результаты свежих анализов крови.
Доктор Тополь назвал такой разброс «совершенно неприемлемым». Он предупредил, что подобные сбои могут привести к двум опасным сценариям: либо здоровые люди начнут паниковать без причины, либо пациенты с реальными проблемами получат ложное успокоение.
В OpenAI признали проблему, но заявили, что не смогли воспроизвести столь экстремальные перепады в оценках, с которыми столкнулся журналист. Компания пояснила, что при интерпретации больших массивов данных ChatGPT может придавать разный вес различным источникам информации в разных беседах.
Приватность и «серая зона» регулирования
И OpenAI, и Anthropic запустили свои функции анализа здоровья как бета-продукты для платных подписчиков. Хотя компании утверждают, что эти инструменты не призваны заменить врачей, на практике боты охотно выдают детальные кардиологические заключения по запросу.
OpenAI заявляет о принятии дополнительных мер безопасности: данные здоровья шифруются и не используются для обучения моделей. Однако, поскольку ChatGPT юридически не является поставщиком медицинских услуг, на него не распространяется действие американского закона о защите медицинских данных.
Регуляторный ландшафт остаётся размытым. Комиссар FDA (Управление по санитарному надзору) Марти Макари недавно заявил, что задача ведомства – «уйти с дороги», чтобы не мешать инновациям в сфере ИИ. Техногиганты, в свою очередь, настаивают на том, что лишь предоставляют информацию, а не делают медицинские заявления, требующие сертификации.
Опыт Джеффри Фаулера служит наглядным предупреждением: доверять анализ своего здоровья чат-боту пока рано, каким бы уверенным тоном он ни озвучивал свой диагноз.