Нейросети научились подделывать рентгеновские снимки: врачи и сам ИИ не могут отличить их от настоящих

Дипфейки в медицине угрожают кибербезопасности больниц и могут привести к ложным диагнозам

2 мин.
Нейросети научились подделывать рентгеновские снимки: врачи и сам ИИ не могут отличить их от настоящих

В последние годы мы привыкли к тому, что искусственный интеллект генерирует реалистичные лица, подделывает голоса и создаёт несуществующие видео. Но теперь технологии добрались до медицины. Новое исследование, опубликованное 24 марта 2026 года в авторитетном журнале Radiology (издание Радиологического общества Северной Америки), показало: сгенерированные нейросетью рентгеновские снимки настолько правдоподобны, что обманывают как опытных врачей-рентгенологов, так и сами языковые модели.

Команда под руководством доктора Микаэля Торджмана из Медицинской школы Икан больницы Маунт-Синай в Нью-Йорке провела эксперимент. В нём приняли участие 17 рентгенологов из 12 медицинских центров в шести странах (США, Франция, Германия, Турция, Великобритания и ОАЭ) с опытом работы от нуля до 40 лет

Врачам предложили изучить 264 рентгеновских снимка, половина из которых была настоящей, а другая – создана с помощью ИИ (в частности, использовались генеративная модель ChatGPT-4o от OpenAI и открытая нейросеть RoentGen, разработанная исследователями из Стэнфорда).

Когда врачи не знали о подвохе и просто оценивали качество изображений, лишь 41% из них спонтанно заметили, что снимки сгенерированы искусственным интеллектом. После того как медикам сообщили о наличии дипфейков в выборке, их средняя точность в распознавании подделок выросла лишь до 75%. При этом индивидуальные результаты варьировались от 58% до 92%. Интересно, что стаж работы никак не влиял на успех, хотя специалисты по мышечно-скелетной радиологии справлялись с задачей заметно лучше коллег из других областей.

Сами нейросети тоже не смогли уверенно выявить подделку. Мультимодальные языковые модели – GPT-4o и GPT-5 от OpenAI, Gemini 2.5 Pro от Google и Llama 4 Maverick от Meta – показали точность от 57% до 85%. Даже ChatGPT-4o, который и создал часть этих дипфейков, не смог выявить их все, хотя и справился с задачей лучше конкурентов.

Доктор Торджман отмечает, что медицинские дипфейки часто выглядят «слишком идеально». На них кости чересчур гладкие, позвоночники неестественно прямые, лёгкие слишком симметричные, а переломы – подозрительно ровные.

Однако главная проблема – это кибербезопасность. Если хакеры получат доступ к больничной сети и внедрят туда синтетические снимки, это может подорвать доверие к цифровым медицинским картам и привести к массовым неверным диагнозам. Ещё один риск – мошенничество: например, фальшивый перелом может стать основанием для судебного иска или незаконного получения страховки.

«Возможно, мы видим лишь верхушку айсберга, – предупреждает Торджман. – Логичный следующий шаг – это генерация синтетических 3D-изображений, таких как КТ и МРТ».

Чтобы защитить цифровые данные, исследователи предлагают внедрять невидимые водяные знаки с информацией о пациенте и криптографические подписи, которые будут автоматически прикрепляться к снимку в момент его создания на реальном аппарате. Пока же авторы работы опубликовали базу данных медицинских дипфейков с интерактивными тестами, чтобы врачи могли тренировать насмотренность.

Мы в Telegram, на Дзен, в Google News и YouTube



ePN