Как ChatGPT переводит врачебный «элфийский» на понятный язык

Пациенты меньше паникуют, читая заключения, но врачи требуют контроля и чётких правил для ИИ‑переводчиков

1 мин.
Как ChatGPT переводит врачебный «элфийский» на понятный язык

Радиологи пишут заключения не для пациентов – это секрет Полишинеля. Но теперь, когда результаты КТ и МРТ всё чаще появляются прямо в мобильных приложениях, обычный человек сидит и читает что-то вроде «гиподенсивные очаги в белом веществе вероятно сосудистого генеза» – и либо впадает в панику, либо решает, что всё нормально. Оба варианта – лотерея.

Учёные из Университета Шеффилда решили проверить, может ли ИИ сыграть роль переводчика между врачебным протоколом и здравым смыслом. Ответ оказался обнадёживающим: в крупном обзоре, охватившем 38 исследований 2022–2025 годов и более 12 тысяч радиологических заключений, пациенты оценивали переписанные нейросетью тексты почти вдвое понятнее оригинальных.

Из университета – в среднюю школу

Языковая трансформация оказалась впечатляющей. Уровень сложности текста снижался с университетского до того, с которым справляется подросток 11–13 лет. Это не значит, что из заключений убирали смысл – речь о замене профессионального жаргона на понятные формулировки.

Тот самый пугающий пример с «гиподенсивными очагами» ИИ переформулировал примерно так: «обнаружены небольшие отклонения от нормы, которые часто связаны с возрастными или сосудистыми изменениями; окончательную интерпретацию следует обсудить с врачом» . Согласитесь, разница колоссальная – особенно для человека, который читает это в час ночи и уже мысленно пишет завещание.

Польза не только для пациентов

Исследователи указывают и на сугубо прагматичный эффект: врачи нередко тратят время приёма на то, чтобы расшифровать собственный протокол вместо обсуждения лечения. Если пациент приходит уже с базовым пониманием, разговор становится продуктивнее.

Авторы обзора также отмечают потенциал для снижения медицинского неравенства – понятные объяснения помогут людям с разным уровнем образования и разными языковыми навыками увереннее ориентироваться в результатах обследований.

Один процент, который всё меняет

Идиллию портит один факт: около 1% упрощённых текстов содержали ошибки – некорректные выводы, способные повлиять на решения пациента. В медицине это не статистический шум: неточная формулировка может и усилить тревогу, и создать ложное ощущение безопасности. Поэтому врачи, рецензировавшие ИИ-версии, в целом оценивали их как точные – но едины во мнении: без человеческого контроля, чётких регламентов и понятного распределения ответственности внедрять такие системы пока нельзя.

Мы в Telegram, на Дзен, в Google News и YouTube



ePN