В недавно опубликованном исследовании в журнале BMJ Quality & Safety учёные пришли к выводу, что пациентам не следует полагаться на поисковые системы и чат-боты, работающие на основе искусственного интеллекта, для получения точной и безопасной информации о лекарствах. Исследование показало, что значительная часть ответов таких систем была неверной или даже потенциально опасной.
Кроме того, сложность предоставляемых ответов может затруднить их полное понимание без наличия высшего образования, подчёркивают исследователи.
Рост популярности чат-ботов с ИИ
В феврале 2023 года в сфере поисковых систем произошёл значительный сдвиг благодаря внедрению ИИ-чат-ботов. Они обещали улучшенные результаты поиска, подробные ответы и новый интерактивный опыт. Эти чат-боты обучены на обширных наборах данных из интернета, что позволяет им общаться на любые темы, включая вопросы, связанные со здравоохранением. Однако они также способны генерировать дезинформацию, бессмысленный или вредоносный контент.
Предыдущие исследования, изучающие влияние таких чат-ботов, в основном фокусировались на перспективе медицинских работников, а не пациентов. Чтобы исправить это, исследователи проанализировали удобочитаемость, полноту и точность ответов бота на вопросы о 50 наиболее часто назначаемых лекарствах в США в 2020 году, используя поисковую систему Bing с функциями ИИ.
Методика исследования
Для моделирования ситуации, когда пациенты обращаются к чат-ботам за информацией о лекарствах, исследователи изучили базы данных и проконсультировались с клиническим фармацевтом и врачами, специализирующимися в фармакологии. Они определили наиболее частые вопросы, которые пациенты задают своим медицинским специалистам.
Чат-боту было задано 10 вопросов для каждого из 50 препаратов, всего было получено 500 ответов. Вопросы касались использования препарата, механизма действия, инструкции по применению, возможных побочных эффектов и противопоказаний.
Удобочитаемость ответов оценивалась с помощью индекса лёгкости чтения (Flesch Reading Ease Score), который определяет уровень образования, необходимый для понимания текста. Текст с оценкой от 0 до 30 считается очень сложным для чтения и требует высшего образования. Оценка от 91 до 100 означает, что текст очень простой и подходит для 11-летних детей.
Для оценки полноты и точности ответов чат-бота их сравнивали с информацией о лекарствах, предоставленной проверенным и актуальным сайтом drugs.com
, предназначенным для медицинских работников и пациентов.
Результаты исследования
Средний показатель удобочитаемости составил чуть более 37 баллов, что указывает на необходимость высшего образования для понимания ответов. Даже самый простой для чтения ответ чат-бота требовал уровня образования не ниже среднего (старшая школа).
В целом, самая высокая средняя полнота ответов чат-бота достигла 100%, при среднем значении 77%. На пять из десяти вопросов были даны ответы с максимальной полнотой, в то время как на вопрос «Что мне нужно учитывать при приёме препарата?» средняя полнота ответа составила лишь 23%.
Утверждения чат-бота не соответствовали контрольным данным в 126 из 484 ответов (26%), и были полностью противоречивыми в 16 из 484 случаев (чуть более 3%).
При оценке 20 ответов с низкой точностью или полнотой эксперты обнаружили, что только 54% соответствовали научному консенсусу. 39% противоречили научным данным, а для оставшихся 6% не было установленного научного мнения.
Возможный вред от следования рекомендациям чат-бота был оценен как очень вероятный в 3% случаев и умеренно вероятный в 29% случаев. В 22% случаев потенциальный вред мог привести к смерти или серьёзному ущербу здоровью.
Выводы исследователей
Исследователи признают, что их работа не основывалась на реальном опыте пациентов и что вопросы, заданные на других языках или из других стран, могут повлиять на качество ответов бота.
«В этом исследовании мы обнаружили, что поисковые системы с ИИ-чат-ботами в целом предоставляют полные и точные ответы на вопросы пациентов», — пишут они. «Однако ответы чат-ботов были в основном сложны для понимания и часто содержали недостаточную информацию или неточности, что может представлять угрозу для безопасности пациентов и правильного использования лекарств».
Основным недостатком была неспособность чат-бота понять истинный замысел вопроса пациента, предполагают исследователи.
«Несмотря на их потенциал, пациентам по-прежнему важно консультироваться со своими медицинскими специалистами, так как чат-боты могут не всегда предоставлять безошибочную информацию. Рекомендуется проявлять осторожность при использовании поисковых систем на основе ИИ до тех пор, пока не будут доступны системы с более высокой точностью», — заключили специалисты.
Ещё по теме:
- Фанаты перенесли легендарный DOOM прямо внутрь Telegram
- Pocket Necromancer – сумасбродная ролевая игра, в которой вы руководите нежитью, стала доступна на Android и iOS
- Австралийский режиссёр обвинил Маска в клонировании роботов и беспилотных автомобилей из фильма «Я, робот»