Трагедия в США высветила страшную сторону автоматизированных решений: бездушный алгоритм, игнорирующий мнение врачей, и система здравоохранения, поставившая прибыль выше человеческой жизни.
В сердце Манхэттена произошло громкое преступление: глава крупной американской страховой компании UnitedHealthcare, Брайан Томпсон, был застрелен прямо на улице. Но этот шокирующий акт насилия — лишь верхушка айсберга. На гильзах, оставленных убийцей, были выгравированы три слова: «deny, defend, depose» («откажи, защити, свергни»). Эти слова указывают на гораздо более глубокую проблему, связанную с применением алгоритмов в современной медицине.
Предприятие Томпсона, оборот которого составляет $280 млрд, было вовлечено в ряд конфликтных ситуаций, включая антимонопольные расследования. В начале этого года компанию также обвинили в отказе от реабилитационной помощи тяжелобольным пациентам.
Согласно расследованию, UnitedHealthcare использовала «медицинский алгоритм» под названием nH Predict для определения того, кто получит помощь, а кто останется без неё.
На бумаге ИИ должен был повышать эффективность и оптимизировать затраты страховой. Но на практике оказалось, что алгоритм с 90%-ным процентом «ошибок» систематически игнорировал мнение врачей, отказывая в жизненно важной реабилитации тяжело больным пациентам. Ещё более тревожно то, что в компании знали о проблеме, но продолжали использовать этот инструмент.
Семьи пациентов, которым было отказано в лечении, подали иски, утверждая, что алгоритм послужил причиной смерти их близких. Технология, призванная помочь врачам, превратилась в безжалостного «судью» человеческих судеб.
Если для понимания убийства вам нужны орудие, мотив и преступник, то у нас уже есть почти всё (включая фотографию вероятного убийцы). Что касается мотива, то, как сообщает The American Prospect, у 50 миллионов клиентов могли быть причины для недовольства UnitedHealthcare. 50 миллионов потенциальных убийц и одновременно 50 миллионов жертв.
Вот почему неожиданно бурная реакция общественности свидетельствует о глубоком кризисе доверия к американской системе здравоохранения. Три слова на гильзах рассказывают историю системного разочарования, когда технологии используются как прикрытие для принятия решений, безжалостно влияющих на жизнь людей.
Многие пользователи в социальных сетях выразили даже не сочувствие, а своеобразное мрачное удовлетворение, считая убийство крайней формой протеста против системы, ставящей выгоду выше жизней людей. Среди 50 миллионов клиентов компании, которые могли столкнуться с подобными отказами, немало тех, кто озлоблен и разочарован её работой.
Алгоритм в здравоохранении может обрабатывать огромные объёмы данных и потенциально повышать эффективность системы. Но случай с UnitedHealthcare также демонстрирует огромную опасность полного делегирования принятия медицинских решений автоматике.
Эта ситуация поднимает фундаментальные вопросы о будущем здравоохранения. Как использовать ИИ во благо пациентов, а не в ущерб? Технология способна повысить эффективность и точность, но без жёсткого контроля и чётких этических норм она рискует превратиться в орудие подавления человеческих потребностей. Пример nH Predict ясно показывает, к чему может привести отсутствие должного надзора и прозрачности: безжалостное «ускорение» принятия решений, подчинённое бизнес-логике и статистике, а не реальным медицинским показаниям.
Чтобы избежать повторения подобной трагедии, необходимо переосмыслить роль ИИ в медицине. Принципы морали, профессиональной этики и эмпатии должны стать обязательными критериями при внедрении новых технологий. Только так можно гарантировать, что в будущем здравоохранение останется не просто подсчётом издержек и выгод, но останется направленным на спасение и улучшение человеческих жизней.
Ещё по теме:
- В Google разработали ИИ-модель, предсказывающую погоду точнее всех конкурентов в мире
- Англичанин сузил круг поиска своего жёсткого диска с биткоинами на котором хранится $771 млн
- На Apple TV+ выйдет сюрреалистичная семейная комедия с Дэвидом Ойелоуо Government Cheese