ИИ с двойными стандартами дискредитирует пользователей по убеждениям

И практические примеры уже существуют

2 мин.
ИИ с двойными стандартами дискредитирует пользователей по убеждениям

Исследователи предупредили о рисках использования ИИ для скрытого воздействия на отдельных пользователей. По их данным, современные ИИ-системы способны по-разному отвечать людям не из-за формулировки запроса, а исходя из предполагаемой личности пользователя, его взглядов и социального профиля, что создаёт угрозы и для информационной безопасности, и для разработки программного кода.

ИИ ведёт себя не как нейтральный инструмент, а как собеседник с избирательной памятью и разным отношением к разным людям. В одном случае пользователь получает точные данные и корректные рекомендации. В другом — неточные факты, сомнительные советы и код с заложенными ошибками. Внешне запросы выглядят одинаково, но результат оказывается принципиально разным.

Когда интернет только формировался, он задумывался как пространство с равным доступом к информации. За последние 20 лет эта идея растворилась в персонализированных лентах, рекомендациях и алгоритмах подбора контента. 

По словам аналитиков, ИИ усиливает этот сдвиг. Он способен подстраивать ответы под конкретного человека, анализируя стиль речи, историю запросов, сетевые признаки и косвенные поведенческие сигналы. По мере внедрения таких систем в рабочие процессы и повседневную жизнь точность этого «прицеливания» лишь растёт.

Практические примеры уже существуют. Лаборатория сложных проблем Университета Вандербильта сообщала о деятельности китайской компании GoLaxy, которая применяла ИИ для информационного воздействия на аудиторию Тайваня и Гонконга. Контент формировался с учётом политического профиля целевых групп, а не по универсальному шаблону.

Показательный случай описала в ноябре компания CrowdStrike. Исследователи проверили, как одна из китайских моделей ИИ генерирует программный код для разных пользователей. Эксперты имитировали представителей групп, которые власти Китая относят к политически чувствительным, в том числе уйгуров, тибетцев и последователей движения Фалуньгун. При идентичных запросах модель выдавала для них код с заметно большим числом ошибок и уязвимостей, чем для остальных. Качество результата напрямую зависело от того, кем система считала собеседника.

И это лишь верхний слой проблемы. Авторы исследований считают, что подобные механизмы могут превратить ИИ в инструмент воздействия государств в так называемой «серой зоне», между мирным взаимодействием и открытым конфликтом. Модели способны незаметно подталкивать пользователей к нужным выводам, подсовывая определённые интерпретации, цифры и логические связки.

Отдельный риск связан с программным кодом. Через рекомендации ИИ в государственные или критически важные системы могут внедряться скрытые уязвимости. Формально это выглядит как обычная ошибка или неудачное решение, но на практике может иметь стратегические последствия. Самое опасное в том, что большинство пользователей в такой системе будут получать корректные ответы и не заметят подмены.

С искажениями столкнётся лишь узкий круг людей, представляющих политический, идеологический или стратегический интерес. В предельном сценарии централизованные ИИ-платформы смогут постепенно подталкивать несогласных к допустимым взглядам, не оставляя явных следов вмешательства и прямого давления.

Мы в Telegram, на Дзен, в Google News и YouTube



ePN