Может ли искусственный интеллект предсказывать наши решения прежде, чем мы сами осознаём их? Учёные Leverhulme Center for the Future of Intelligence при Кембриджском университете говорят: да, и это открывает путь к созданию целого «рынка намерений». Если раньше компании монетизировали наше внимание, то теперь наступает эпоха, в которой на продажу выставляются наши ещё не оформившиеся желания.
Как это работает
Современные ИИ-модели, способные «угадывать» нашу речь и поведение, постепенно приближаются к тому, чтобы анализировать скрытые мотивы и делать выводы о возможных решениях человека. Это может касаться не только покупок, но и политических предпочтений, личных отношений и даже выбора будущего места жительства.
«Программы, которые сегодня присылают вам подсказки о заказе еды или покупке билетов, завтра смогут "считывать" эмоциональные сигналы, улавливая момент зарождения желания», — поясняет доктор Якуб Чаудари, один из авторов исследования.
Иными словами, ИИ переходит от анализа фактических действий пользователя к «отслеживанию» самого процесса принятия решений.
Риски и последствия
По мнению экспертов, если развитие таких технологий останется без надлежащего контроля, «экономика намерений» может вызвать серьёзные социальные и политические проблемы. Так, крупные корпорации смогут, во-первых, предвосхищать желания граждан, а во-вторых, формировать или искажать их в нужном русле.
Исследователи вспоминают пример CICERO — ИИ от Meta*, который успешно играет в настольную игру Diplomacy, основанную на ведении переговоров и умении предугадывать шаги оппонента. Если система научилась считывать нюансы игрового взаимодействия, то насколько реалистично ей «манипулировать» и повседневными решениями пользователя?
Возможные пути регулирования
Специалисты подчёркивают, что в вопросе «продвинутых ИИ» ключевую роль должны играть принципы этики и прозрачности. Они призывают выработать ряд норм, которые уберегут общество от неконтролируемого сбора данных и злоупотребления ими:
- Информированное согласие: пользователи должны понимать, как и для чего их данные (особенно о намерениях) собираются и обрабатываются.
- Открытые стандарты: разработчики ИИ обязаны соблюдать прозрачные протоколы и отчитываться о методах «предиктивного анализа».
- Регуляция и надзор: необходимы независимые органы, способные оценивать, как именно компании используют полученную информацию о желаниях и намерениях.
Что дальше?
Доктор Джонни Пенн из Кембриджа говорит, что речь идёт не о полном запрете подобных технологий, а о поиске правильного баланса.
«ИИ может облегчить нам жизнь, ведь если система способна понять наше намерение заранее, она может вовремя предложить помощь или оптимизировать рутину», — отмечает он.
Однако общество должно получить механизмы, позволяющие контролировать, кто и как распоряжается этими данными.
Развитие «экономики намерений» уже идёт: Apple внедрила App Intents, позволяющие приложениям предугадывать действия пользователя; Shopify совершенствует чат-ботов для «извлечения» намерений из покупательского поведения; Meta* (Facebook*) экспериментирует с алгоритмами, которые могут «видеть» незримые желания пользователей.
Подводя итог
Сейчас человечество стоит на пороге новой эпохи, в которой сознание пользователя становится товаром, а границы между «личными желаниями» и «поведением под влиянием алгоритма» размываются.
Кембриджские учёные призывают к осмысленному подходу: нам нужны прозрачные правила и компетентные институты, чтобы «экономика намерений» не превратилась в инструмент манипуляции, а принесла реальные выгоды людям. Всё зависит от того, сможем ли мы вовремя осознать риски и найти способы управления этим феноменом — прежде чем алгоритмы начнут диктовать нам, чего мы хотим.
Ещё по теме: