Новая граница ИИ: рынок человеческих намерений

Учёные из Кембриджа предупреждают о формирующейся экономике прогнозирования желаний

2 мин.
Новая граница ИИ: рынок человеческих намерений

Может ли искусственный интеллект предсказывать наши решения прежде, чем мы сами осознаём их? Учёные Leverhulme Center for the Future of Intelligence при Кембриджском университете говорят: да, и это открывает путь к созданию целого «рынка намерений». Если раньше компании монетизировали наше внимание, то теперь наступает эпоха, в которой на продажу выставляются наши ещё не оформившиеся желания.

Как это работает

Современные ИИ-модели, способные «угадывать» нашу речь и поведение, постепенно приближаются к тому, чтобы анализировать скрытые мотивы и делать выводы о возможных решениях человека. Это может касаться не только покупок, но и политических предпочтений, личных отношений и даже выбора будущего места жительства.

«Программы, которые сегодня присылают вам подсказки о заказе еды или покупке билетов, завтра смогут "считывать" эмоциональные сигналы, улавливая момент зарождения желания», — поясняет доктор Якуб Чаудари, один из авторов исследования.

Иными словами, ИИ переходит от анализа фактических действий пользователя к «отслеживанию» самого процесса принятия решений.

Риски и последствия

По мнению экспертов, если развитие таких технологий останется без надлежащего контроля, «экономика намерений» может вызвать серьёзные социальные и политические проблемы. Так, крупные корпорации смогут, во-первых, предвосхищать желания граждан, а во-вторых, формировать или искажать их в нужном русле.

Исследователи вспоминают пример CICERO — ИИ от Meta*, который успешно играет в настольную игру Diplomacy, основанную на ведении переговоров и умении предугадывать шаги оппонента. Если система научилась считывать нюансы игрового взаимодействия, то насколько реалистично ей «манипулировать» и повседневными решениями пользователя?

Возможные пути регулирования

Специалисты подчёркивают, что в вопросе «продвинутых ИИ» ключевую роль должны играть принципы этики и прозрачности. Они призывают выработать ряд норм, которые уберегут общество от неконтролируемого сбора данных и злоупотребления ими:

  1. Информированное согласие: пользователи должны понимать, как и для чего их данные (особенно о намерениях) собираются и обрабатываются.
  2. Открытые стандарты: разработчики ИИ обязаны соблюдать прозрачные протоколы и отчитываться о методах «предиктивного анализа».
  3. Регуляция и надзор: необходимы независимые органы, способные оценивать, как именно компании используют полученную информацию о желаниях и намерениях.

Что дальше?

Доктор Джонни Пенн из Кембриджа говорит, что речь идёт не о полном запрете подобных технологий, а о поиске правильного баланса.

«ИИ может облегчить нам жизнь, ведь если система способна понять наше намерение заранее, она может вовремя предложить помощь или оптимизировать рутину», — отмечает он.

Однако общество должно получить механизмы, позволяющие контролировать, кто и как распоряжается этими данными.

Развитие «экономики намерений» уже идёт: Apple внедрила App Intents, позволяющие приложениям предугадывать действия пользователя; Shopify совершенствует чат-ботов для «извлечения» намерений из покупательского поведения; Meta* (Facebook*) экспериментирует с алгоритмами, которые могут «видеть» незримые желания пользователей.

Подводя итог

Сейчас человечество стоит на пороге новой эпохи, в которой сознание пользователя становится товаром, а границы между «личными желаниями» и «поведением под влиянием алгоритма» размываются.

Кембриджские учёные призывают к осмысленному подходу: нам нужны прозрачные правила и компетентные институты, чтобы «экономика намерений» не превратилась в инструмент манипуляции, а принесла реальные выгоды людям. Всё зависит от того, сможем ли мы вовремя осознать риски и найти способы управления этим феноменом — прежде чем алгоритмы начнут диктовать нам, чего мы хотим.

*Компания Meta, а также принадлежащие ей соцсети Facebook и Instagram, признаны экстремистскими и запрещены на территории РФ.

Ещё по теме:

Мы в Telegram, на Дзен, в Google News и YouTube