Лауреаты Тьюринга призвали ИИ-компании не тестировать опасные технологии на людях

Ричард Саттон и Эндрю Барто о рисках коммерциализации технологий

2 мин.
Лауреаты Тьюринга призвали ИИ-компании не тестировать опасные технологии на людях

Ричард Саттон и Эндрю Барто, признанные пионеры обучения с подкреплением (RL) — метода машинного обучения, который лежит в основе современных ИИ-моделей — резко раскритиковали подход компаний OpenAI и Google к разработке искусственного интеллекта. Лауреаты премии Тьюринга 2024 года (называемой «Нобелевской премией в области вычислительной техники») заявили, что выпуск небезопасных ИИ-систем напрямую для пользователей противоречит принципам ответственной инженерии.

Критика «опасного» подхода

Саттон и Барто разработали метод обучения с подкреплением в 1980-х годах, вдохновляясь бихевиористской психологией. RL учит ИИ-агентов принимать оптимальные решения через пробы и ошибки, подобно тому, как учатся люди. Однако, по их мнению, компании используют эту технологию без должного понимания её рисков.

«Представьте, что вы строите мост и тут же открываете его для публики, чтобы проверить, выдержит ли он нагрузку. Это неразумно», — так учёные метафорически описали действия OpenAI, Google и других компаний, выпускающих ИИ-продукты без надёжных защитных механизмов.

Они подчеркнули, что современные ИИ-модели часто генерируют ошибочные «факты» с абсолютной уверенностью, а компании, стоящие за ними, тем временем привлекают миллиарды долларов инвестиций.

«Идея создания огромных дата-центров и монетизации доступа к ПО — не та мотивация, которую я бы поддержал», — заявил Барто.

ChatGPT — машина для зарабатывания денег

Учёные также раскритиковали проекты, наподобие ChatGPT, назвав их инструментами для получения прибыли, а не шагом к созданию общего искусственного интеллекта (AGI). По их мнению, AGI — это маркетинговый термин, а не реальная технология.

«Компании, разрабатывающие ИИ, должны лучше понимать, как работает человеческий разум, прежде чем создавать системы с интеллектом, сравнимым с человеческим», — добавил Барто.

Саттон и Барто не просто теоретики — их работы легли в основу алгоритмов, которые сегодня используются в ИИ-моделях. Их критика подчёркивает растущую проблему: стремление к быстрой коммерциализации ИИ-технологий ставит под угрозу безопасность и этичность их применения.

Учёные призывают отрасль пересмотреть приоритеты. Вместо гонки за прибылью, по их мнению, компании должны сосредоточиться на минимизации рисков и глубоком изучении механизмов человеческого мышления.


Ещё по теме:

Мы в Telegram, на Дзен, в Google News и YouTube