Ричард Саттон и Эндрю Барто, признанные пионеры обучения с подкреплением (RL) — метода машинного обучения, который лежит в основе современных ИИ-моделей — резко раскритиковали подход компаний OpenAI и Google к разработке искусственного интеллекта. Лауреаты премии Тьюринга 2024 года (называемой «Нобелевской премией в области вычислительной техники») заявили, что выпуск небезопасных ИИ-систем напрямую для пользователей противоречит принципам ответственной инженерии.
Критика «опасного» подхода
Саттон и Барто разработали метод обучения с подкреплением в 1980-х годах, вдохновляясь бихевиористской психологией. RL учит ИИ-агентов принимать оптимальные решения через пробы и ошибки, подобно тому, как учатся люди. Однако, по их мнению, компании используют эту технологию без должного понимания её рисков.
«Представьте, что вы строите мост и тут же открываете его для публики, чтобы проверить, выдержит ли он нагрузку. Это неразумно», — так учёные метафорически описали действия OpenAI, Google и других компаний, выпускающих ИИ-продукты без надёжных защитных механизмов.
Они подчеркнули, что современные ИИ-модели часто генерируют ошибочные «факты» с абсолютной уверенностью, а компании, стоящие за ними, тем временем привлекают миллиарды долларов инвестиций.
«Идея создания огромных дата-центров и монетизации доступа к ПО — не та мотивация, которую я бы поддержал», — заявил Барто.

ChatGPT — машина для зарабатывания денег
Учёные также раскритиковали проекты, наподобие ChatGPT, назвав их инструментами для получения прибыли, а не шагом к созданию общего искусственного интеллекта (AGI). По их мнению, AGI — это маркетинговый термин, а не реальная технология.
«Компании, разрабатывающие ИИ, должны лучше понимать, как работает человеческий разум, прежде чем создавать системы с интеллектом, сравнимым с человеческим», — добавил Барто.
Саттон и Барто не просто теоретики — их работы легли в основу алгоритмов, которые сегодня используются в ИИ-моделях. Их критика подчёркивает растущую проблему: стремление к быстрой коммерциализации ИИ-технологий ставит под угрозу безопасность и этичность их применения.
Учёные призывают отрасль пересмотреть приоритеты. Вместо гонки за прибылью, по их мнению, компании должны сосредоточиться на минимизации рисков и глубоком изучении механизмов человеческого мышления.
Ещё по теме:
- ChatGPT научился редактировать код в Xcode и VS Code на macOS
- Бразильский суд потребовал от Apple разрешить альтернативные магазины приложений в течение 90 дней
- В сети появились первые результаты бенчмарка M3 Ultra