ИИ научился решать задачи по Олимпиаде и начал помогать учёным в реальных исследованиях

Модели помогают проверять идеи и находить слабые места в доказательствах

2 мин.
ИИ научился решать задачи по Олимпиаде и начал помогать учёным в реальных исследованиях

К середине 2025 года системы ИИ вышли на уровень, при котором начали решать сложные математические задачи и участвовать в реальных научных исследованиях. Переломным моментом стало лето, когда несколько моделей справились с 5 из 6 заданий на Международной математической олимпиаде.

Олимпиадные задачи требуют не только техники, но и умения находить неожиданные ходы, видеть скрытые структуры и действовать нестандартно. Скорость, с которой ИИ добрался до этого уровня, стала сюрпризом даже для скептиков.
После этого эпизода исследователи перестали воспринимать его как игрушку и начали активно подключать к реальным задачам. Олимпиадный формат при этом сильно отличается от научной работы, где ответ не задан заранее и его ещё нужно найти.

К началу 2026 года стало ясно, что модели способны не только решать головоломки, но и ускорять научный процесс. На конкурсе First Proof участникам предложили 10 исследовательских задач, специально подобранных так, чтобы они не встречались в обучающих данных. За неделю системы справились больше, чем с половиной, и для отрасли это выглядело как быстрый переход от уровня студента к чему-то гораздо более зрелому.

Главный эффект оказался не в том, что ИИ стал универсальным решателем, а в том, что у математиков появился инструмент для ускоренного перебора гипотез. Модели помогают проверять идеи, находить слабые места в доказательствах и иногда подсказывают неожиданные направления, на которые у человека ушло бы значительно больше времени.

Теренс Тао, математик и лауреат Филдсовской премии, говорит, что 2025 год стал моментом, когда ИИ начал приносить реальную пользу в широком спектре задач. По его оценке, меняется сама логика работы, и вместо последовательного решения одной задачи появляется возможность одновременно анализировать целые группы похожих проблем. Модели при этом продолжают регулярно ошибаться, иногда на самых простых шагах, и могут разрушить корректное доказательство из-за элементарной неточности. Поэтому ИИ воспринимается не как безошибочный инструмент, а как собеседник, с которым можно спорить и извлекать полезные идеи даже из неудачных ответов.

Йоханнес Шмитт из ETH Zurich отмечает, что ценность таких систем выросла именно тогда, когда с ними стало возможно вести осмысленный диалог по задаче.

Отдельного внимания заслужила система AlphaEvolve от DeepMind, которая использует модель Gemini для генерации кода на Python и перебирает варианты решений с помощью эволюционных алгоритмов. Команда Теренса Тао и Хавьера Гомеса-Серрано протестировала AlphaEvolve на 67 задачах из разных областей. В 23 случаях система улучшила существующие результаты, в 36 достигла уже известного уровня, а задачи, на которые раньше уходили месяцы, иногда решались за 1-2 дня.
Показательной стала история Эрнеста Рю из UCLA, который изучает методы оптимизации и занимался доказательством для алгоритма, предложенного Юрием Нестеровым ещё в 1983 году. Несмотря на десятилетия исследований, строгого подтверждения его сходимости не существовало.

Осенью 2025 года Рю начал разбирать задачу вместе с ChatGPT, модель регулярно ошибалась, но предлагала полезные промежуточные идеи. Он проверял каждый шаг, отбрасывал неверные варианты и возвращал в работу только корректные элементы. За несколько дней доказательство удалось завершить. Сам исследователь не называет результат революцией, но говорит, что процесс показывает, как ИИ постепенно становится частью научного инструментария и меняет привычный ритм работы в математике.

Мы в Telegram, на Дзен, в Google News и YouTube



ePN