Французская Mistral представила Devstral 2 — новое семейство моделей для задач программной инженерии, рассчитанных на работу в режиме «агента» (когда ИИ не просто пишет фрагменты кода, а умеет ориентироваться в репозитории и вносить правки сразу в несколько файлов). Одновременно компания выпустила Mistral Vibe CLI – нативного помощника для терминала, который подключает Devstral к инструментам разработки и автоматизирует типовые инженерные сценарии.
В линейке две модели: Devstral 2 на 123 млрд параметров и Devstral Small 2 на 24 млрд параметров. Обе поддерживают контекст до 256K токенов, то есть могут держать «в голове» существенно больше кода и сопутствующих файлов за один прогон.
По данным разработчиков, Devstral 2 набирает 72,2% на SWE-bench Verified (популярном бенчмарке, который проверяет, насколько модель справляется с реальными задачами исправления/доработки в репозиториях). Devstral Small 2, в свою очередь, показывает 68,0% на том же тесте и позиционируется как сильный вариант «локального» класса – вплоть до запуска на потребительском железе.
Отдельный акцент сделан на лицензировании, где «открытость» у моделей разная. Devstral Small 2 распространяется по лицензии Apache 2.0 без ограничений по выручке – это удобный для бизнеса формат, допускающий коммерческое использование и модификации. А флагманская Devstral 2 опубликована под «модифицированной MIT-лицензией»: в ней прописано, что организации с консолидированной выручкой свыше $20 млн в месяц не могут использовать модель (включая производные и дообученные версии) без отдельной коммерческой лицензии от Mistral.
Важная деталь для тех, кто смотрит на продуктовую экономику: Devstral 2 сейчас доступна бесплатно через Mistral API, но после бесплатного периода компания планирует тарификацию $0,40 за миллион входных токенов и $2,00 за миллион выходных. Для Devstral Small 2 заявлены $0,10 за миллион входных токенов и $0,30 за миллион выходных. Отдельно Mistral утверждает, что Devstral 2 может быть до 7 раз более экономичной по стоимости в реальных задачах по сравнению с Claude Sonnet.
Контекст релиза укладывается в общую линию Mistral на «open-weight» модели и инструменты для разработчиков – от более ранних экспериментов с LLM до нынешнего упора на агентные сценарии и локальный запуск там, где это критично для приватности и соответствия требованиям.