Одной из главных проблем при локальном запуске искусственного интеллекта всегда оставалась производительность. Однако разработчики популярного приложения Ollama, предназначенного для работы с ИИ-моделями прямо на компьютере, выпустили масштабное обновление. Новая версия программы научилась задействовать MLX – собственный фреймворк машинного обучения от Apple. Это обеспечило серьёзный прирост скорости на компьютерах с чипами Apple Silicon.
Согласно данным авторов Ollama, обновлённая версия обрабатывает входящие запросы (prefill) примерно в 1,6 раза быстрее, а скорость генерации ответного текста (decode) увеличилась почти вдвое. Самый заметный скачок производительности зафиксирован на Mac с новейшими процессорами серии M5 – во многом благодаря интегрированным в них нейронным ускорителям графического процессора (GPU Neural Accelerators).
Помимо ускорения вычислений, апдейт принёс более «умную» систему управления памятью. На практике это значит, что встроенные чат-боты и инструменты для написания кода будут работать плавнее и быстрее реагировать на команды даже при длительных сессиях. В Ollama подчёркивают: нововведение в первую очередь оценят пользователи macOS, которые активно применяют персональных ИИ-помощников вроде OpenClaw или специализированных агентов для программирования – таких как Claude Code, OpenCode и Codex.
Оценить новые возможности можно уже сейчас – предварительная сборка доступна для скачивания под версией Ollama 0.19. Однако стоит учитывать высокие системные требования: для запуска понадобится Mac с объёмом объединённой памяти более 32 ГБ. Кроме того, на старте заявлена поддержка только одной языковой модели – Qwen3.5 от китайской корпорации Alibaba, но в ближайшем будущем разработчики обещают расширить этот список.