DeepSeek V4: финальная репетиция перед главной премьерой

Компания тестирует новую модель с расширенным контекстом до 1 млн токенов

3 мин.
DeepSeek V4: финальная репетиция перед главной премьерой

DeepSeek запустила поэтапное тестирование модели следующего поколения. Некоторые пользователи уже получили 11 февраля предложение обновить приложение – новая версия увеличивает длину контекста со 128 тысяч до 1 миллиона токенов, а база знаний обновлена до мая 2025 года. В официальном приложении указывается, что это, возможно, финальная тестовая версия перед официальным дебютом V4.

Аналитики Nomura Securities подчёркивают: главная ценность V4 заключается в стимулировании коммерческого внедрения ИИ-приложений за счёт фундаментальных архитектурных инноваций, а не в разрушении существующей цепочки создания стоимости в сфере искусственного интеллекта.

Тестовая модель: не V4, но близко к ней

DeepSeek активно продвигает серое тестирование новой версии, которая может стать финальной перед официальным запуском V4. После обновления приложения до версии 1.7.4 пользователи получают доступ к новейшей модели компании. Тесты показали: в ответах на вопросы DeepSeek указала, что текущая версия, вероятно, не является V4, а скорее представляет собой конечную эволюционную форму серии V3 или финальную тестовую версию перед официальным релизом V4.

Nomura Securities в отчёте заявила: запуск модели DeepSeek V4, ожидаемый в середине февраля 2026 года, не вызовет глобальной паники на рынке вычислительных мощностей для ИИ, которую спровоцировал релиз V3 в прошлом году. Аналитики убеждены, что ключевое значение V4 – в продвижении коммерциализации ИИ-приложений через фундаментальные архитектурные инновации, а не в разрушении существующей цепочки создания стоимости.

Согласно оценкам, способность новой версии справляться со сложными задачами сравнялась с ведущими проприетарными моделями, такими как Gemini 3 Pro и K2.5. Nomura также отмечает: V4 должна представить две инновационные технологии – mHC и Engram, которые на алгоритмическом и инженерном уровнях преодолевают узкие места вычислительных чипов и памяти. Предварительные внутренние тесты демонстрируют, что производительность V4 в задачах программирования превосходит модели Anthropic Claude и линейку GPT от OpenAI того же поколения.

Ключевое значение этого релиза — дальнейшее сжатие затрат на обучение и вывод, что обеспечивает реальный путь для глобальных компаний, работающих с большими языковыми моделями и ИИ-приложениями, к снижению давления капитальных расходов.

Инновационная архитектура против аппаратных узких мест

Отчёт Nomura Securities указывает: ограничения производительности вычислительных чипов и памяти HBM всегда были жёсткими барьерами, которые индустрия больших языковых моделей не может обойти. Архитектуры mHC (Hyper-Connectivity and Manifold-Constrained Hyper-Connectivity) и Engram, которые будут представлены в грядущей V4, разработаны для системной оптимизации этих недостатков как на этапе обучения, так и при выводе.

mHC – полное название Manifold Constrained Hyper-Connection. Технология призвана устранить узкое место информационных потоков и нестабильность обучения в моделях-трансформерах при экстремальной глубине. Простыми словами, она обогащает и делает более гибким «диалог» между слоями нейронной сети, одновременно предотвращая усиление или разрушение информации с помощью строгих математических «ограждений». Эксперименты показали: модели с использованием mHC лучше справляются с задачами вроде математических рассуждений.

Engram — это модуль «условной памяти». Концепция дизайна заключается в разделении «памяти» и «вычислений». Статические знания в модели – такие как сущности и фиксированные выражения – хранятся в специальной разреженной таблице памяти, которая может размещаться в недорогой DRAM. При необходимости вывода выполняется быстрый поиск. Это освобождает дорогую память GPU (HBM), позволяя ей сосредоточиться на динамических вычислениях.

Технология mHC смягчает разрыв поколений чипов в пропускной способности соединений и плотности вычислений за счёт повышения стабильности обучения и эффективности сходимости. Архитектура Engram фокусируется на реконструкции механизмов планирования памяти, преодолевая ограничения ёмкости и пропускной способности видеопамяти более эффективными стратегиями доступа в условиях ограниченного предложения HBM. Nomura считает: эти две инновации вместе формируют адаптационное решение, заточенное под отечественную аппаратную экосистему, демонстрируя чёткую ценность инженерной реализации.

Эксперты отмечают: самое прямое коммерческое воздействие релиза V4 – существенное снижение затрат на обучение и вывод. Оптимизация на стороне затрат эффективно стимулирует спрос со стороны приложений, тем самым запуская новый цикл строительства ИИ-инфраструктуры. В этом процессе китайские производители оборудования для ИИ могут выиграть от роста спроса и опережающих инвестиций.

Рынок: от монополии к многополярности

Отчёт Nomura рассматривает изменения рыночного ландшафта через год после релиза DeepSeek-V3/R1. К концу 2024 года две модели DeepSeek занимали более половины использования токенов среди открытых моделей на платформе OpenRouter.

Однако во второй половине 2025 года с появлением большего количества игроков доля рынка компании значительно снизилась. Рынок перешёл от ситуации «доминирования одного» к картине «соперничества многих». Конкурентная среда, с которой столкнётся V4, гораздо сложнее, чем год назад. Комбинация «управления вычислительной эффективностью» и «повышения производительности» от DeepSeek ускорила развитие больших языковых моделей и приложений в Китае, а также изменила глобальный конкурентный ландшафт и усилила внимание к открытым моделям.

Программные компании получают шанс на рост стоимости

Nomura убеждена: крупнейшие мировые облачные провайдеры полностью привержены достижению общего искусственного интеллекта (AGI), и гонка капитальных затрат далека от завершения. Поэтому не ожидается, что V4 создаст такой же уровень воздействия на глобальный рынок ИИ-инфраструктуры, как это было в прошлом году.

Однако глобальные разработчики больших моделей и их приложений сталкиваются с всё более тяжёлым бременем капитальных расходов. Если V4 сможет значительно снизить затраты на обучение и вывод при сохранении высокой производительности, это поможет этим предприятиям быстрее конвертировать технологии в доходы, снижая давление на рентабельность.

На стороне приложений более мощная и эффективная V4 породит более сильных ИИ-агентов. В отчёте отмечается: приложения вроде Tongyi Qianwen App от AliCloud уже способны выполнять многошаговые задачи более автоматизированным образом. ИИ-агенты переходят от роли «инструментов для диалога» к «ИИ-помощникам», способным решать сложные задачи.​

Эти мультизадачные агенты потребуют более частого взаимодействия с базовыми большими моделями, потребляя больше токенов и тем самым увеличивая вычислительный спрос. Таким образом, повышение эффективности моделей не «убьёт программное обеспечение», а напротив, создаст ценность для ведущих софтверных компаний. В Nomura подчёркивают важность сосредоточения на программных компаниях, которые смогут первыми использовать возможности моделей следующего поколения для создания прорывных ИИ-нативных приложений или агентов. Их потенциал роста может быть дополнительно повышен благодаря скачкам в возможностях моделей.

Мы в Telegram, на Дзен, в Google News и YouTube



ePN