Intel и Nvidia придумали как резко снизить прожорливость видеопамяти в играх с помощью нейросетей

Система работает с наборами текстур через встроенные ИИ-модели

1 мин.
Intel и Nvidia придумали как резко снизить прожорливость видеопамяти в играх с помощью нейросетей

Intel и Nvidia показали технологии нейросетевого сжатия текстур, которые резко сокращают потребление видеопамяти без видимой потери качества картинки. Intel ужимает данные до 18 раз по сравнению с классическими алгоритмами, Nvidia в своей демонстрации сократила расход памяти с 6,5 ГБ до 970 МБ. Коммерческих игр с этими технологиями пока нет, но SDK уже доступны разработчикам.

Intel назвала свою разработку Texture Set Neural Compression, сокращённо TSNC. Система работает с наборами текстур через встроенные ИИ-модели. В максимальном режиме сжатия потери качества составляют около 7% — для игр это практически незаметно. Технология рассчитана на видеокарты с поддержкой XMX, в первую очередь линейку Arc B-Series и будущие платформы Panther Lake. SDK выйдет в этом году.

Nvidia представила Neural Texture Compression, или NTC, на конференции GTC 2026. Внутри компактные нейросети, которые кодируют и восстанавливают текстуры прямо на тензорных ядрах GPU. Представитель компании Алексей Бекин показал, как потребление памяти падает с 6,5 ГБ до 970 МБ — минус 85% без заметной деградации изображения. Бета-версия SDK уже доступна.

Технология Nvidia работает детерминированно, то есть одна и та же текстура воспроизводится одинаково каждый раз. Никаких странных артефактов и непредсказуемых результатов, которые иногда вылезают у генеративных моделей.

Обе системы построены на возможностях DirectX 12, а точнее на функции Cooperative Vectors в Shader Model 6.9. Этот механизм ускоряет операции машинного обучения прямо внутри графических шейдеров. В Microsoft называли подобные инструменты новой эпохой в графике — когда ИИ становится частью рендеринга, а не надстройкой над ним.

Nvidia при этом заявляет, что NTC работает не только на своих видеокартах, но и на решениях AMD и Intel. Если это подтвердится на практике и поддержка войдёт в будущие версии DirectX, технология может стать отраслевым стандартом.

В коммерческих играх ничего подобного пока нет, но логика очевидна — размеры игр и требования к видеопамяти растут, и разработчикам нужен способ держать это под контролем без ухудшения картинки.

Также Nvidia развивает смежное направление. Технология KVTC ускоряет обработку длинных диалогов в ИИ-системах до восьми раз и снижает потребление памяти до 20 раз. Это может изменить подход к игровым ассистентам и интерактивным персонажам в будущих проектах.

Мы в Telegram, на Дзен, в Google News и YouTube



ePN