Nvidia показала на конференции GTC новую технологию Neural Texture Compression (NTC). В тестовой сцене с тосканской виллой потребление видеопамяти упало с 6,5 ГБ до 970 МБ — при этом картинка визуально неотличима от оригинала.
Обычное блочное сжатие давно используется в играх, но у него есть предел. NTC идёт дальше: вместо стандартного алгоритма текстуры распаковывает небольшая нейросеть, обученная именно на этом наборе данных. Никакой генерации — только точное воспроизведение того, что уже есть.
В другом демо шлем лётчика с 272 МБ текстур сжался до 11,37 МБ. Это в 24 раза меньше оригинала.
Nvidia также представила Neural Materials — ту же идею, но для материалов поверхностей. Обычно GPU считает взаимодействие света с несколькими слоями текстур одновременно — это дорогостоящие вычисления. Нейросеть просто запоминает результат заранее и отвечает мгновенно. В демо это дало прирост скорости рендеринга до 7,7 раза на разрешении 1080p.
Ключевое преимущество: NTC работает на тензорных ядрах GPU — отдельном блоке железа, который в обычных задачах простаивает. У Nvidia это Tensor Cores, у Intel — XMX, у AMD — AI Accelerators. Именно там живут DLSS, FSR и XeSS. То есть базовая производительность не страдает.
Технология не является эксклюзивом Nvidia. Microsoft стандартизировала её как «Cooperative Vectors» в DirectX, Intel уже показывала собственные демо, AMD тоже движется в этом направлении.
Пока ни одна игра не поддерживает Cooperative Vectors или NTC. Текстуры — это крупнейший потребитель видеопамяти в любой игре, и барьер для внедрения технологии уже снят: Microsoft закрепила стандарт в DirectX.