硬刚老黄,intel让显存占用爆降18倍

相信在座的大伙儿都或多或少被 NVIDIA 抠门的显存配置恶心过。

例如 30 系的 RTX 3060Ti ,尤其是 G6X 版本,明明核心性能快都摸到了 3070,但是这俩的显存(8GB)却都还比不上小弟的 RTX 3060 12GB。
图片
40 系也是一样,RTX 4070Ti 明明是一张4K级别的显卡,但偏偏显存卡在了 12GB,让人如鲠在喉。
也就是性能够了,但显存容量不够,很多地方如果特效一高显存就爆掉了。
图片
想要性能和显存都满足,那不好意思:
图片
尽管玩家骂得很脏,但这么多年老黄还是没舍得在显存上多切多一点。
不过掏出了另外一样技术:Neural Texture Compression,简称NTC(神经纹理压缩)。
作用是让游戏的纹理贴图能占用的显存大幅降低。
图片
不熟的同学可以看下咱们之前的报道:
显存占用爆降85%!老黄终结了8GB显卡“斩杀线”
了解的同学知道,老黄向来讲究专卡专用。这个技术基本完全依赖 NVIDIA 的 Tensor Core 算力,所以老显卡基本是没啥希望了。
图片
不过,intel 表示不服,要出来碰一碰。
反手在 GDC 2026 上从裤兜里掏出了 Texture Set Neural Compression(纹理集神经压缩),简称 TSNC。
图片
目标和 NVIDIA 的 NTC 是一致的,也是降低显存的占用。
先上结论。
据 intel 自己介绍,在 Variant A(高质量模式)下,相较于传统纹理提供约 9 倍的压缩率。
图片
而在 Variant B(高压缩模式)下,可以提供高达 18 倍的下缩率,要知道NVIDIA 的 NTC 折合下来最高也才 15 倍。
图片
不过和 NVIDIA 不同,它的原理是过随机梯度下降训练一个小型神经网络,学习编码和解码给定数据集中的特定纹理。结果是一个紧凑的隐藏空间(Set)表示,微小多层感知器可以在运行时重建为原始的漫反射、法线、粗糙度、金属感、环境遮挡和发射数据。
图片
看不懂也没关系,简单解释下:
NVIDIA 的 NTC 几乎是把传统的「纹理采样」变成了「神经网络推断」。 它将纹理数据转化为一种高度抽象的 「学习型潜变量」。
也就是它不怎么依赖传统 BC1-BC7 的块压缩格式,更像是一种完全由 AI 定义的新格式。
图片
而 intel 这边的 TSNC 是把纹理最关键的信息存成一个极低分辨率的 BC1 格式,然后利用神经网络(3 层 MLP)去预测并填充那些丢失的细节。
更直白一点就是 NVIDIA 就是无中生有,intel 玩的是低清补全。
图片
所以在效果上 intel 也会打折扣,通过 NVIDIA 的 FLIP 分析工具测量在Variant A(高质量模式)下质量损失大约 5%,基本没有什么画质损失。
图片
而在 Variant B(高压缩模式)下损失大致在 7% 左右,虽然差距不大,但是牢英承认这时候的画质变化是可以被用户察觉到的,因为会出现 BC1 块压缩的伪影。
图片
但是哈,牢英最良心的一集来了。
TSNC 一开始就是解耦式的开发,拥有独立的 SDK,并不集成在 XeSS 当中。
还提供提供 C++/HLSL 接口,支持 DX12 Cooperative Vectors API。
这意味着不管你新显卡还是老显卡(GTX 10 系以后),是 NVIDIA、AMD 还是 intel 的显卡甚至是核心显卡,都能吃上 intel 的 TSNC。
图片
看到这可能有同学要说了,那这不是给别人做嫁衣了?
那倒也不是。
原理大伙儿都清楚了,既然有压缩,自然也有释放的解压路径,这样才有最终的画面嘛。
图片
在这点上,intel 给了两条:
FMA 路径(Fused Multiply-Add,通用回退路径),在通用着色器单元上运行。好处是兼容性极强,啥都能用。
XMX 路径(Xe Matrix Extensions,硬件加速路径),它可以调用intel显卡中的专门负责 AI 矩阵运算的硬件单元,也就是类似 NVIDIA 的 Tensor Core。
差距方面就是延迟,intel 使用核显 B390 在 1080p 情况下,FMA 路径为每像素每像素 0.661ns,XMX 路径:每像素 0.194ns
图片
也就是对比通用路径快了 3.4 倍,并且性能开销也会更低。
测试版本预计在今年下半年发布。
不管怎么说,有用的就行了。
看到这可能A卡用户坐不住了,AMD呢,有动作吗?
有,但不多。
早在 2024 年,AMD 就发布了神经块纹理压缩 NBTC(Neural Block Texture Compression)的研究论文。
图片
效果嘛…据 AMD 介绍,它同样使用神经网络对 PBR(基于物理的渲染)纹理集进行编码,其可以将纹理文件的体积减少 70%,差不多是减少 3.3 倍左右。和 intel 以及 NVIDIA 的相比还差得较远。
图片
并且也没有成熟的方案。
不过 AMD 用户也不用灰心。
微软在 GDC 2026 上推出了 DirectX Linear Algebra (DXLA)。
图片
这个 API 也就是专门为 AI 纹理压缩提供矩阵计算标准,以此来降低神经渲染的延迟。
如果把 NTC 和 TSNC 比作车,那 DXLA 就是路基。
路已经铺好了,AMD 的车造出来也是迟早的事儿。
图片
真正让阿红感到担忧的是,显存占用下去了,那入门级显卡 8GB 容量什么时候才能是个头啊?

数据素材来源:intel、NVIDIA、AMD,图源网络。


本文编辑:@ 阿红

©本文著作权归电手所有,未经电手许可,不得转载使用。