大核心和GDDR6显存
大核心有很多优点,例如散热好,布线方便。但有一个最大的缺点,良品率低。其原因是因为一块晶圆上切出的核心有限,大核心能切出的核心更少,而且其瑕疵几乎以伪平均出现时,大核心分到的瑕疵更多,自然报废的也更多。NVIDIA这次加大的核心面积,自然和其增加功能密不可分。
新的Quadro并没有继承Volta架构的HBM2显存,而是使用了三星最新量产的GDDR6颗粒,其中,RTX 8000使用2G颗粒,并达成了最高48G的容量,其正反使用了24个颗粒。
在三星的新闻稿中,GDDR6显存相比20nm的GDDR5容量翻倍,同时速度达到14Gbps,传输速度56GB/s,提升了75%速度。同时还降低了35%的功耗,GDDR6的电压仅需1.35V。
光线追踪
NVLINK
和目前其他的双卡技术不同,NVLINK的速度更快,即双卡之间的显存可以互相访问,基本可以认为两张卡可以算作为一张卡。传统的双卡技术则很难同步,在需要显示游戏时是以AB帧交替来渲染,如果一张卡渲染延迟稍高,那么性能就会有损失。
在新架构中,NVIDIA使用了统一内存,新的架构能直接访问CPU内存,提高了整体的能效,减少了数据传输带来的延迟。依靠NVlink,能实现CPU和GPU的缓存一致性。
NVlink的研发借由OpenPOWER Foundation,NVIDIA只是其中一员,NVlink的技术也非常开放,可以用于很多大规模高性能平台的互相桥接和连接,减少中间带来的损耗。
在大核心单芯片,目前工艺的瓶颈下,NVIDIA选择重回双卡是不得以而为止。据传NVIDIA已经将其下放到Geforce系列,以将性能提高为4K 60Fps的准4k水平。未来,NVlink很有可能替代GPU到CPU的连接。
深度学习和游戏结合(DLAA/辅助光线追踪)
从得到的一些消息来看,几日之后发布的Geforce系游戏级显卡仍将采用Turing架构,并保持较为完整的核心规模。这也意味着新的GTX2080系显卡将第一次带着深度学习上市,这也是目前消费级领域前所未有的。
Tensor core是NVIDIA在volta时加入的一种特定运算加速硬件,通过使用特有的API,能达到10倍以上神经网络性能。NVIDIA也没有公布Turing上深度学习核心的详细信息,但从参数上来看,相较GV100来说有所提高。
游戏级显卡内置深度学习模块并不是为了让你学习AI,然后让你的模型跑的更快,而是有其他的目的,NVIDIA在发布会上就提出了2个适用领域,即DLAA和光线追踪辅助。这两个技术的目的都是一致,通过AI的辅助,提升整卡的运行效率。
NVIDIA计划将这些AI辅助图像的功能打包为一个SDK,并进行整合,以方便开发者的调用。
在未来,深度学习AI和游戏实时渲染整合是大势所趋。4K像素和特效全开,很多游戏都不能达到60Fps,但如果你使用1080P或720P,甚至可以轻松达到CG级甚至电影级画质,在经过实时AI后处理之后,依然可以在少量损失下达到”假4K“级别的分辨率。到底是追求像素还是画面的冲击力,成为了每个厂商需要思考的问题。目前的单芯片已经达到了瓶颈,多芯片互联的高成本和优化问题下,减少渲染部分总体积,加大AI面积,已经成为大势所趋。
不过由于极高的成本,AI和光线追踪核心并不会普及到所有产品线,有可能仅在70和80系以上作为试水,待一轮更新之后,再加入其中低端游戏显卡。
本文首发于微信公众号:牛科技网。文章内容属作者个人观点,不代表和讯网立场。投资者据此操作,风险请自担。