光线追踪核弹RTX 2080Ti/2080显卡首测:4K平均60帧

2018-09-19 22:13:34   来源:游民星空

  记得上一代GeForce 10的Pascal架构首发,也就是GTX 1080显卡发布,还是2016年的五月份,NVIDIA的游戏显卡换代从来没有哪次像这样让人等得望眼欲穿。一代显卡的正式服役周期通常是一年半,早在一年前坊间就不断爆出新显卡发布的时间,结果都是"狼来了"。于是各种猜测甚嚣尘上:"老黄在憋大招","A卡不给力",现在这些都不重要了,在全世界的玩家苦等了一年之后,狼真的来了。

  8月21日的科龙游戏展上,NVIDIA正式曝光了新一代游戏显卡的旗舰与准旗舰型号,真相让所有人都瞠目结舌,因为之前关于新显卡的一切猜测几乎都是错的,连型号名称也是如此。

  现在我们已经知道了,新旗舰叫做GeForce RTX 2080Ti,次旗舰为GeForce RTX 2080,而不是之前确信的GTX 1180,架构也不是之前认为板上钉钉的Volta,而是Turing。NVIDIA不但将系列名称直接升到GeForce 20,连自上古时代一直传承下来的游戏专属前缀GTX也舍弃了,取而代之的叫RTX。不过,笔者相信当你仔细了解完这款全新的架构之后,就丝毫不再感到惊奇了,因为与架构本身相比,这点儿名称上的变化实在是微不足道。


各家非公版GeForce RTX 2080Ti与2080显卡

  首先来说一下RTX的由来,R和T分别是光线追踪Ray Tracing的两个首字母,而X没猜错的话应该是代表Express。组合起来就是"高速光线追踪"意思,喻意从这一代开始NVIDIA显卡最重要的架构、功能革新。

  由于Turing架构所涉及的新技术较多,这方面的描述对于图形计算基础知识薄弱的玩家阅读起来会十分晦涩,所以笔者将尽可能地深入浅出,挑选对玩家日后游戏体验影响重大的变革加以详细描述。 觉得这部分枯燥的玩家可直接跳转到第N页游戏测试部分。

图灵的来龙去脉

  Turing架构其实并不是完全陌生的,去年NVIDIA发布了TITAN V时就预示了它的存在,只是这次NVIDIA换了一种方式来构建游戏产品线。

  按照以往习惯,几乎每一代旗舰游戏显卡都脱胎于该架构的首款TITAN,所以当去年Volta架构的TITAN V如约而至时,我们每个人都认为已经看到了未来的下一代80Ti游戏旗舰的长相。


TITAN V相比之前的TITAN显卡是更加脱离游戏的存在

  实际上TITAN V与初代基于Kepler的GeForce GTX Titan已经相去甚远,初代Titan的定位是一款万能显卡,既可作为游戏发烧友的旗舰游戏显卡,也为专业消费者提供全双精度浮点(FP64)计算能力。在TITAN V诞生之前,TITAN产品线几乎都是基于这种设计方法,一颗巨大的GPU核心是NVIDIA"高大全"设计思路的最好代表。

  而在Titan V上,NVIDIA再次扩展了大核心的上限。Volta最引人注目的则是其全新的专用处理模块——Tensor Core(张量计算核心),它与Volta的其他微架构改进,以及支持深度学习和HPC(高性能计算)的软件/框架集成在一起,形成有史以来最大的815mm²核心,使得该系列产品比任何时候都更接近工作站级。


第一巨核+HBM2显存意味着GV100注定与消费级无缘了


TITAN V核心GV100架构

  简单算一算就知道,TITAN V的GV100核心拥有5120个流处理器,与TITAN XP的GP102核心(3840个)相比增加了三分之一,但核心面积却增加了73%,再上工艺提升到了TSMC的16nmFFET提升到了12nmFFN,增加的晶体管比例更大。可见在GV100上增加了许多流处理器之外的新功能单元,还有一部分计算功能被分配给了专用单元以提高效率。

  但是追求高大全也是有代价的,较低的良率和高昂的成本,使在GV100上发展游戏消费级显卡会得不偿失,AMD的Fury就是一个典型的反例,所以今天RTX 2080Ti采用的Turing架构是由GV100为蓝本发展而来的消费级专属型号。


TU102芯片透视图,核心面积754mm²,整合186亿晶体管

新显卡的核心规格

  首先来看这次新发布的两款显卡规格,我们已经知道了作为旗舰的RTX 2080Ti采用TU-102核心,保持上一代的显卡与芯片的规则不变,准旗舰RTX 2080则使用规模小一圈的TU-104核心,它们都由TSMC的12nmFFN工艺制造。


GeForce RTX 2080Ti成为NVIDIA游戏显卡家族的新台柱

  TU102也由6个GPC构成,相比GV100每个GPC少了一组TPC,一共有36组TPC,72组SM,流处理器总数为4608个,ROPs总数为96个,纹理单元288个。以上都是传统的参数项目,不过Turing架构还加入了可以半精度计算与深度学习的张量计算核心Tensor Core以及专用于光线追踪的RT Core,此后显卡的主要核心功能单元项目又多了两个。其中Tensor Core为每个SM含8个,共576个,而RT core则每个SM含一个,与SM数量一致。

  此外TU-102每个SM还有2个双精度单元,共144个(有观点称双精度计算也是由CUDA完成,只是寄存器的使用逻辑不同)。双精度算力为单精度的1/32,但这无关紧要,除了科学计算以外,无论是游戏用的GeForce RTX 2080Ti还是专业绘图用的Quadro RTX 6000/8000,都对此项性能没有要求。


TU102核心架构

  说道Quadro,这里就必须强调一点,目前只有Quadro RTX 6000/8000才搭载了完整的TU-102核心,GeForce RTX2080Ti就像它的上代一样,进行了一定的削减,共减少了4个SM,流处理器总数为4352个,SM中包含或对应的其它单元也相应减少,显存位宽由384bit削减至352bit。略有遗憾,却符合惯例,毕竟消费级显卡是要控制成本和保证产量的,同时也预示着不久的将来NVIDIA有可能推出比RTX 2080Ti更高阶的旗舰?


作为准旗舰的RTX 2080使用TU104核心,与上一代GTX 1080习惯相同

  与TU-102一起发布的是TU-104核心,对应显卡为RTX 2080。前者拥有TU-102中所有新特性,包括RT Core、Tensor Core,以及对SM所做的架构改变。


TU104核心架构

  完整的TU-104同样有6个GPC,每个GPC包含4个TPC,全核一共有48个SM,3072个流处理器。Tensor Core与RT Core的配比都没变,所以很容易推算出分别为384个和48个。

全新的流处理器簇单元(SM)

  Turing架构采用了新的SM设计,该设计结合了早在去年Volta架构中就引入的许多特性。每个TPC包含两个SM,每个SM总共有64个FP32内核和64个INT32内核。相比之下,帕斯卡架构中每个TPC只有一个SM,每个SM 128个FP32内核,TPC的概念被架空了。TuringSM支持FP32和INT32操作的并行执行,独立线程调度类似于Volta GV100 GPU。

  SM被划分为四个处理块,每个处理块具有16个FP32核、16个INT32核、两个张量核、一个调度器和一个调度单元。每个块包括一个新的L0指令缓存和一个64 KB寄存器文件。四个处理块共享组合的96 kb L1数据高速缓存/共享存储器。传统的图形工作负载将96KB L1共享缓存划分为64KB的专用图形着色器缓存以及32KB的纹理缓存和寄存器溢出区域。计算工作负载可以将96 KB分成32 KB共享缓存+64 KB L1缓存,或者64 KB共享缓存+32 KB L1缓存。

  Turing实现了核心执行数据通道的主要更新。现代着色器工作负载通常具有诸如FADD或FMAD之类的FP算术指令与诸如用于寻址和获取数据的整数加法、用于处理结果的浮点比较或min/max等更简单的指令的混合。每当这些非FP数学指令中的一个运行时,ATAPACH就会闲置。Turing在每个CUDA核旁边添加第二个并行执行单元,该CUDA核与浮点数学并行执行这些指令。


对许多工作负载的分析显示,每100个浮点运算平均有36个整数运算。

  上图为整数管道与浮点指令的混合变化,但是一些现代应用程序中,通常会看到每100个浮点指令大约有36个额外的整数管道指令。将这些指令移到一个单独的管道上,就可以实现浮点的有效36%的额外吞吐量。

  Turing:SM中浮点和整数指令的并发执行

  Turing的SM还引入了一种新的统一架构,用于共享内存、L1和纹理缓存。这种统一的设计允许L1高速缓存利用资源,与Pascal相比,每TPC增加2倍的命中带宽,并且允许在共享内存分配没有使用所有共享内存容量时重新配置L1高速缓存以增大命中带宽。TuringL1的大小可以高达64KB,与每个SM共享内存分配的32KB相结合,或者它可以减少到32KB,允许将64KB的分配用于共享内存。Turing的L2缓存容量也有所增加。


新的共享缓存架构

  Turing SM新的L1数据缓存和共享内存子系统可显著提高性能,同时简化编程并减少达到或接近峰值应用程序性能所需的调优。将L1数据缓存与共享内存结合可以减少延迟,并提供比先前在Pascal 中使用的L1缓存实现更高的带宽。

深度学习单元Tensor Cores

  我们都知道Volta GV100中首次引入的张量核心Tensor Core,Turing架构中的张量核心是前者的增强版本。它设计增加了INT8和INT4精确模式来测算可接受的工作负载,FP16也完全支持这种工作负载的精确测算。

  在基于Turing的GeForce游戏核心中引入张量内核首次将实时深度学习引入游戏应用程序。Turing张量核心加速了NVIDIA NGX神经服务的基于AI的特性,增强了图形、渲染和其他类型的客户端应用程序的效率。NGX AI特性的示例包括深度学习超级采样(DLSS)、AI绘画、AI Super Rez和AI Slow-Mo。

  Turing张量核加速了神经网络训练和推理函数的核心矩阵乘法。Turing张量核特别擅长于推理计算,其中有用的相关信息可以通过基于给定输入的训练有素的深层神经网络(DNN)来推断和传递。推理的例子包括识别Facebook照片中朋友的图像,识别和分类自驾车中不同类型的汽车、行人和道路危险,实时翻译人类语言,以及在线零售中创建个性化的用户建议,以及社交媒体系统。

  TU102包含576个张量核心:每SM八个和每个SM内的每个处理块两个。每个张量核心可以执行多达64个浮点熔点乘加(FMA)操作,每个时钟周期使用FP16输入。SM中的八个张量核每个时钟周期总共执行512次FP16相乘和相加操作,或者执行1024次总FP操作。新的INT8精度模式以双倍的速率运行,每个时钟周期达到2048次整数运算。


Pascal和Turing张量核心配置之间的对比

首次应用GDDR6显存

  显存子系统性能对应用加速至关重要。Turing改进主显存、缓存和压缩架构,以增加显存带宽并减少访问延迟。改进和增强的GPU计算特性有助于加速游戏和许多计算密集型应用程序和算法。新的显示和视频编码/解码特性支持更高分辨率和能够HDR的显示器、更先进的VR显示器、在数据中心中增加视频流需求、8K视频制作和其他视频相关应用。

  GDDR6内存子系统

  随着显示分辨率的不断增加,着色器功能和渲染技术变得更加复杂,显存带宽和容量大小在GPU性能中起到了更大的作用。为了保持尽可能高的帧速率和计算速度,GPU不仅需要更多的内存带宽,还需要大容量的内存来维持连续计算性能。

  NVIDIA与存储产业紧密合作,两年前开发出世界上第一个GDDR5X显存的GPU:GP-104,紧接着又第一个开发出使用HBM2显存的GV-100。现在Turing再次成为首个使用GDDR6显卡的架构。

  GDDR6是高带宽显存设计的最新进展。通过许多高速SerDes和RF技术的增强,Turing中的GDDR6显存接口电路已经完全重新设计,以实现速度、功率效率和噪声降低。这种新的接口设计带来了许多新的电路和信号训练改进,最大限度地减少由于工艺、温度和电源电压引起的噪声和变化。使用广泛的时钟门控来最小化低利用率期间的功耗,从而显著地提高了整体功率效率。Turing的GDDR6内存子系统目前可实现14Gbps的速率,相对使用GDDR5X显存的Pascal架构还有20%的功耗改善。

  实现这种速度增长需要端到端的优化,为了满足更高的速度要求,NVIDIA特别设计了Turing的封装和布线,将信号串扰减少40%——这是大存储系统中最严重的不稳定因素之一。


GDDR6的电荷分布图,可以看到高速运行下溢出极少,信号十分清晰

  为了实现14Gbps的速度,存储器子系统的每个方面也都经过精心设计,以满足这种高频操作所需的苛刻标准。设计中的每一个信号都被仔细地优化以尽可能建立最干净的显存控制器连接。

VirtualLink与NVLink

  在今天的PC上使用VR设备需要在头盔和系统之间连接多个电线;从显卡向头盔中的两个显示器发送图像数据的显示电缆;为头盔供电的电缆;以及传输位置传感器数据的USB连接。电缆的数量对于终端用户来说是很不舒服的,这会限制了他们在戴着耳机时四处走动的能力。

  为了解决这个问题,NVIDIA将其中一个视讯输出端口设计为USB-C并得到SudialLink的硬件支持,叫做VirtualLink。VirtualLink能将VR头盔的供电、显示和回传数据整合到一个USB-C连接上。

  Turing 引入的 USB-C 输出可以支持 HBR3 四信道 DP 支持或者 HBR3 双信道 DP+ 双信道 SuperSpeed USB3 支持。

  而 VirtualLink 则跟进一步,在提供 HBR3 四信道 DP 的同时还支持 SuperSpeed USB 3 用于传输反馈控制信号。

  USB-C 和 VirtualLink 都能为头盔供电,其中 USB-C 提供了 100 瓦的可选供电支持,而 VirtualLink 则是强制 5 瓦、可选 27瓦。

  如果头盔的耗电在 27 瓦内,使用一根 VirtualLink 就能满足包括供电、显示、控制反馈,比目前的三根线要简单多了,而它的接口同样是 USB-C。

  目前 VirtualLink 获得了 NVIDIA、AMD、微软、Oculus、Valve 的支持,但是 VR 头盔的重要厂商 HTC 并不在列。

  NVLINK IMPROVES SLI

  SLI 是 NVIDIA 在 2004 年的时候推出的多卡并行渲染技术,它可以让不同的显卡一起渲染画面并合并输出,实现性能的提升。早期的 SLI 根据产品定位的不同,分为需要和不需要使用桥连接器两种,使用桥连接可以绕过 PCIE 总线实现更快的画面合成。

  但是现在 NVIDIA 已经把 SLI 定义为高端发烧级应用,像 GeForce GTX 1060 已经不再支持 SLI,GeForce GTX 1060 要实现多卡并行的话,需要游戏使用显式 MGPU 代码才能实现。

  所以,像 Pascal 或者说 GeForce 10 这一代显卡,只有 GP104、GP102 提供了 SLI 支持,它们都提供了 SLI 桥接用于提升 SLI 速度。

  GeForce 10 使用的 SLI 桥接器叫做 SLI HB,HB 即高带宽的意思,其带宽是像素时钟频率 0.65GHz 乘与 3 字节(RGB 各一个字节),合计约 1.95GiB/s 带宽。1.95GiB/s(15.6Gbps) 的带宽可以满足 4K 60Hz(12.54Gbps)输出使用,但是遇到更高分辨率例如 8K 或者 4K 高刷新率的时候就不够用。


源自Tesla的NVLink技术支持更高的传输带宽,用于高分辨率下的高刷新率

  TU-102和TU-104使用NVLink,而不是SLI GPU的MIO和PCIE接口到GPU数据传输。TU-102 GPU拥有两个x8第二代NVLink链路,TU104则拥有一个x8第二代NVLink链路。每个链路在两个GPU(50 Gb/s双向带宽)之间提供每方向25 Gb/s峰值带宽。TU-102中的两个链路在每个方向上提供50 Gb/s,或者双向100 Gb/s。支持具有NVLink的TurnGPU支持双路SLI,但不支持3路和4路SLI配置。

  但是就跟Pacal一样,Turing这一代也只有旗舰与准旗舰芯片支持NVLink,也就是说使用TU-106芯片的RTX 2070将不会拥有NVLink接口。关于RTX 2070的情况待到不久之后显卡上市时再为大家解析。

  与以前的SLI桥相比,新NVLink桥的带宽增加使得以前做不到的高端显示器应用成为可能。


隔单槽和隔双槽的NVLink桥接器

什么是光线追踪,什么又是实时光线追踪?

  自上世纪90年代以来,传统的3D渲染一直使用一种叫做光栅化的过程。整个过程简单地描述就是光栅引擎根据顶点渲染生成的三角形以人眼所接收到的二维画面来创建需要渲染的图像,接着将纹理数据按坐标铺入该图像中的三角形,得到完整的画面数据,再由ROPs将完整的画面数据填充到显示器上所看到的像素。

  光栅化技术多年来一直是实时渲染的常规技术,尤其是在游戏中。虽然今天许多光栅化场景看起来已经足够好了,可是基于光栅化的渲染局限性依然无法避免。例如,仅使用光栅化呈现反射和阴影需要对需多不同视角进行假设和分析。常见的情况是静态光图可能看起来是正确的,若某些东西移动,光栅化的阴影经常出现混淆和光泄漏,亦或者画面上任何物体的反射只能反射出屏幕上可见的物体。这些现象都有损于游戏体验的真实性,而且开发人员在光栅化的基础上重新编程修复这些BUG的代价很高。


光栅处理示意图

  光线跟踪技术长期以来被用于非实时绘制,它通过模拟光的物理行为来提供逼真的光照。光线跟踪通过跟踪光从观看者的眼睛穿过虚拟3D场景时将采取的路径来计算像素的颜色。当它穿越场景时,光可以从一个物体反射到另一个物体(引起反射),被物体阻挡(引起阴影),或者穿过透明或半透明物体(引起折射)。所有这些相互作用被组合以产生然后在屏幕上显示的像素的最终颜色。


光线追踪示意图

  这一种计算工作十分繁重的渲染技术,它真实地模拟场景及其对象的光照。能够实时地渲染物理上正确的反射、折射、阴影和间接照明。相比传统的光栅化渲染,光线追踪技术创造的景象更符合人眼和大脑接受的视觉逻辑,视神经本身就是依靠自然界的可见光反射来识别图像的。因而这项技术早就被应用在了图像渲染中,但非实时渲染,而是制作CG、电影。


NVIDIA光线追踪演示DEMO

  所以光线追踪与实时光线追踪是两个概念,制作CG时我们有一整天的时间去渲染一帧画面,但是在游戏中一帧画面只能耗时几十分之一秒,否则就会影响流畅度。在过去,GPU的算力远不足以使用单个核心对游戏进行实时光线跟踪,使这项并不陌生的技术一直无法应用在游戏中。于是需要30~90fps才能畅爽体验的游戏多年来一直依赖于快速的光栅化渲染,只能放弃电影般的逼真画面。


星球大战光线追踪渲染演示,完全分不出哪个是电影哪个是DEMO

  直到NVIDIA Turing架构问世,使通向游戏渲染技术殿堂的那条路头一次变得清晰起来。下

  面让大家再欣赏几幅加入实时光线追踪的游戏视觉体验。


《战地5》光线追踪关闭


《战地5》光线追踪开启


《古墓丽影:暗影》光线追踪关闭

图灵如何实现光线追踪

  NVIDIA在Turing架构的每个SM中新增RT Core是迈向实时光线追踪的关键,硬件加速是实现这一目标的唯一途径。


层层筛选,判断光线命中了哪个三角形

  为了更好地理解RT核的功能,以及它们究竟加速了什么,笔者首先解释如何在没有专用硬件光线追踪引擎的情况下用GPU或CPU执行光线追踪。基本上,BVH遍历的过程需要通过着色器操作来执行,并且每光线投射数以千计的指令槽来针对BVH中的边界框交点进行测试,直到最终命中三角形,并且交点处的颜色将被用于最终像素填充。或者如果没有三角形被击中,背景颜色可以用来填充这个像素,这样就做到了模拟现实世界中人眼的视觉原理——你只能看到反射光的物体。

  没有硬件加速的光线跟踪要求每条射线有数千个软件指令槽来测试BVH结构中的连续较小的边框,直到可能碰到一个三角形。这是一个海量计算的过程,使得在没有基于硬件的光线跟踪加速度的情况下,无法在GPU上进行实时处理,速度奇慢无比。

  Turing的RT内核可以处理所有的BVH遍历和射线-三角形相交测试,节省了SM在每条射线上花费数千个指令槽,这对于整个场景来说可能是大量的指令。RT核心包括两个专用你单元。第一个单元进行边框回归测试,第二个单元进行射线三角形相交测试。SM只需要启动一个广南县探测器,RT核进行BVH遍历和射线三角形测试,并向SM返回命中或不命中。于是SM可充分被释放来做其它图形计算工作。

  因此RT核的Turing光线跟踪性能比上一代Pascal依靠软程序实现的快得多。Turing可以在不同的工作负载下提供比Pascal更多的千兆射线/秒,比如Pascal大约花费1.1千兆射线/秒,或者10TFLOPS/千兆射线在软件中进行光线跟踪,而Turing可以使用RT Cores进行10+千兆射线/秒,并且运行速度要快10倍。

深度学习抗锯齿(DLSS)

  在现代游戏中,渲染帧不直接显示,而是经过后处理图像增强步骤,结合来自多个渲染帧的输入,试图去除视觉伪像,例如混叠,同时保持细节。例如,时间抗锯齿(TAA)是一种基于着色器的算法,该算法使用运动矢量结合两帧来确定在何处采样先前帧,这是当今使用的最常见的图像增强算法之一。然而,这种图像增强处理从根本上来说是非常困难的。

  诸如此类的图像分析和优化问题没有没有干脆利落的算法解决方案,唯有应用人工智能。正如图像处理案例,是深度学习的最大成功应用之一。现在,深度学习已经实现了超人的能力,能够通过观察图像中的原始像素来识别狗、猫、鸟等。在这种情况下,目标是结合渲染的图像,基于查看原始像素,以产生高质量的结果,不同的对象,但由近似的步骤完成。

  为解决这一挑战而开发的深度神经网络(DNN)被称为深度学习超级采样(DLSS)。DLSS从给定的一组输入样本中产生比TAA高得多的质量输出,并可以利用此能力来提高总体性能。尽管TAA在最终目标分辨率下进行渲染,减去细节,组合成每一帧,DLSS允许在较少的输入样本计数下进行更快的渲染,然后推断出在目标分辨率下与TAA相似的结果,仅需一半的着色工作。


4K DLSS的TRAIN是4K TAA Pascal的两倍性能。

  以上为虚幻4引擎的《渗透者》DEMO测试,DLSS提供了与TAA相似的图像质量,性能大大提高。RTX 2080 Ti本身的强大渲染性能,加上Tensor Core进行DLSS操作带来的性能提升,使4K分辨率下RTX 2080 Ti达到GTX 1080 Ti性能的2倍。

  这个结果的关键在于DLSS的学习过程,DLSS有机会学习如何基于大量超高质量的采样产生应有的画面输出。64x超级采样意味不是对每个像素进行一次着色,而是在像素内以64个不同的偏移进行着色,然后组合输出,产生具有理想细节和抗锯齿质量的结果图像。接下来,DLSS还可以学习来匹配64xSS输出帧,通过遍历每个输入,要求DLSS产生一个输出,测量其输出和64xSS目标之间的差异,并根据这些差异调整网络中的权重。在多次重复之后,DLSS自己学习以产生接近64xSS质量的结果,同时学习避免影响经典抗锯齿(如TAA)的模糊、去遮挡和透明性的问题。


DLSS 2X与64×SS图像效果几乎不可区分

  除了以上描述的标准DLSS模式,还有第二种模式,称为DLSS 2x。在这种情况下,DLSS输入以最终的目标分辨率呈现,然后由较大的DLSS网络组合以产生接近64x超级抗锯齿的输出图像,这果不可能通过任何传统手段实现的。


DLSS 2X比TAA提供了更好的时间稳定性和图像清晰度

RTX 2080Ti/2080开发者版本解析(一)

  RTX 2080Ti与2080的长什么样子相信大家都不陌生了,从NVIDIA官方公布消息开始就有若干官图出现在各大媒体上。但官图毕竟灯光刁钻,后期满满,细节看不太清楚,下面就由笔者用三页的篇幅献出一套刚出炉实物图供各位鉴赏。

  由于RTX 2080Ti与2080外观几乎一模一样,所以下面以展示RTX 2080Ti为主,在两者不同的部分予以补充图片说明。


终于不再是泰坦皮了


NVIDIA公版旗舰使用离心式散热器几乎有20年之久


铝合金的背板与前盖在边缘汇聚为一个整体


银色的GEFORCE RTX字样用透光材质镂刻而出,内藏信仰灯

  以往离心式散热器的封闭气流通道可以直接将热量排向出机箱外,尽可能降低显卡对机箱散热的要求,提高适用范围。如今NVIDIA终于摒弃了这个过于苛求可靠性的思路,转而借鉴了非公版的设计思路,也用起了双轴流扇。确实,在机箱风道得当的前提下,轴流扇的散热效能明显超过尺寸受限的离心扇 ,更有利于Boost超频的机制充分发挥。

  或许正是因为如此,NVIDIA这次才在一个型号上推出了RD和FE两种公版,前者为参考设计版,Reference Design也就是指原来的公版,而后者Founders Edition则拥有更高的频率,变成了NVIDIA的官方超频版。看来老黄是铁了心要跟小伙伴们抢肉吃啦。

新浪声明:新浪网登载此文出于传递更多信息之目的,并不意味着赞同其观点或证实其描述。
精彩推荐
相关新闻
CGWR

中国游戏排行榜(China Game Weight Rank)是由新浪游戏推出的国内最全面、最专业、最公正、最客观的多平台游戏评测排行榜,包含了目前市场上所有的手游、端游、主机游戏、VR游戏、智能电视游戏及H5游戏,力图为中国玩家打造最值得信赖的游戏推荐平台。

评天下游戏、测产品深浅—新浪中国游戏排行榜CGWR!http://top.sina.com.cn

新浪游戏APP
新浪游戏APP为广大玩家提供最及时、最个性化的聚合订阅游戏资讯,以及业内最丰富、最具价值的游戏礼包资源,首测资格、稀有道具,成为高玩就这么简单。新浪游戏APP论坛力求打造一个属于所有玩家的超大朋友圈,为玩家的生活增资添彩。新浪游戏秉承为玩家提供优质服务为宗旨,不断优化创新,让我们一起创造快乐!
新浪游戏
全民手游攻略
全民手游攻略”是新浪游戏为全球手游玩家量身打造的一款手游攻略大全及专业游戏问答社区APP。“全民手游攻略”涵盖Apple Store游戏畅销榜前150名手游,网罗最新手游通关秘,帮助玩家畅玩手游;打造最全手游攻略资料站,帮你用最省钱方式吊打土豪。最火爆专业的游戏问答,让众多大神带你开启不同手游人生,寻找志同道合小伙伴一起并肩作战。
全民攻略

新浪简介 About Sina | 网站地图 | 广告服务 | 联系我们 | 招聘信息 | 网站律师 | SINA English | 会员注册 | 产品答疑

Copyright © 1996-2017 SINA Corporation, All Rights Reserved

新浪公司 版权所有

用微信扫描二维码
分享至微信朋友圈