当前位置:文档之家› 显卡GPU封装形式

显卡GPU封装形式

显卡GPU封装形式
显卡GPU封装形式

显卡上GPU图形芯片的具体封装形式

TSOP (Thin Small Out-Line Package) 薄型小尺寸封装

QFP (Quad Flat Package) 小型方块平面封装

MicroBGA (Micro Ball Grid Array) 微型球闸阵列封装,又称FBGA(Fine-pitch Ball Grid Array)

目前的主流显卡基本上是用TSOP和MBGA封装,其中又以TSOP封装居多.

制造工艺

制造工艺指得是在生产GPU过程中,要进行加工各种电路和电子元件,制造导线连接各个元器件。通常其生产的精度以um(微米)来表示,未来有向nm(纳米)发展的趋势(1mm=1000um 1um=1000nm),精度越高,生产工艺越先进。在同样的材料中可以制造更多的电子元件,连接线也越细,提高芯片的集成度,芯片的功耗也越小。

制造工艺的微米是指IC内电路与电路之间的距离。制造工艺的趋势是向密集度愈高的方向发展。密度愈高的IC电路设计,意味着在同样大小面积的IC中,可以拥有密度更高、功能更复杂的电路设计。微电子技术的发展与进步,主要是靠工艺技术的不断改进,使得器件的特征尺寸不断缩小,从而集成度不断提高,功耗降低,器件性能得到提高。芯片制造工艺在1995年以后,从0.5微米、0.35微米、0.25微米、0.18微米、0.15微米、0.13微米,再到目前主流的 90 纳米(0.09纳米) 、65 纳米等。

核心频率

显卡的核心频率是指显示核心的工作频率,其工作频率在一定程度上可以反映出显示核心的性能,但显卡的性能是由核心频率、显存、像素管线、像素填充率等等多方面的情况所决定的,因此在显示核心不同的情况下,核心频率高并不代表此显卡性能强劲。比如9600PRO 的核心频率达到了400MHz,要比9800PRO的380MHz高,但在性能上9800PRO绝对要强于9600PRO。在同样级别的芯片中,核心频率高的则性能要强一些,提高核心频率就是显卡超频的方法之一。显示芯片主流的只有ATI和NVIDIA两家,两家都提供显示核心给第三方的厂商,在同样的显示核心下,部分厂商会适当提高其产品的显示核心频率,使其工作在高于显示核心固定的频率上以达到更高的性能。

高性能显卡GPU使用指南

高性能显卡GPU使用指南 一、如何配置我的应用程序和游戏专用的 3D 设置 1.在 NVIDIA 控制面板的导航树窗格中,选择3D 设置下面的管理 3D 设置。 出现“管理 3D 设置”页面。 2.单击程序设置选项卡。 “程序设置”选项卡可用来指定游戏启动时所使用的专用 3D 设置;该游 戏每次启动时都会自动使用该设置。 3.在选择要自定义的程序下面,单击列表箭头,然后选择一个游戏,以便自 定义其预设的 3D 设置。 o如果您要选择系统上已经安装但未显示在列表中的游戏,单击添加按钮,然后通过“打开”对话框找到要添加的游戏,再单击打开。 o如果您要在列表中仅仅显示系统上安装的游戏,选择只显示本计算机上找到的程序复选框。 注:即使“已安装游戏”列表过滤器没有在系统上找到某个游戏, 驱动程序仍然可以侦测到任何运行的游戏,并应用适当的 3D 设置。 4.在指定设置框中,根据需要对各项作出调整。 o要更改一项功能设置,单击有关设置,然后在出现的下拉列表中单击要使用的设置。 o要恢复默认设置,在“选择一个程序”列表中选择要执行恢复操作的程序,然后单击“选择一个程序”列表旁的恢复按钮。 注:单击页面顶端的“恢复默认设置”链接将恢复整个“管理 3D 设置” 页的默认设置。 5.完成后单击应用。 二、如何设定 3D 默认设置 1

1.在 NVIDIA 控制面板的导航树窗格中,选择 3D 设置下面的管理 3D 设置。 出现“管理 3D 设置”页面。 2.单击全局设置选项卡。 “全局设置”选项卡可用来指派全局设置,这些全局设置将用于所有的 3D 游戏。 3.如果您安装了 NVIDIA Quadro 产品,单击全局预设列表箭头,选择工作 站应用程序的一个预装的全局设置。 GeForce 产品中不出现“全局预设”列表。 4.在“设置”框中,单击与您要更改的相应的设置,然后从下拉列表中单击 要用的设置值。 o要恢复默认的全局设置,单击“全局设置”选项卡下角处的恢复按钮。 o要恢复一项全局预设(工作站产品)的默认设置,选择该全局预设项,然后单击“全局预设”列表旁的恢复按钮。 注:单击页面顶端的“恢复默认设置”链接将恢复整个“管理 3D 设置” 页的默认设置。 5.完成后单击应用。 三、如何调整 3D 硬件加速 1.在 NVIDIA 控制面板的导航树窗格中,选择3D 设置下面的管理 3D 设置 以打开相关页面。 通过该"高级"页面上的选项,您可以为采用 Direct3D 和 OpenGL 技术的 3D 应用程序更改所有图像和渲染设置。 2.单击全局设置选项卡。 3.在“设置”下面,单击与多显示器/混合 GPU 加速功能相应的设置,选择 以下选项之一: 4.单一显示器性能模式:如果“多显示器”模式出现问题,请指定这一设置。 注:该模式的速度高于下面介绍的任一种多显示器模式。 5.如果您有两个或更多活动显示器并在 nView 双屏显示模式中运行,或正 在使用基于 NVIDIA GPU 的不同类型的图形卡,兼容性能模式将很有用。 当这种模式生效后,OpenGL会在所有显示器上以“兼容”模式进行渲染,

显卡主要性能参数

手把手教你识别显卡主要性能参数 手把手教你识别显卡主要性能参数 初识显卡的玩家朋友估计在选购显卡的时候对显卡的各项性能参数有点摸不着头脑,不知道谁对显卡的性能影响最大、哪些参数并非越大越好以及同是等价位的显卡但在某些单项上A卡或者是N卡其中的一家要比对手强悍等等。这些问题想必是每个刚刚接触显卡的朋友所最想了解的信息,可以说不少卖场的销售员也正是利用这些用户对显卡基本性能参数的不了解来欺骗和蒙蔽消费者。今天显卡帝就来为入门级的显卡用户来详细解读显卡的主要性能参数的意义。 显卡帝手把手教你识别显卡主要性能参数 关于显卡的性能参数,有许多硬件检测软件可以对显卡的硬件信息进行详细的检测,比如:Everest,GPU-Z,GPU-Shark等。这里我们以玩家最常用的GPU-Z 软件来作为本文解析显卡性能参数的示例软件。

GTX590的GPU-Z截图 首先我们对GPU-Z这款软件的界面进行一个大致分区的解读,从上至下共8个分区,其中每个分区的具体含义是: ①.显卡名称部分: 名称/Name:此处显示的是显卡的名称,也就是显卡型号。 ②.显示芯片型号部分: 核心代号/GPU:此处显示GPU芯片的代号,如上图所示的:GF110、Antilles 等。 修订版本/Revision:此处显示GPU芯片的步进制程编号。 制造工艺/Technology:此处显示GPU芯片的制程工艺,如55nm、40nm等。 核心面积/Die Size:此处显示GPU芯片的核心尺寸。 ③.显卡的硬件信息部分: BIOS版本/BIOS Version:此处显示显卡BIOS的版本号。 设备ID/Device ID:此处显示设备的ID码。 制造厂商/Subvendor:此处显示该显卡OEM制造厂商的名称。

GPU与CPU的区别

GPU与CPU的区别 显卡的发展可以说是非常的快,人们对于视觉化上的要求也越来越高,随着用户对于图像处理上面的要求不断超出处理器的计算能力。另一方面CPU处理能力也不断强大,但在进入3D时代后,人们发现庞大的3D图像处理数据计算使得CPU越来越不堪重荷,并且远远超出其计算能力。图形计算需求日益增多,作为计算机的显示芯片也飞速发展。随后人们发现显示芯片的计算能力也无法满足快速增长的图形计算需求时,图形,图像计算等计算的功能被脱离出来单独成为一块芯片设计,这就是现在的图形计算处理器——GPU(Graphics Processing Unit),也就是显卡。 1999年8月,NVIDIA终于正式发表了具有跨世纪意义的产品NV10——GeForce 256。GeForce256是业界第一款256bit的GPU,也是全球第一个集成T&L(几何加速/转换)、动态光影、三角形设置/剪辑和四像素渲染等3D加速功能的图形引擎。通过T&L技术,显卡不再是简单像素填充机以及多边形生成器,它还将参与图形的几何计算从而将CPU从繁重的3D管道几何运算中解放出来。在这代产品中,NVIDIA推出了两个全新的名词——GPU以GeForce。所以从某种意义上说,GeForce 256开创了一个全新的3D图形时代,NVIDIA终于从追随者走向了领导者。再到后来GeForce 3开始引出可编程特性,能将图形硬件的流水线作为流处理器来解释,基于GPU的通用计算也开始出现。 到了Nvidia GeForce6800这一代GPU,功能相对以前更加丰富、灵活。顶点程序可以直接访问纹理,支持动态分支;象素着色器开始支持分支操作,包括循环和子函数调用,TMU 支持64位浮点纹理的过滤和混合,ROP(象素输出单元)支持MRT(多目标渲染)等。象素和顶点可编程性得到了大大的扩展,访问方式更为灵活,这些对于通用计算而言更是重要突破。 真正意义的变革,是G80的出现,真正的改变随着DX10到来发生质的改变,基于DX10统一渲染架构下,显卡已经抛弃了以前传统的渲染管线,取而代之的是统一流处理器,除了用作图像渲染外,流处理器自身有着强大的运算能力。我们知道CPU主要采用串行的计算方式,由于串行运算的局限性,CPU也正在向并行计算发展,比如目前主流的双核、四核CPU,如果我们把这个概念放到现在的GPU身上,核心的一个流处理相当于一个“核”,GPU的“核”数量已经不再停留在单位数,而是几十甚至是上百个。下面看看G80的架构图:

显卡测试软件GPU-Z使用详解(新)

GPU-Z是一款极度简易的显卡识别工具(继承了CPU-Z的优良传统),只要双击直接运行,显卡的的主要参数就可尽收眼底。这点比起Everest和RivaTuner 来说,确实方便了不知多少倍。 下面我们就已目前笔记本市场主流的nVIDIA GF8400m GS为例,来具体介绍一下GPU-Z的参数含义。 Dell 1520搭载的GeForce8600M GT 独立显卡 ①.显卡名称部分: 名称/Name:此处显示的是显卡的名称,也就是这款笔记本所采用的显卡型号。 (经过笔者的测试,发现目前最新的0.1.0版本的GPU-Z对显卡名称的识别,并非基于显示核心的硬件ID码,而是源于显卡驱动信息中的硬件名称。这样的检测方法虽然实现起来比较简单,但是获得的信息并不十分可靠,后文将会具体说明。) ②.显示芯片型号部分: 核心代号/GPU:此处显示GPU芯片的代号,如:G84M、G86M、RV630、RV610等。 修订版本/Revision:此处显示GPU芯片的步进制程编号。 制造工艺/Technology:此处显示GPU芯片的制程工艺,如80nm、65nm、55nm

等。 核心面积/Die Size:此处显示GPU芯片的核心尺寸。(目前版本的GPU-Z 还没有添加该数据库) ③.显卡的硬件信息部分: BIOS版本/BIOS Version:此处显示显卡BIOS的版本号。 设备ID/Device ID:此处显示设备的ID码。 制造厂商/Subvendor:此处显示该显卡的制造厂商名称。 ④.显示芯片参数部分: 光栅引擎/ROPs:此处显示GPU拥有的ROP光栅操作处理器的数量,越多性能越强。 总线接口/Bus Interface:此处显示显卡和主板北桥芯片之间的总线接口类型以及接口速度。 着色单元/Shaders:此处显示GPU拥有的着色器的数量,越多性能越强。 (目前主流的nVIDIA GeForce8和ATI HD2000系列显卡均采用统一渲染架构,着色单元统称流处理器(Stream Processor)。而之前的显卡的着色单元则分为像素着色器(Pixel Shaders)和顶点着色器(Vertex Shaders)两部分。)DirectX版本/DirectX Support:此处显示GPU所支持的DirectX版本。 像素填充率/Pixel Fillrate:此处显示GPU的像素填充率,越多性能越强。 纹理填充率/Texture Fillrate:此处显示GPU的纹理填充率,越多性能越强。 ⑤.显存信息部分: 显存类型/Memory Type:此处显示显卡所采用的显存类型,如:GDDR3、DDR2、DDR等。 显存位宽/Bus Width:此处显示GPU与显存之间连接的带宽,越多性能越强。 (显卡的这项参数是我们应该重点关注的地方,市面上众多“阉割”卡就是被黑心的厂商在这里做了手脚。这样的例子很多,比如:某知名品牌的一款高端笔记本(为了避免不必要的麻烦,笔者就不爆料了),原本128bit位宽的GeForce86000M GS,厂家为了降低成本,将显卡位宽活生生的砍掉一半,只剩下64bit,致使3D性能大打折扣。消费者乐呵呵的把机器买到手,一玩游戏,才发现实际的表现十分糟糕,这时后悔也晚了。所以,选购独显笔记本的时候一定要特别留意这个参数。注:Geforce8400和HD2400原生的显存位宽就只有64位,不必担心被动手脚。) 显存容量/Memory Size:此处显示显卡板载的物理显存容量。 显存带宽/Bandwidth:此处显示GPU-Z与显存之间的数据传输速度,越多性能越强。 ⑥.驱动部分: 驱动程序版本/Driver Version:此处为系统内当前使用的显卡驱动的版本号。 ⑦.显卡频率部分: 核心频率/GPU Clock:显示GPU当前的运行频率。

GPU服务器上显卡压力测试工具及测试方法介绍

Stree_GPU压力测试 一、测试介绍 常搞服务器测试的,会有很多测试工具,比如测试硬盘的iometer,网络测试的有IxChariot,IPfer,测试内存的有stree,整机压力测试HPC_Breakin等,但整机测试GPU或是显卡的工具就比较少,专业的测试是必须要有的。 很多个人或是公司买了GPU服务器,显卡回来,安装上去后,不知道如何整机测试,怎么压力测试,怎么检测是否有问题,做开发设计的怎么测试主板是否有bug,整机散热调优方案,功耗测试等,通过使使用stree_GPU工具,可以使GPU/显卡发挥90%以上的性能,从而发现存在的隐患。 直接介绍一套简单的测试工具Stree_GPU,适合在windows 7,win8,win10,2008 R2等windows系统下测试的。 1页

1、准备工作环境 你的机器安装上显卡/GPU卡后,然后再安装上述的操作系统,机器需要连外网才能使用Stree_GPU测试。但它不占用外网资源。 2、安装驱动 这个不用我说了,你电脑上驱动都要安装,GPU/显卡一般是基于NVIDIA芯片开发的,驱动一般直接到它官网上下载,或是安装个驱动人生,然后让它帮你全部安装完驱动,省事^_^ 二、测试工具使用介绍 1、Stree_GPU工具使用介绍,此stree_GPU软件适用windows系统下 GPU/显卡专业测试工具stree_GPU测试工具下载: https://https://www.doczj.com/doc/8714805698.html,/s/1PnxbcIQvM9Y4YtVude7WNg 2、首先你的机器在windows下环境配置好,即显卡驱动要安装上,可以在NVIDIA官网下载cuda程序安装,能识别到你的显卡并能调休; 3、确保你测试的机器连通外网,因为测试时要模拟卡的压力(算力); 4、把Stree_GPU程序解压后拷贝到如c盘根目录下,路径不要有中文; 5、解压后在Stree_GPU目录里,右键以管理员权限运行stree_GPU.bat 注意观察,如果执行之后屏幕上没有提示错误提示,没有红色的提示,则表示开始跑起来了,过一会才会有结果,比如会提示有GPU0:xxxMh/s,这里只要有数字出现就表示成功了,如果有多张卡,这里会列出来有GPU0,GPU1…..。如下 2页

显卡帝手把手教你读懂GPU架构图

GPU架构“征途之旅”即日起航 显卡GPU架构之争永远是DIY玩家最津津乐道的话题之一,而对于众多普通玩家来说经常也就看看热闹而已。大多数玩家在购买显卡的时候其实想的是这款显卡是否可以满足我实际生活娱乐中的应用要求,而不大会很深入的关注GPU的架构设计。不过,如果你想成为一个资深DIY玩家,想与众多DIY高手“高谈阔论”GPU架构设计方面的话题的时候,那么你首先且必须弄明白显卡GPU架构设计的基本思想和基本原理,而读懂GPU架构图正是这万里长征的第一步。

显卡帝手把手教你读懂GPU架构图 通过本次GPU架构图的“征途之旅”,网友朋友将会和显卡帝共同来探讨和解密如下问题: 一、顶点、像素、着色器是什么; 二、SIMD与MIMD的架构区别; 三、A/N在统一渲染架构革新中的三次交锋情况如何; 四、为什么提出并行架构设计; 五、A/N两家在GPU架构设计的特点及其异同点是什么。

以上目录也正是本文的大致行文思路,显卡帝希望能够通过循序渐进的分析与解读让众多玩家能够对GPU架构设计有个初步的认识,并且能够在读完本文之后能对GPU架构图进行独立认知与分析的基本能力,这将是本人莫大的欣慰。 非统一架构时代的GPU架构组件解读 上世纪的绝大多数显示加速芯片都不能称之为完整意义上的GPU,因为它们仅仅只有像素填充和纹理贴图的基本功能。而NVIDIA公司在1999年所发布的GeForce 256图形处理芯片则首次提出了GPU的概念。GPU所采用的核心技术有硬件T&L、立方环境材质贴图和顶点混合、纹理压缩和凹凸映射贴图、双重纹理四像素256位渲染引擎等,而硬件T&L (Transform and Lighting,多边形转换与光源处理)技术可以说是GPU问世的标志。 演示硬件几何和光影(T&L)转换的Demo ● 传统的固定渲染管线 渲染管线也称为渲染流水线,是显示芯片内部处理图形信号相互独立的的并行处理单元。在某种程度上可以把渲染管线比喻为工厂里面常见的各种生产流水线,工厂里的生产流水线是为了提高产品的生产能力和效率,而渲染管线则是提高显卡的工作能力和效率。 什么叫一条“像素渲染管线”?简单的说,传统的一条渲染管线是由包括Pixel Shader Unit (像素着色单元)+ TMU(纹理贴图单元) + ROP(光栅化引擎)三部分组成的。用公式表达可以简单写作:PS=PSU+TMU+ROP 。从功能上看,PSU完成像素处理,TMU负责纹理

GPU编程自学教程

GPU编程自学教程 VR的发展已步入正轨,硬件头盔和内容平台等都有了不错的成果,但这个广袤的市场迫切的需要技术精英跟上它发展的脚步。因此,若还有小伙伴想从事VR行业,不妨在校先学好技术。 学习VR开发GPU编程是重中之重。GPU英文全称Graphic Processing Unit,中文翻译为“图形处理器”。GPU是相对于CPU的一个概念。在现代的计算机中(尤其是家用系统,游戏发烧友)图形处理变得越来越重要,因此需要一个专门的图形核心处理器。 GPU是显示卡的“心脏”,也就相当于CPU在电脑中的作用,它决定了该显卡的档次和大部分性能,同时也是2D显示卡和3D显示卡的区别依据。2D 显示芯片在处理3D图像和特效时主要依赖CPU的处理能力,称为“软加速”。 3D显示芯片是将三维图像和特效处理功能集中在显示芯片内,也即所谓的“硬件加速”功能。显示芯片通常是显示卡上最大的芯片(也是引脚最多的)。现在市场上的显卡大多采用NVIDIA和ATI两家公司的图形处理芯片。 于是NVIDIA公司在1999年发布GeForce256图形处理芯片时首先提出

GPU的概念。GPU使显卡减少了对CPU的依赖,并进行部分原本CPU的工作,尤其是在3D图形处理时。GPU所采用的核心技术有硬体T&L、立方环境材质贴图和顶点混合、纹理压缩和凹凸映射贴图、双重纹理四像素256位渲染引擎等,而硬体T&L技术可以说是GPU的标志。 目前最新的可编程图形硬件已经具备了如下功能: 1、支持vertex programmability和fragment programmability。 2、支持IEEE32位浮点运算。 3、支持4元向量,4阶矩阵计算。 4、提供分支指令,支持循环控制语句。 5、具有高带宽的内存传输能力(>27.1GB/s)。 6、支持1D、2D、3D纹理像素查询和使用,且速度极快。 7、支持绘制到纹理功能(Render to Texture,RTT)。 即使CPU的工作频率超过1GHz或更高,对它的帮助也不大,由于这是PC 本身设计造成的问题,与CPU的速度没有太大关系。 学习GPU编程的好处: 1.不单能学会如何使用GPU解决问题,更让我们更加深入地了解并行编程思想,为以后全面掌握各种并行技术打下铺垫。 2.因为计算相关知识的研究与发展,它也会成为未来IT业界与学界的热点。 想以最快的速度踏进VR圈?想拥有最系统的VR知识体系?千锋教育你不容错过!千锋最新推出VR/AR混合现实培训课程,让学员快速掌握VR开发技术。

2020年4月桌面显卡GPU天梯图_精排打印版

NVIDIA AMD GeForce 500及更更早GeForce 600 GeForce 700 GeForce 900 GeForce 10 GeForce 20 RX 5000RX 400/500/Vega Radeon R300 Radeon R200 Radeon HD 7000 Radeon HD 6000及更更早 Titan RTX RTX 2080 Ti Titan V RTX 2080 Super Titan Xp RTX 2080Radeon VII GTX 1080 Ti RTX 2070 Super Pro Duo R9 295X2 GTX Titan Z RX 5700 XT 50 周年年纪念版 Titan X RX 5700 XT RTX 2070RX Vega 64?水冷 RTX 2060 Super GTX 1080RX 5700RX Vega 64 GTX 1070 Ti RTX 2060RX 5600 XT RX Vega 56 GTX Titan X GTX 1070GTX 1660 Ti RX 5600 GTX 980 Ti R9 Fury X GTX 1660 Super R9 Nano GTX 1660HD 7990 GTX 690RX 5500 XT RX 590R9 Fury GTX Titan Black GTX 980GTX 1650 Super RX 580 GTX 780 Ti GTX 1060 6GB RX 480R9 390X

GTX Titan RX 580 2048SP RX 570 R9 390R9 290X GTX 780GTX 970RX 470R9 290 GTX 1060 3GB GTX 1650RX 560 XT R9 380X GTX 590RX 470D HD 6990 GTX 770R9 380R9 280X HD 7970 GE GTX 680GTX 1050 Ti R9 285HD 7970 GTX 760GTX 960R9 280 GTX 670HD 7950 Boost HD 7950 GTX 660 Ti RX 560R9 370X HD 5970 GTX 1050R9 270X GTX 580 GTX 950HD 7870 GTX 660RX 460R7 370 GTX 570R9 270HD 6970 GTX 480 GTX 560 Ti (448SP) R7 265 GTX 650 Ti Boost RX 550HD 7850 GTX 295GTX 750 Ti HD 6950 HD 5870 GTX 560 Ti (384SP) GT 1030R7 260X HD 6930

GPU浮点性能排行

Game Consoles GPU Consoles Name GPU Name Fab Clock GFlops NDS ARM946E-S (CPU) 180/130nm 67 MHz 0.6 N3DS PICA 200 45nm 200 MHz 4.8 PSP R4000 x 2 90nm 333 MHz 2.6 PS VITA SGX543 MP4+ 45nm 400 MHz 51.2 Dreamcast PowerVR2 CLX2 250nm 100 MHz 1.4 XBOX XGPU (NV2A) 150nm 233 MHz 20 XBOX360 ATI R500 Xenos 90/65/45nm 500 MHz 240 XBOX ONE AMD Radeon GCN (768 Cores) 28nm 853 MHz 1311.5 PlayStation 2 GS 180/150/90nm 147 MHz 6.2 (EE+GS) PlayStation 3 RSX (NVIDIA G70) 90/65/45nm 550 MHz 228.8 PlayStation 4 AMD Radeon GCN 28nm 800 MHz 1840

(1152 Cores) N64 SGI RCP 350nm 62.5 MHz 0.1~0.2 GameCube Flipper 180nm 162 MHz 8 Wii ATI HollyWood 90nm 243 MHz 12 Wii U ATI RV770 40nm 550 MHz 352 Ouya Geforce ULP x 12 (Tegra 3) 40nm 520 Mhz 12.5 Nvidia Shield M.O.J.O Geforce ULP x 72 (Tegra 4) 28nm 672 MHz 96.8 Mobile GPU (Imagination PowerVR) GPU Name Chip Clock GFlops SGX530 OMAP 3530 110 MHz 0.88 DM3730 200 MHz 1.6 --- 300 MHz 2.4

如何使用GPU-Z查看显卡的各项性能

显卡性能取决于显示核心,因此要想区分显卡性能,就必须了解显卡的一些参数! 为了方便查看参数,一个专门用来查看显卡参数的工具被制作出来,就是GPU-Z。 通过GPU-Z,我们可以对比显卡的参数来辨别显卡性能的高低,甚至可以区分真假显卡。以下就是GPU的示意图(只解说重要部分):

【名称】:可以直接显示是哪个芯片公司生产的型号 注:Nvidia可以直接显示出具体型号,例如图直接注明7600GS ATI 只会显示显卡的同系列名称,例如X1650GT只显示1650 Series 【GPU】:显示核芯,核芯代号,所指的是研发公司内部编号,也可以用于区分性能高低。【工艺】:核心的制作工艺,单位纳米,越小工艺就越先进,功耗就越低。 【光栅】:数量越高,显卡性能越强。 光栅属于输出单元,负责后期渲染,将像素点光栅化,主要影响抗锯齿、动态模糊之类特效,但对光线却没什么大的影响。 【总线接口】:提供数据流量带宽,目前主流的接口是PCI-E 16×,可以提供8G/s的数据流量(双通道,上、下行各4G/s)。 注:16×@16×,代表最高支持流量,以及目前工作的流量,如果主板或者电源影响,工作接口有可能会下降! 【着色器】:旧架构为“渲染管线+着色顶点”,新架构之后统一为“统一渲染单元”,即“流

处理器”,数量越高性能越好。 旧架构区分性能通过“渲染管线”多少、“着色顶点”多少就可以了解显卡性能。 新架构由于只有一个基数,因此更容易了解,数值越高性能越强。 注:N卡一个流处理器就能发挥作用,因此流处理器数量看上去很少。 A卡对“统一渲染单元”定位不一样,要5个流处理器单元一组才能工作,因此看上去数量很高。 【Directx 支持】:简称DX,是微软编写的程序,作用于多媒体指令,在显卡方面,就是针对画面特效,目前最高级别是DX11(Windows 7)。 【像数填充率】:光栅工作的数据处理流量,公式GPU频率×光栅=像数填充率。 【纹理填充率】:渲染管线/流处理器的数据处理流量,公式GPU频率×管线(处理器单元)=纹理填充率。 【显存类型】:显存,提供储存数据和交换数据,显存代数越高,内存频率就越高,传送的数据就越大,目前最高级别的GDDR5,可以高达4600MHz/s以上的速度。 【显存位宽】:显存位宽是显存在一个时钟周期内所能传送数据的位数,位数越大则瞬间所能传输的数据量越大,这是显存的重要参数之一 注:由于目前GDDR5 高频显存,即使位宽很低,也可以提供很高的显存带宽,即使128bit,也可以提供几十GB/s以上的带宽,所以位宽不一定强求高位宽。 还有一个特殊的例子,HD2900XT 显存位宽达到了512bit,但由于核心架构的原因,渲染效能无法发挥,即使有512bit的位宽也无法达到预期效果。 【显存容量】显存是作为数据储存和交换数据,但并非容量大就表示显卡就具有很高的性能。 高端显卡由于核心处理数据庞大,才需要高容量内存的支持。 低端显卡由于核心本身处理量低,即使配备高容量显存也不会提升显卡性能。 注:由于显存颗粒相对便宜,因此一些厂商就会把一些低端卡配置高容量显存,牟取暴利,例如GF8500GT 1G版、GF9400GT 2G版,但这两款型号实际的游戏性能也就等于 GF7300GT 256M高频版。 【显存带宽】:显存带宽是指显示芯片与显存之间的数据传输速率,它以字节/秒为单位。显存带宽是决定显卡性能和速度最重要的因素之一。 显存带宽的计算公式为:显存带宽=工作频率×显存位宽/8

平板GPU对比和笔记本显卡天阶图

多数购买平板的消费者都希望在平板上玩2D/3D游戏。较好的游戏图形显示性能与平板内置的图形显示核心密切相关。正如我们常用”显存“、”位宽“以及"工作频率"来衡量PC机上的显卡性能一样,平板中采用的低功耗的图形处理器GPU也有其评价指标。一般来说主要是三角形输出率(单位Mtri/s,即每秒输出百万个三角形)和像素填充率(单位MPixel/s,即每秒填充百万个像素)。当然还与其工作频率,制程工艺和功耗等息息相关。平板产品之所以能战胜上网本成为目前除了手机之外,最热门的手持终端设备,一个比较重要的性能就是其低功耗带来的长时间的续航。所以,一般GPU都不会有较高的工作频率,提高频率纵然会带来较大的图形处理性能,但是带来的却是较大的功耗。 平板GPU知识扫盲 大家可别小看平板上的GPU,其性能可能远远超乎你的想象,由于下面的文章中我们将会引入许多概念,所以在此先给大家补充一些小知识,以便大家能更好地跟我们一起领略GPU 的风采,欣赏平板上的GPU大战。 GPU面积:和工艺以及架构有关,GPU制程越高,其封装体积越小,功耗和发热也会进一步降低。 图形和通用运算标准:各主流厂商和技术组织发布的统一渲染标准,支持的越多,GPU的通用性就越好。

高速L2缓存: GPU与内存之间的临时存储器,它的容量比内存小但交换速度快。缓存对GPU的性能影响很大,因此L2缓存当然是越大越好。 GPU频率:跟桌面显卡类似,频率提升,显卡核心就会运行在更高的频率从而带来更强大的性能,因此PC界有了超频一说。 三角形输出率:单位是兆/秒,三角形输出率越高,输出率越大,在大型3D应用中越流畅。像素输出率:单位同样是兆/秒,像素填充率则决定了GPU解码视频、拍照录像的能力, 肯定也是越高越好。 目前来说,主流的平板上常见的图形处理器主要有:NVIDIA的Tegra2,Imigation的PowerVR SGX系列、ARM的Mali系列和高通的Adreno系列。以下主要基于三角形填充率和像素填充率概括目前热门平板的GPU规格。(参数来自网络,如有错误欢迎指正) Tegra2 NVIDIA的图睿,采用ULP Geforce架构,含有8个核心,其但核心三角形输出率最大可达90M/s,像素填充率可达1200M/s。代表产品主要有Xoom和Eee pad。目前来说,应该是最强劲的图形处理器,主要源于强大的NVIDIA的图形处理技术。 PowerVR SGX PowerVR SGX系列PowerVR SGX535 PowerVR SGX540 PowerVR SGX543MP

显卡GPU主流应用技术

显卡GPU主流应用技术 由于消费者对大型3D游戏和高清视频等娱乐享受的需求,显卡在计算机中重要性越来越高,特别是GPU与CPU的较量,更昭示着显卡GPU时代的来临。本文我们就来讲解下显卡主流的一些应用技术。 1.SLI 早在1997年,当时得显卡市场是3Dfx一家独大,他在1996年推出的voodoo 加速卡成了玩家追捧的一代经典产品。而让玩家疯狂得是voodoo2具有的“SLI 交错互联技术”,这项技术可以让两块显卡连接起来并行运作,获得几乎翻倍得3D效能。这项技术也成为了SLI发展的开始。 3Dfx后来被NV收购,相关技术也归其所有。但是直到后来显卡得市场越来越激烈,NV公司为了巩固其图形显示霸主得地位,NV公司才在2004年6月推出了SLI Multi-GPU(SLI,Scalable Link Interface,交错互联)多GPU并行处理技术,这中全新的技术令现有得PC系统拥有了更强大得图形性能。 智能SLI 智能SLI技术就是使用板载显卡和独立显卡双卡互联来实现的。这是智能SLI 所需要得硬件配合。而且,智能SLI得组合还可以是:[板载显卡]+[独立显卡];或者[板载显卡]+[双卡SLI]。 而且必须要有板载得显卡和独立显卡配合才能达到性能和节能的平衡,因为使用板载显存是实现节能的重要因素,而独立显卡和板载显卡的共同工作才能实现高性能得达成。 从3dfx提出SLI概念,到nVIDIA重拾SLI,再到智能SLI,再到对物理运算的加速,可以说SLI已经经历了数个历史跨度。SLI到现在已经不仅仅为少数的发烧友服务,而能做到为所有电脑用户服务,而NVIDIA将这项技术破天荒的应用在高、中、低全平台上,可以看出NVIDIA力推普及这项技术的信心。 2.PureVideo PureVideo是NVIDIA开发的一项技术,目的是在PC上带给用户高清家庭影院体验。 第一代PureVideo:从GeForce7系列显卡以来,NV便顺应市场需求在此系列显卡中导入高清解码的概念,但由于当时高清格式的混乱和编码的复杂性,那时的PureVideo只能担当“配角”,主要的解码任务还是落在CPU身上,系统占用率还是偏高,那是PureVideo技术的第一代。

显卡参数详解

显卡参数详解 关于显卡的性能参数,有许多硬件检测软件可以对显卡的硬件信息进行详 细的检测,比如:Everest,GPU-Z,GPU-Shark等。这里我们以玩家最常用的GPU-Z软件来作为本文解析显卡性能参数的示例软件。 GTX590的GPU-Z截图 首先我们对GPU-Z这款软件的界面进行一个大致分区的解读,从上至下共 8个分区,其中每个分区的具体含义是: ①.显卡名称部分: 名称/Name:此处显示的是显卡的名称,也就是显卡型号。 ②.显示芯片型号部分: 核心代号/GPU:此处显示GPU芯片的代号,如上图所示的:GF110、 Antilles等。 修订版本/Revision:此处显示GPU芯片的步进制程编号。 制造工艺/Technology:此处显示GPU芯片的制程工艺,如55nm、40nm等。 核心面积/Die Size:此处显示GPU芯片的核心尺寸。 ③.显卡的硬件信息部分: BIOS版本/BIOS Version:此处显示显卡BIOS的版本号。 设备ID/Device ID:此处显示设备的ID码。 制造厂商/Subvendor:此处显示该显卡OEM制造厂商的名称。 ④.显示芯片参数部分:

光栅操作单元/ROPs:此处显示GPU拥有的ROP光栅操作处理单元的数量。 总线接口/Bus Interface:此处显示显卡和主板北桥芯片之间的总线接口类型以及接口速度。 着色单元/Shaders:此处显示GPU拥有的着色器的数量。 DirectX版本/DirectX Support:此处显示GPU所支持的DirectX版本。 像素填充率/Pixel Fillrate:此处显示GPU的像素填充率。 纹理填充率/Texture Fillrate:此处显示GPU的纹理填充率。 ⑤.显存信息部分: 显存类型/Memory Type:此处显示显卡所采用的显存类型,如:GDDR3、GDDR5等。 显存位宽/Bus Width:此处显示GPU与显存之间连接的带宽。 显存容量/Memory Size:此处显示显卡板载的物理显存容量。 显存带宽/Bandwidth:此处显示GPU-Z与显存之间的数据传输速度。 ⑥.驱动部分: 驱动程序版本/Driver Version:此处为系统内当前使用的显卡驱动的版本号。 ⑦.显卡频率部分: 核心频率/GPU Clock:显示GPU当前的运行频率。 内存/Memory:显示显存当前的运行频率。 Shader/Shader:显示着色单元当前的运行频率。 默认核心频率/Default Clock:显示GPU默认的运行频率。

手把手教你识别显卡主要性能参数(精)

手把手教你识别显卡主要性能参数 初识显卡的玩家朋友估计在选购显卡的时候对显卡的各项性能参数有点摸不着头脑,不知道谁对显卡的性能影响最大、哪些参数并非越大越好以及同是等价位的显卡但在某些单项上A 卡或者是N卡其中的一家要比对手强悍等等。这些问题想必是每个刚刚接触显卡的朋友所最想了解的信息,可以说不少卖场的销售员也正是利用这些用户对显卡基本性能参数的不了解来欺骗和蒙蔽消费者。今天显卡帝就来为入门级的显卡用户来详细解读显卡的主要性能参数的意义。 手把手教你识别显卡主要性能参数 关于显卡的性能参数,有许多硬件检测软件可以对显卡的硬件信息进行详细的检测,比如:Everest ,GPU-Z,GPU-Shark等。这里我们以玩家最常用的GPU-Z软件来作为本文解析显卡性能参数的示例软件。

GTX590的GPU-Z截图 首先我们对GPU-Z这款软件的界面进行一个大致分区的解读,从上至下共8 个分区,其中每个分区的具体含义是: ①. 显卡名称部分: 名称/Name:此处显示的是显卡的名称,也就是显卡型号 ②. 显示芯片型号部分: 核心代号/GPU:此处显示GPU芯片的代号,如上图所示的:GF110、Antilles 修订版本/Revision :此处显示GPU芯片的步进制程编号。 制造工艺/Technology :此处显示GPU芯片的制程工艺,如55nm、40nm等。核心面积/Die Size :此处显示GPU芯片的核心尺寸。 ③. 显卡的硬件信息部分: BIOS版本/BIOS Version :此处显示显卡BIOS的版本号。设备ID/Device ID :此处显示设备的ID 码。 制造厂商/Subvendor :此处显示该显卡OEM制造厂商的名称。 ④. 显示芯片参数部分: 光栅操作单元/ROPs:此处显示GPU拥有的ROP光栅操作处理单元的数量。总线接口/Bus Interface :此处显示显卡和主板北桥芯片之间的总线接口类型以及接口速度。 着色单元/Shaders :此处显示GPU拥有的着色器的数量。 DirectX 版本/DirectX Support :此处显示GPU所支持的DirectX 版本。像素

GPU架构与技术详解

GPU架构与技术详解 来源: https://www.doczj.com/doc/8714805698.html,时间: 2010-06-22 作者: apollo GPU英文全称Graphic Processing Unit,中文翻译为“图形处理器”。GPU是相对于CPU的一个概念,由于在现代的计算机中(特别是家用系统,游戏的发烧友)图形的处理变得越来越重要,需要一个专门的图形的核心处理器。我们从GPU的发展历程来看看显卡GPU的架构和技术的发展。 整合VCD/DVD/HD/BD解压卡 在了解了CPU的发展历程之后,我们再来看看GPU的发展过程,其实GPU 很多重大改进都与CPU的技术架构相类似。比如最开始我们介绍了古老的CPU协处理器,下面再介绍一个被遗忘的产品——解压卡,资历较老的玩家应该记得。 十多年前,电脑的CPU主频很低,显卡也多为2D显示用,当VCD兴起的时候,好多电脑(主频为100MHz以下)无法以软解压的方式看VCD影片,根本运行不起来! ISA接口的VCD解压卡 这时,VCD解压卡就出现了,此卡板载专用的解码处理器和缓存,实现对VCD的硬解码,不需要CPU进行解码运算,所以,即使在386的电脑上也可以看VCD了。

PCI接口的DVD解压卡 随后,显卡进入了3D时代,并纷纷加入支持VCD的MPEG解码,而且CPU的主频也上来了,无论CPU软解还是显卡辅助解码都可以流畅播放视频,所以VCD解压卡就退出了市场! 但DVD时代来临后,分辨率提高很多,而且编码升级至MPEG2,对于CPU和显卡的解码能力提出了新的要求,此时出现了一些DVD解压卡,供老机器升级之用,但由于CPU更新换代更加频繁,性能提升很大,DVD解压卡也是昙花一现,就消失无踪了。

NVIDIA显卡支持CUDA

CUDA CUDA(Compute Unified Device Architecture)是一个新的基础架构,这个架构可以使用GPU来解决商业、工业以及科学方面的复杂计算问题。它是一个完整的GPGPU解决方案,提供了硬件的直接访问接口,而不必像传统方式一样必须依赖图形API接口来实现GPU的访问。在架构上采用了一种全新的计算体系结构来使用GPU提供的硬件资源,从而给大规模的数据计算应用提供了一种比CPU更加强大的计算能力。CUDA采用C语言作为编程语言提供大量的高性能计算指令开发能力,使开发者能够在GPU的强大计算能力的基础上建立起一种效率更高的密集数据计算解决方案。 关于NVIDIA CUDA技术 NVIDIA CUDA技术是当今世界上唯一针对NVIDIA GPU(图形处理器)的C语言环境,为支持CUDA技术的NVIDIA GPU(图形处理器)带来无穷的图形计算处理性能。凭借NVIDIA CUDA技术,开发人员能够利用NVIDIA GPU (图形处理器)攻克极其复杂的密集型计算难题,应用到诸如石油与天然气的开发,金融风险管理,产品设计,媒体图像以及科学研究等领域。 CUDA? 工具包是一种针对支持CUDA功能的GPU(图形处理器)的C语言开发环境。CUDA开发环境包括: nvcc C语言编译器适用于GPU(图形处理器)的CUDA FFT和BLAS库 分析器适用于GPU(图形处理器)的gdb调试器(在2008年3月推出alpha版) CUDA运行时(CUDA runtime)驱动程序(目前在标准的NVIDIA GPU驱动中也提供) CUDA编程手册 CUDA开发者软件开发包(SDK)提供了一些范例(附有源代码),以帮助使用者开始CUDA编程。这些范例包括:并行双调排序、矩阵乘法、矩阵转置、利用计时器进行性能评价、并行大数组的前缀和(扫描)、图像卷积使用Haar小波的一维DWT OpenGL和Direct3D图形互操作示例 CUDA BLAS和FFT库的使用示例 CPU-GPU C—和C++—代码集成 二项式期权定价模型 Black-Scholes期权定价模型 Monte-Carlo期权定价模型 并行Mersenne Twister(随机数生成) 并行直方图 图像去噪 Sobel边缘检测滤波器 MathWorks MATLAB? 插件(点击这里下载) 新的基于1.1版CUDA的SDK 范例现在也已经发布了。 技术功能 在GPU(图形处理器)上提供标准C编程语言 为在支持CUDA的NVIDIA GPU(图形处理器)上进行并行计算而提供了统一的软硬件解决方案 CUDA兼容的GPU(图形处理器)包括很多:从低功耗的笔记本上用的GPU到高性能的,多GPU的系统。 支持CUDA的GPU(图形处理器)支持并行数据缓存和线程执行管理器 标准FFT(快速傅立叶变换)和BLAS(基本线性代数子程序)数值程序库 针对计算的专用CUDA驱动 经过优化的,从中央处理器(CPU)到支持CUDA的GPU(图形处理器)的直接上传、下载通道 CUDA驱动可与OpenGL和DirectX图形驱动程序实现互操作 支持Linux 32位/64位以及Windows XP 32位/64位操作系统 为了研究以及开发语言的目的,CUDA提供对驱动程序的直接访问,以及汇编语言级的访问。 使用了CUDA的GPU计算通过标准的C语言将下一代NV GPU的总多计算特性结合到一起。在这之前的GPU 是基于“流式着色程序”的,CUDA则使用C语言,通过“线程”来创建应用程序,这类似于CPU上的多线程程序。相比较于仅能有很少线程同时工作的多核CPU的而言,NV GPU的特性可以让CUDA同时执行数千个线程,这将令我们的应用能处理更多的信息流。 CUDA所提供的最重要的创新在于,它使得工作在GPU上的线程可以协作解决问题。在线程间通讯实现以后,CUDA将允许应用程序更加高效的执行。由NV GPUs的支持,CUDA有一个直接在GPU上的并行计算缓存,它用于

显卡GPU封装形式

显卡上GPU图形芯片的具体封装形式 TSOP (Thin Small Out-Line Package) 薄型小尺寸封装 QFP (Quad Flat Package) 小型方块平面封装 MicroBGA (Micro Ball Grid Array) 微型球闸阵列封装,又称FBGA(Fine-pitch Ball Grid Array) 目前的主流显卡基本上是用TSOP和MBGA封装,其中又以TSOP封装居多. 制造工艺 制造工艺指得是在生产GPU过程中,要进行加工各种电路和电子元件,制造导线连接各个元器件。通常其生产的精度以um(微米)来表示,未来有向nm(纳米)发展的趋势(1mm=1000um 1um=1000nm),精度越高,生产工艺越先进。在同样的材料中可以制造更多的电子元件,连接线也越细,提高芯片的集成度,芯片的功耗也越小。 制造工艺的微米是指IC内电路与电路之间的距离。制造工艺的趋势是向密集度愈高的方向发展。密度愈高的IC电路设计,意味着在同样大小面积的IC中,可以拥有密度更高、功能更复杂的电路设计。微电子技术的发展与进步,主要是靠工艺技术的不断改进,使得器件的特征尺寸不断缩小,从而集成度不断提高,功耗降低,器件性能得到提高。芯片制造工艺在1995年以后,从0.5微米、0.35微米、0.25微米、0.18微米、0.15微米、0.13微米,再到目前主流的 90 纳米(0.09纳米) 、65 纳米等。 核心频率 显卡的核心频率是指显示核心的工作频率,其工作频率在一定程度上可以反映出显示核心的性能,但显卡的性能是由核心频率、显存、像素管线、像素填充率等等多方面的情况所决定的,因此在显示核心不同的情况下,核心频率高并不代表此显卡性能强劲。比如9600PRO 的核心频率达到了400MHz,要比9800PRO的380MHz高,但在性能上9800PRO绝对要强于9600PRO。在同样级别的芯片中,核心频率高的则性能要强一些,提高核心频率就是显卡超频的方法之一。显示芯片主流的只有ATI和NVIDIA两家,两家都提供显示核心给第三方的厂商,在同样的显示核心下,部分厂商会适当提高其产品的显示核心频率,使其工作在高于显示核心固定的频率上以达到更高的性能。

相关主题
文本预览
相关文档 最新文档