GPU vs CPU
由于 GPU 具有高并行结构(highly parallel structure),所以 GPU 在处理图形数据和复杂算法方面拥有比 CPU 更高的效率。 图 1 GPU VS
CPU 展示了 GPU 和 CPU 在结构上的差异,CPU 大部分面积为控制器和寄存器,与之相比,GPU 拥有更多的 ALU(Arithmetic Logic Unit,逻辑运算单元)用于数据处理,而非数据高速缓存和流控制,这样的结构适合对密集型数据进行并行处理。CPU 执行计算任务时,一个时刻只处理一个数据,不存在真正意义上的并行(请回忆 OS 教程上的时间片轮转算法),而 GPU 具有多个处理器核,在一个时刻可以并行处理多个数据。GPU 采用流式并行计算模式,可对每个数据进行独立的并行计算,所谓“对数据进行独立计算”,即,流内任意元素的计算不依赖于其它同类型数据,例如,计算一个顶点的世界位置坐标,不依赖于其他顶点的位置。而所谓“并行计算”是指“多个数据可以同时被使用,多个数据并行运算的时间和 1 个数据单独执行的时间是一样的”。 图 2 中代码目的是提取 2D 图像上每个像素点的颜色值,在CPU 上运算的 C++代码通过循环语句依次遍历像素;而在 GPU 上,则只需要一条语句就足够。可能有人会问道:既然 GPU 在数据处理速度方面远胜 CPU,为什么不用GPU 完全取代 CPU 呢?实际上,关于 GPU 取代 CPU 的论调时有出现,但是作者本人并不同意这种观点,因为 GPU 在许多方面与 CPU 相比尚有不如。首先,虽然 GPU 采用数据并行处理方式极大加快了运算速度,但正是由于“任意一个元素的计算不依赖于其它同类型数据”,导致“需要知道数据之间相关性的”算法,在 GPU 上难以得到实现(但在 CPU 上则可以方便的实现),一个典型的例子是射线与不规则物体的求交运算。
在《实时计算机图形学》一书中,将图形绘制管线分为三个主要阶段:应用
程序阶段、几何阶段、光栅阶段。
应用程序阶段,使用高级编程语言(C、C++、JAVA 等)进行开发,主要和CPU、内存打交道,诸如碰撞检测、场景图建立、空间八叉树更新、视锥裁剪等经典算法都在此阶段执行。在该阶段的末端,几何体数据(顶点坐标、法向量、纹理坐标、纹理等)通过数据总线传送到图形硬件(时间瓶颈);数据总线是一个可以共享的通道,用于在多个设备之间传送数据;端口是在两个设备之间传送数据的通道;带宽用来描述端口或者总线上的吞吐量,可以用每秒字节(b/s)来度量,数据总线和端口(如加速图形端口,Accelerated Graphic Port,AGP)将不同的功能模块“接”一起。由于端口和数据总线均具有数据传输能力,因此通常也将端口认为是数据总线(实时计算机图形学 387 页)。几何阶段,主要负责顶点坐标变换、光照、裁剪、投影以及屏幕映射(实时计算机图形学 234 页),该阶段基于 GPU 进行运算,在该阶段的末端得到了经过变换和投影之后的顶点坐标、颜色、以及纹理坐标(实时计算机图形学 10 页)。光栅阶段,基于几何阶段的输出数据,为像素(Pixel)正确配色,以便绘制完整图像,该阶段进行的都是单个像素的操作,每个像素的信息存储在颜色缓冲器(color buffer 或者 frame buffer)中。值得注意的是:光照计算属于几何阶段,因为光照计算涉及视点、光源和物体的世界坐标,所以通常放在世界坐标系中进行计算;而雾化以及涉及物体透明度的计算属于光栅化阶段,因为上述两种计算都需要深度值信息(Z 值),而深度值是在几何阶段中计算,并传递到光栅阶段的。
根据顶点坐标变换的先后顺序,主要有如下几个坐标空间,或者说坐标类型:Object space,模型坐标空间;World space,世界坐标系空间;Eye space,观察坐标空间;Clip and Project space,屏幕坐标空间。图 3 表述了 GPU 的整个处理流程,其中茶色区域所展示的就是顶点坐标空间的变换流程。大家从中只需得到一个大概的流程顺序即可,下面将详细阐述空间变换的每个独立阶段。
从 object space 到 world space
When an artist creates a 3D model of an object, the artist selects a convenient
orientation and position with which to place the model’s continent vertices.
The object space for one object may have no relationship to the object space of
another object.【3】
上述语句表示了 object space 的两层核心含义:其一,object space coordinate就是模型文件中的顶点值,这些值是在模型建模时得到的,例如,用 3DMAX 建立一个球体模型并导出为.max 文件,这个文件中包含的数据就是 object spacecoordinate;其二,object space coordinate 与其他物体没有任何参照关系,注意,这个概念非常重要,它是将 object space coordinate 和 world space coordinate 区分开来的关键。无论在现实世界,还是在计算机的虚拟空间中,物体都必须和一个固定的坐标原点进行参照才能确定自己所在的位置,这是 world space coordinate
的实际意义所在。毫无疑问,我们将一个模型导入计算机后,就应该给它一个相对于坐标原点的位置,那么这个位置就是 world space coordinate,从 object space coordinate 到world space coordinate 的变换过程由一个四阶矩阵控制,通常称之为 world matrix。光照计算通常是在 world coordinate space(世界坐标空间)中进行的,这也符合人类的生活常识。当然,也可以在 eye coordinate space 中得到相同的光照效果,因为,在同一观察空间中物体之间的相对关系是保存不变的。需要高度注意的是:顶点法向量在模型文件中属于 object space,在 GPU 的顶点程序中必须将法向量转换到 world space 中才能使用,如同必须将顶点坐标从 object space 转换到 world space 中一样,但两者的转换矩阵是不同的,准确的说,法向量从 object space 到 world space 的转换矩阵是 world matrix 的转置矩阵的逆矩阵(许多人在顶点程序中会将两者的转换矩阵当作同一个,结果会出现难以查找的错误)。(参阅潘李亮的 3D 变换中法向量变换矩阵的推导一文)
从 world space 到 eye space
每个人都是从各自的视点出发观察这个世界,无论是主观世界还是客观世界。同样,在计算机中每次只能从唯一的视角出发渲染物体。在游戏中,都会提供视点漫游的功能,屏幕显示的内容随着视点的变化而变化。这是因为 GPU 将物体顶点坐标从 world space 转换到了 eye space。所谓 eye space,即以 camera(视点或相机)为原点,由视线方向、视角和远近平面,共同组成一个梯形体的三维空间,称之为 viewing frustum(视锥),如 图 4 所示。近平面,是梯形体较小的矩形面,作为投影平面,远平面是梯形体较大的矩形,在这个梯形体中的所有顶点数据是可见的,而超出这个梯形体之外的场景数据,会被视点去除(Frustum Culling,也称之为视锥裁剪)。
从 eye space 到 project and clip space
Once positions are in eye space, the next step is to determine what positions are actually viewable in the image you eventually intend trend.【3】
即:一旦顶点坐标被转换到 eye space 中,就需要判断哪些点是视点可见的。位于 viewing frustum 梯形体以内的顶点,被认定为可见,而超出这个梯形体之外的场景数据,会被视点去除(Frustum Culling,也称之为视锥裁剪)。这一步通常称之为“clip(裁剪)”,识别指定区域内或区域外的图形部分的过程称之为裁剪算法。很多人在理解该步骤时存在一个混乱,即“不清楚裁减与投影的关系和两者发生的先后顺序”,不少人觉得是“先裁减再投影”,不过事实并非如此。因为在不规则的体(viewing frustum)中进行裁剪并非易事,所以经过图形学前辈们的精心分析,裁剪被安排到一个单位立方体中进行,该立方体的对角顶点分别是(-1,-1,-1)和(1,1,1),通常称这个单位立方体为规范立方体(Canonical view volume,CVV)(实时计算机图形学第 9 页)。CVV 的近平面(梯形体较小的矩形面)的X、Y 坐标对应屏幕像素坐标(左下角是 0、0),Z 坐标则是代表画面像素深度。多边形裁剪就是 CVV 中完成的。所以,从视点坐标空间到屏幕坐标空间(screen coordinate space)事实上是由三步组成:
1. 用透视变换矩阵把顶点从视锥体中变换到裁剪空间的 CVV 中;
2. 在 CVV 进行图元裁剪;
3. 屏幕映射:将经过前述过程得到的坐标映射到屏幕坐标系上。
在这里,我们尤其要注意第一个步骤,即把顶点从 viewing frustum 变换到CVV 中,这个过程才是我们常说或者听说的“投影”。主要的投影方法有两种:正投影(也称平行投影)和透视投影。由于投影投影更加符合人类的视觉习惯,所以在附录中会详细讲解透视投影矩阵的推导过程,有兴趣的朋友可以查阅潘宏(网名 Twinsen)的“透视投影变换推导”一文。更详细全面的投影算法可以近一步阅读《计算机图形学(第二版)》第 12 章第 3 节。确定只有当图元完全或部分的存在于视锥内部时,才需要将其光栅化。当一个图元完全位于视体(此时视体以及变换为 CVV)内部时,它可以直接进入下一个阶段;完全在视体外部的图元,将被剔除;对于部分位于视体内的图元进行裁减处理。详细的裁剪算法可以近一步阅读《计算机图形学(第二版)》第 12章第 5 节。附 1:透视投影矩阵的推导过程,建议阅读潘宏(网名 Twinsen)的“透视投影变换推导”一文。
附 2:视点去除,不但可以在 GPU 中进行,也可以使用高级语言(C\C++)在 CPU 上实现。使用高级语言实现时,如果一个场景实体完全不在视锥中,则该实体的网格数据不必传入 GPU,如果一个场景实体部分或完全在视锥中,则该实体网格数据传入 GPU 中。所以如果在高级语言中已经进行了视点去除,那么可以极大的减去 GPU 的负担。使用 C++进行视锥裁剪的算法可以参阅 OGRE(Object-Oriented Graphics Rendering Engine,面向对象的图形渲染引擎)的源码。
Primitive Assembly && Triangle setup
Primitive Assembly,图元装配,即将顶点根据 primitive(原始的连接关系),还原出网格结构。网格由顶点和索引组成,在之前的流水线中是对顶点的处理,在这个阶段是根据索引将顶点链接在一起,组成线、面单元。之后就是对超出屏幕外的三角形进行裁剪,想象一下:一个三角形其中一个顶点在画面外,另外两个顶点在画面内,这是我们在屏幕上看到的就是一个四边形。然后将该四边形切成两个小的三角形。此外还有一个操作涉及到三角形的顶点顺序(其实也就是三角形的法向量朝向),根据右手定则来决定三角面片的法向量,如果该法向量朝向视点(法向量与到视点的方向的点积为正),则该面是正面。一般是顶点按照逆时针排列。如果该面是反面,则进行背面去除操作(Back-face Culling)。在 OpenGL 中有专门的函数 enable 和 disable 背面去除操作。所有的裁剪剔除计算都是为了减少需要绘制的顶点个数。附:在 2.2 和 2.3 节都提到了裁减的概念,实际裁减是一个较大的概念,为了减少需要绘制的顶点个数,而识别指定区域内或区域外的图形部分的算法都称之为裁减。裁减算法主要包括:视域剔除(View Frustum Culling)、背面剔除(Back-Face Culling)、遮挡剔除(Occlusing Culling)和视口裁减等
2.3 光栅化阶段
2.3.1 Rasterization
光栅化:决定哪些像素被集合图元覆盖的过程(Rasterization is the process of determining the set of pixels covered by a geometric primitive)。经过上面诸多坐标转换之后,现在我们得到了每个点的屏幕坐标值(Screen coordinate),也知道我们需要绘制的图元(点、线、面)。但此时还存在两个问题,
问题一:点的屏幕坐标值是浮点数,但像素都是由整数点来表示的,如果确
定屏幕坐标值所对应的像素?
问题二:在屏幕上需要绘制的有点、线、面,如何根据两个已经确定位置的
2 个像素点绘制一条线段,如果根据已经确定了位置的 3 个像素点绘制一个三角
形面片?
首先回答一下问题一,“绘制的位置只能接近两指定端点间的实际线段位置,例如,一条线段的位置是(10.48,20.51),转换为像素位置则是(10,21)”(计算机图形学(第二版)52 页)。对于问题二涉及到具体的画线算法,以及区域图元填充算法。通常的画线算法有 DDA 算法、Bresenham 画线算法;区域图元填充算法有,扫描线多边形填充算法、边界填充算法等,具体请参阅《计算机图形学(第二版)》第 3 章。这个过程结束之后,顶点(vertex)以及绘制图元(线、面)已经对应到像素(pixel)。下面阐述的是“如何处理像素,即:给像素赋予颜色值”。
2.3.2 Pixel Operation
Pixel operation 又称为 Raster Operation(在文献【2】中是使用 RasterOperation),是在更新帧缓存之前,执行最后一系列针对每个片段的操作,其目的是:计算出每个像素的颜色值。在这个阶段,被遮挡面通过一个被称为深度测试的过程而消除,这其中包含了很多种计算颜色的方法以及技术。Pixel operation包含哪些事情呢?
1:消除遮挡面
2:Texture operation,纹理操作,也就是根据像素的纹理坐标,查询对应的
纹理值;
3:Blending混色,根据目前已经画好的颜色,与正在计算的颜色的透明度(Alpha),混合为两种颜色,作为新的颜色输出。通常称之为 alpha 混合技术。 当在屏幕上绘制某个物体时,与每个像素都相关联的哟一个 RGB 颜色值和一个 Z 缓冲器深度值,另外一个称为是 alpha 值,可以根据需要生成并存储,用来描述给定像素处的物体透明度。如果 alpha 值为 1.0,则表示物体不透明;如果值为 0,表示该物体是透明的,从绘制管线得到一个 RGBA,使用 over 操作符将该值与原像素颜色值进行混合,此外还需要提醒的一点是:为了在场景中绘制透明物体,通常需要对物体进行排序。首先,绘制不透明的物体;然后,在不透明物体的上方,对透明物体按照由后到前的顺序进行混合处理。如果按照任意顺序进行混合,那么会产生严重的失真。既然需要排序,那么就需要用到 z buffer。关于透明度、合成的相关知识点,可以在《实时计算机图形学(第二版)》第四章 4.5 节(59 页)中得到更多详尽的知识。
4:Filtering,将正在算的颜色经过某种 Filtering(滤波或者滤镜)后输出。可以理解为:经过一种数学运算后变成新的颜色值。该阶段之后,像素的颜色值被写入帧缓存中。 图 5 来自文献【2】1.2.3,说明了像素操作的流程:
Z Buffer 与 与 Z
Z buffer 应该是大家最为熟悉的缓冲区类型,又称为 depth buffer,即深度缓冲区,其中存放的是视点到每个像素所对应的空间点的距离衡量,称之为 Z 值或者深度值。可见物体的 Z 值范围位于【0,1】区间,默认情况下,最接近眼睛的顶点(近裁减面上)其 Z 值为 0.0,离眼睛最远的顶点(远裁减面上)其 Z值为 1.0。使用 z buffer 可以用来判断空间点的遮挡关系,著名的深度缓冲区算法(depth-buffer method,又称 Z 缓冲区算法)就是对投影平面上每个像素所对应的 Z 值进行比较的。
Stencil Buffer
Stencil buffer, 中文翻译为 “ 模板缓冲区 ” ,它是一个额外的 buffer ,通常附加到 z buffer 中,例如: 15 位的 z buffer 加上 1 位的 stencil buffer( 总共 2 个字节 ) ;或者 24 位的 z buffer 加上 8 位的 stencil buffer (总共 4 个字节)。每个像素对应一个 stencil buffer( 其实就是对应一个 Z buffer) 。 Z buffer 和 stencil buffer 通常在显存中共享同一片区域。 Stencil buffer 对大部分人而言应该比较陌生,这是一个用来 “ 做记号 ” 的 buffer ,例如:在一个像素的 stencil buffer 中存放 1 ,表示该像素对应的空间点处于阴影体( shadow volume )中。
Frame Buffer
Frame buffer ,称为帧缓冲器,用于存放显示输出的数据,这个 buffer 中的数据一般是像素颜色值。 Frame buffer 有时也被认为是 color buffer (颜色缓冲器)和 z buffer 的组合(《实时计算机图形学(第二版)》 12 页)。那么 frame buffer 位于什么地方呢?webMediaBrands 网站上摘录了一段英文说明,即 frame buffer通常都在显卡上,但是有时显卡会集成到主板上,所以这种情况下 frame buffer被放在内存区域( general main memory )。

GPU 图形绘制管线相关推荐

  1. 计算机图形学绘制多边形代码_《GPU编程与CG语言之阳春白雪下里巴人》- 第二章(GPU 图形绘制管线)...

    第二章 GPU 图形绘制管线 万事开头难,每门科学都是如此. ------ 马克思 图形绘制管线描述 GPU 渲染流程,即"给定视点.三维物体.光源.照明模式,和纹理等元素,如何绘制一幅二维 ...

  2. GPU图形绘制管线(一)

    摘自康玉之<GPU编程与CG语言之阳春白雪下里巴人>第二章,侵删. 图形绘制管线描述 GPU 渲染流程,即"给定视点.三维物体.光源.照明模 式,和纹理等元素,如何绘制一幅二维图 ...

  3. (转)GPU图形绘制管线

    摘抄"GPU Programming And Cg Language Primer 1rd Edition" 中文名"GPU编程与CG语言之阳春白雪下里巴人"第 ...

  4. libgdx 图形绘制

    纹理(texture) 一个图片从原始格式解码并上传到GPU就被称为纹理.OpenGL要求纹理的高度和宽度都必须是2的n次方大小,只有满足这个条件纹理图片才是有效的. 一旦获取了像素值,我们就可以将这 ...

  5. 利用GPU实时绘制水墨画效果

    2009-8-11 作者: 陈为 张海嵩 于金辉 来源: 万方数据 关键字: GPU 非真实感绘制 硬件加速绘制 动画 系统可实时绘制中国山水画中常见的物体并生成视频输出,它包括5 个模块:多通道技术 ...

  6. matlab图形绘制基础(东北大学MOOC笔记)

    %% 二维图形绘制 % 多纵轴曲线绘制 figure(1); t = 0:0.01:2*pi; y1 = sin(t); y2 = 10*cos(t); % plotyy(t, y1, t, y2); ...

  7. tableau两个不同的图合并_Tableau可视化分析-业务常用图形绘制1

    微信公众号链接: Tableau可视化分析-业务常用图形绘制1​mp.weixin.qq.com 哑铃图VS 火柴图 哑铃图,又名DNA图,横着看是哑铃,竖着看就是DNA,它主要用来表现两个数据点之间 ...

  8. c++之openGL在VS中的配置及简单图形绘制

    VS中openGL的配置 相关资源下载: 链接:https://pan.baidu.com/s/1hRlxbckgLsNiS87k5CPvLg 提取码:tz87 以vs2010为例: 将下载的压缩包解 ...

  9. 13个JavaScript图表图形绘制插件

    由于绘制矢量图的不同技术愈发成熟以及现代浏览器所具备的更强大的计算能力等原因,目前网上出现了越来越多免费 的JavaScript图表和图形绘制解决方案.在本文中就将分享13个优秀实用的JavaScri ...

最新文章

  1. MultiObjective using Evolutionary Algorithms (2) -- Multi-Objective Optimization
  2. 2021年结婚登记创36年新低,六大原因值得注意
  3. ABAP单元帮助类的两种使用方式
  4. Python中的traceback模块
  5. 嵌入式指针embedded pointer的概念以及用法
  6. 有效创建Oracle dblink的两种方式
  7. Chapter7-13_Dialogue State Tracking (as Question Answering)
  8. jQuery 遍历:思路总结,项目场景中如何处理/控制获取的 each 遍历次数?
  9. Python __str__() 方法
  10. java已知 求p_Java 0520 第五次课作业
  11. Java并发编程-常用的辅助类
  12. JavaScript中大数相加的解法
  13. MAVEN插件打包SNAPSHOT包MANIFEST.MF中Class-Path带时间戳的问题
  14. 设某一机器由n个部件组成_干货 | 带你了解!工业机器人知识大全
  15. 木马的原理:解析危险的特洛伊木马恶意程序(转)
  16. 区块链开发入门到精通
  17. 买了一个西瓜,切开后傻眼,这是冬瓜出轨了?还是西瓜变心了?
  18. 重拾呐些記憶,前面の路,獨自繼續前往。
  19. 移动软件开发定制那些事
  20. Vue 子组件接收到父组件传的值之后再渲染页面

热门文章

  1. 学习防诈骗知识答题活动赢话费策划方案
  2. 软考和计算机等级考试相比,谁更有用?
  3. DS18B20与LCD1602温度测量显示案例
  4. linux关机和重启名称,Linux关机命令和重启命令
  5. 老闪创业那些事儿(外传)——老方讲融资
  6. 1:9 error Component name ““ should always be multi-word
  7. GPS时间序列分析(三)matlab语言分析
  8. Java详细解析之Bean作用域
  9. 100条教育信条送给父母
  10. 上下行链路NOMA的比较