本次作业中,有2个函数需要修改:

其中第二个比较简单,我们先讲第二个。

rayTriangleIntersect():在Triangle.hpp中

按照PPT公式来实现即可。

需要注意的点是:公式中的b1 b2 (1-b1-b2)分别代表了三角形中心坐标中的α,β,γ,计算完之后,除了要验证 t 是否为正, 还要验证b1 b2 (1-b1-b2)是否在三角形内!

实现代码如下:

// TODO: Implement this function that tests whether the triangle
// that's specified bt v0, v1 and v2 intersects with the ray (whose
// origin is *orig* and direction is *dir*)
// Also don't forget to update tnear, u and vbool rayTriangleIntersect(const Vector3f& v0, const Vector3f& v1, const Vector3f& v2, const Vector3f& orig,const Vector3f& dir, float& tnear, float& u, float& v)
{Vector3f e1 = v1 - v0;Vector3f e2 = v2 - v0;Vector3f s = orig - v0;Vector3f s1 = crossProduct(dir, e2);Vector3f s2 = crossProduct(s, e1);float dividend = dotProduct(s1, e1);Vector3f divisor = {dotProduct(s2, e2),dotProduct(s1, s),dotProduct(s2, dir)};Vector3f result = divisor / dividend;tnear = result.x;u = result.y;v = result.z;// check: t >= 0 and b1,b2,(1-b1-b2) inside triangleif (tnear > 0 && u >= 0 && v >= 0 && (1.0f-u-v) >= 0) return true;return false;
}

有参考:GAMES101-作业5_StrangerMQ的博客-CSDN博客_games101 作业5

Render():在Renderer.cpp中

详细解释参见(英文阅读注意!):Ray-Tracing: Generating Camera Rays (Generating Camera Rays)

我这里讲一些重要的步骤:

1. 首先,将Raster space转换为NDC space(范围[0,1]),使用如下公式:

转换前后的示意图:

 转换前 VS 转换后

2. 然后,将NDC space转换为Screen Space,使用如下公式:

但是请注意,对于这个等式,PixelScreen_y对于本应该位于 x 轴上方的y值为负数,对于本应该位于下方的y值则为正数,例如:
① 在NDC space中,y=0.4,转换后y'=2y-1=-0.2,位于x轴下方。

② 在在NDC space中,y=0.6,转换后y'=2y-1=0.2,位于x轴上方。

我们可以使用如下的公式来修正这个问题

转换前 VS 转换后

3. 将Screen space转换为Camera space

由于图像的宽高不同,屏幕的总像素空间并不是标准正方形。为了纠正这个问题,我们需要通过Image Aspect Ratio沿 x 轴缩放图像平面,该比例值可以通过将图像的height / width(以像素为单位)计算得出。

综上,x值的最终范围应为[-Image Aspect Ratio, Image Aspect Ratio]。

变换公式如下:

以上变换过程的示意图:

然后我们再考虑相机的fov:

这个操作改变了我们看到的场景的多少,相当于放大(当fov减小时我们看到的场景更少,但像素长宽不变,遂相当于放大)和缩小(当fov增加时)。总之,我们可以根据角度 α 来定义相机的视野,并将屏幕像素坐标乘以tan(α/2)。

使用公式如下:

最终,这个点已经处于camera space中。 当camera在其默认位置时,camera坐标系和世界坐标系是对齐的。 该点位于距离camera原点 1 个单位的图像平面上,但请记住,相机也沿负 z 轴对齐。 因此我们可以将像素在图像平面上的最终坐标(3D)表示为:

最终实现代码如下:

// [comment]
// The main render function. This where we iterate over all pixels in the image, generate
// primary rays and cast these rays into the scene. The content of the framebuffer is
// saved to a file.
// [/comment]void Renderer::Render(const Scene& scene)
{std::vector<Vector3f> framebuffer(scene.width * scene.height);float scale = std::tan(deg2rad(scene.fov * 0.5f));float imageAspectRatio = scene.width / (float)scene.height;// Use this variable as the eye position to start your rays.Vector3f eye_pos(0);int m = 0;for (int j = 0; j < scene.height; ++j){for (int i = 0; i < scene.width; ++i){// generate primary ray direction// TODO: Find the x and y positions of the current pixel to get the direction// vector that passes through it.// Also, don't forget to multiply both of them with the variable *scale*, and// x (horizontal) variable with the *imageAspectRatio*float x = (2 * (i + 0.5) / (float)scene.width - 1) * imageAspectRatio * scale; float y = (1 - 2 * (j + 0.5) / (float)scene.height) * scale; Vector3f dir = Vector3f(x, y, -1); // Don't forget to normalize this direction!dir = normalize(dir);framebuffer[m++] = castRay(eye_pos, dir, scene, 0);}UpdateProgress(j / (float)scene.height);}// save framebuffer to fileFILE* fp = fopen("binary.ppm", "wb");(void)fprintf(fp, "P6\n%d %d\n255\n", scene.width, scene.height);for (auto i = 0; i < scene.height * scene.width; ++i) {static unsigned char color[3];color[0] = (char)(255 * clamp(0, 1, framebuffer[i].x));color[1] = (char)(255 * clamp(0, 1, framebuffer[i].y));color[2] = (char)(255 * clamp(0, 1, framebuffer[i].z));fwrite(color, 1, 3, fp);}fclose(fp);
}

最终渲染的效果如图:

【Games101 作业5】光线追踪 渲染小球相关推荐

  1. GAMES101作业5-从头到尾理解代码Whitted光线追踪

    目录 Whitted Ray-Tracing Whitted光线追踪 What Why How 1 发射主射线primary ray 实现步骤 (1)定义相机 (2)计算primary主射线的方向 R ...

  2. GAMES101作业7提高-实现微表面模型你需要了解的知识

    目录 微表面材质模型 微平面理论 Microfacet Theory BSDF(浅浅的提一下) 微表面BRDF的实现 Cook-Torrance BRDF 漫反射的BRDF 镜面反射的BRDF 1 法 ...

  3. GAMES101作业7-路径追踪实现过程代码框架超全解读

    目录 Path Tracing算法过程讨论 蒙特卡洛积分 直接光照 direct illumination 间接光照 indirect illumination ​编辑 合成全局光照 解决一些存在的问 ...

  4. 计算机图形学【GAMES-101】11、渲染前沿技术介绍(双向路径追踪BDPT、MLT、光子映射、实时辐射度、外观建模)

    快速跳转: 1.矩阵变换原理Transform(旋转.位移.缩放.正交投影.透视投影) 2.光栅化(反走样.傅里叶变换.卷积) 3.着色计算(深度缓存.着色模型.着色频率) 4.纹理映射(重心坐标插值 ...

  5. 计算机图形学学习笔记——Whitted-Style Ray Tracing(GAMES101作业5讲解)

    计算机图形学学习笔记--Whitted-Style Ray Tracing GAMES101作业5讲解 遍历所有的像素生成光线 光线与平面求交 遍历所有的像素生成光线 关于作业五中如何遍历所有的像素, ...

  6. 通俗傻瓜式理清光栅化渲染和光线追踪渲染的原理

    本文适合完全不了解渲染又想略窥一二的兴趣朋友,我也非大牛,仅写下自己粗略的理解,内容上难免会有错漏,如果你发现有误的地方,欢迎交流修改.文中部分图片来源网络,如侵权请联系,我马上修改. 1.让你做渲染 ...

  7. 纯c++实现光线追踪渲染器

    这是一个几年前用c++实现的光线追踪渲染器,使用cpu多线程计算,没有使用任何gpu加速.最后画面的呈现也是使用的gdi绘制,没有使用d3d或ogl.不同于某些基于shader的光线追踪限制性太大,对 ...

  8. games101 作业4

    games101 作业4 任务说明 Bézier 曲线是一种用于计算机图形学的参数曲线.在本次作业中,你需要实现 de Casteljau 算法来绘制由 4 个控制点表示的 Bézier 曲线 (当你 ...

  9. 光线追踪渲染实战:蒙特卡洛路径追踪及其c++实现

    项目代码仓库: GitHub:https://github.com/AKGWSB/EzRT gitee:https://gitee.com/AKGWSB/EzRT 目录 写在前面 光线追踪简介 渲染方 ...

最新文章

  1. VS2017项目打包为exe和setup
  2. 亚马逊:区块链模块化,造币流水线化
  3. 东南亚下半年做什么产品好?解读Lazadashopee服装类热销及需求品类
  4. 技术系列课回顾 | 浅谈 Serverless 开发和应用
  5. 页面未加载完时报的错误
  6. 实例10:python
  7. Android之View绘制流程开胃菜---setContentView(...)详细分析
  8. canny算子_在Python中逐步检测Canny边缘 计算机视觉
  9. ModelSim使用$display查看变量值和输出信息
  10. wsdl2java工具生成客户端代码
  11. c语言编译器代码及翻译,在线C语言编译器/解释器
  12. 搭建STM32的开发环境
  13. 网闸可以设置端口映射吗_路由器的外部端口和内部端口映射如何设置?
  14. Android 插件化换肤 思路及实现
  15. DELPHI盒子上的RAD studio 2010安装过程及体验(超多图)
  16. oracle psu无法开库,Oracle 12.2应用PSU后数据库无法启动
  17. Python get-pip.py文件
  18. 【折腾服务器 1】妖板 Intel N5105 + i226 主板安装 ESXi 7.0 教程
  19. 神经系统位置图高清,中枢神经系统位置图
  20. 申请专利 服务器拒收怎么找回,找回或修改登录密码的方法及装置专利_专利申请于2014-10-23_专利查询 - 天眼查...

热门文章

  1. 高端人造麂皮的全球与中国市场2022-2028年:技术、参与者、趋势、市场规模及占有率研究报告
  2. 弟子规(清朝·李毓秀)
  3. 数字电视将成笔记本电脑标配
  4. [转]2013个人淘金时代渐渐落幕 市场风标指向团队开发
  5. 把注意力放在行业数字化转型的“边缘计算产业联盟”正式成立
  6. paper review : On Learning Associations of Faces and Voices
  7. 【北医三院】生孩、出院等事宜
  8. mac开发-10.15检测屏幕录制权限
  9. 王垠:清华梦的粉碎—写给清华大学的退学申请
  10. java jconsole 远程服务器_JConsole监控远程Tomcat服务器 遇到的坑