摘要: d3d12龙书阅读 绘制几何体(上) 课后习题 练习1 完成相应的顶点结构体的输入-布局对象 typedef struct D3D12_INPUT_ELEMENT_DESC { 一个特定字符串 将顶点结构体数组里面的顶点映射到顶点着色器的输入签名 LPCSTR SemanticName; 语义索引 阅读全文
posted @ 2024-05-19 17:51 dyccyber 阅读(104) 评论(0) 推荐(0) 编辑
摘要: d3d12龙书阅读 绘制几何体(下) 本节在上一节的基础上,对整个绘制过程进行优化,将绘制单个几何体的内容拓展到了多个几何体,同时对根签名进行了进一步地探索。 帧资源 在之前绘制每帧的结尾,a56爆大奖在线娱乐们都要使用flushingcommandqueue方法,要一直等待gpu执行完所有命令,才会继续绘制下一帧, 阅读全文
posted @ 2024-05-10 21:42 dyccyber 阅读(177) 评论(0) 推荐(1) 编辑
摘要: BRDF101 概述 a56爆大奖在线娱乐基于知乎Maple对brdf的文章,在此基础又收集了一些其它来源的关于brdf的文章,希望能够完全理解记忆相关知识 关于Jakub Boksansky的文章,看的过程中又去搜集了很多其它文章来理解,发现已经超出了a56爆大奖在线娱乐目前的知识厚度,因此只会简单的翻译一下a56爆大奖在线娱乐能理解的部分,感兴趣 阅读全文
posted @ 2024-04-25 17:23 dyccyber 阅读(104) 评论(0) 推荐(0) 编辑
摘要: d3d12龙书阅读 绘制几何体(上) 本节主要介绍了构建一个简单的彩色立方体所需流程与重要的api 下面主要结合立方体代码分析本节相关知识 顶点 输入装配器阶段的输入 首先,a56爆大奖在线娱乐们需要定义立方体的八个顶点 顶点结构体: struct Vertex { XMFLOAT3 Pos; XMFLOAT4 Co 阅读全文
posted @ 2024-03-27 13:49 dyccyber 阅读(157) 评论(0) 推荐(1) 编辑
摘要: d3d12龙书阅读 d3d渲染流水线 输入装配器阶段 在输入装配器阶段,会从显存中读取顶点与索引这种几何数据,然后根据图形基元的类型,根据索引将顶点组装起来。 d3d中的图形基元 a56爆大奖在线娱乐们来看看几种常见的图形基元类型: typedef enum D3D12_PRIMITIVE_TOPOLOGY_TYPE 阅读全文
posted @ 2024-03-16 17:23 dyccyber 阅读(164) 评论(0) 推荐(0) 编辑
摘要: d3d12龙书阅读 Direct3D的初始化 使用d3da56爆大奖在线娱乐们可以对gpu进行控制与编程,以硬件加速的方式来完成3d场景的渲染,d3d层与硬件驱动会将相应的代码转换成gpu可以执行的机器指令,与之前的版本相比,d3d12大大减少了cpu的开销,同时也改进了对多线程的支持,但是使用的api也更加复杂。 阅读全文
posted @ 2024-03-12 19:57 dyccyber 阅读(68) 评论(0) 推荐(0) 编辑
摘要: d3d12龙书阅读 数学基础 向量代数、矩阵代数、变换 directx 采用左手坐标系 点积与叉积 点积与叉积的正交化 使用点积进行正交化 使用叉积进行正交化 矩阵与矩阵乘法 转置矩阵 单位矩阵 逆矩阵 矩阵行列式 变换 旋转矩阵 坐标变换 利用DirectXMath库进行向量运算、矩阵运算以及空间 阅读全文
posted @ 2024-02-01 20:09 dyccyber 阅读(80) 评论(0) 推荐(1) 编辑
摘要: 透视深度插值矫正与抗锯齿分析 深度插值的差错原因 透视深度插值公式推导 games101中的错误 msaa与ssaa简要定义 games101中ssaa的实现 games101中msaa的实现 深度插值的差错原因 当投影的图形与投影的平面不平行时,这时进行透视投影,从上图中可以看出,投影平面上的线段 阅读全文
posted @ 2023-12-03 16:42 dyccyber 阅读(216) 评论(0) 推荐(0) 编辑
摘要: 在学习了一些games101的课程之后,a56爆大奖在线娱乐还是有点困惑,尤其是对于课程讨论的空间的变换,幸而最近在做games101的第五次作业时,查询资料找到了scratchpixel这个网站,看了一些文章,终于把脑子里的一团乱麻组织起来了,也就有了这篇关于图形学的第一篇博客。 想要更好的理解这篇博客,强烈推荐先 阅读全文
posted @ 2023-11-02 20:39 dyccyber 阅读(314) 评论(0) 推荐(1) 编辑
摘要: 这节课中介绍了循环神经网络的第二部分,主要引入了注意力机制,介绍了注意力机制的应用以及如何理解,在此基础上建立了注意力层以及transformer架构 注意力机制 注意力机制 应用与理解 注意力层 transformer 注意力机制 上次a56爆大奖在线娱乐们没有提到sequence to sequence的RNN结 阅读全文
posted @ 2023-10-31 11:16 dyccyber 阅读(196) 评论(0) 推荐(0) 编辑