- 博客(38)
- 收藏
- 关注
原创 三分钟学懂3D建模中的UV Position Map
UV Position Map 是一张2D图像,它的UV坐标对应着3D模型的表面。但每个像素的颜色值(通常用R, G, B三个通道)并不代表视觉上的颜色,而是直接编码了该点在。
2025-10-15 16:09:25
850
原创 一天认识一个神经网络结构--MLP(多层感知器)
一个MLP的核心思想就是将简单的“神经元”组织成多个“层”(Layers)。信息从第一层单向地流向最后一层。📥:接收最原始的数据。🧠:在输入和输出之间进行大部分的计算和特征提取,对提取出的简单特征进行组合,得到更加复杂的特征信息。一个MLP可以没有隐藏层(那就变成了单层感知机),也可以有一个或多个隐藏层。每一层会做“线性变换 + 非线性函数”。📤:产生最终的结果。(分类概率、预测值等)。是接收原材料的入口。是中间的加工站,每一站都对原材料进行一些处理和转换。是最后的包装站,产出成品。
2025-09-21 22:32:19
705
原创 基于 3D 高斯泼溅的重建 (3DGS-based)
3DGS (3D Gaussian Splatting) 是比 NeRF 更晚出现的技术,它在保持高质量渲染的同时,极大地缩短了训练时间并实现了实时渲染。核心思想:与 NeRF 使用隐式的神经网络不同,3DGS 用一组离散的、可优化的 3D 高斯函数来显式地表示场景。每个高斯函数都有位置、形状(各向异性协方差)、颜色和不透明度,球谐函数(SH)系数等属性。渲染时,这些 3D 高斯函数被“泼溅”(Splatting) 到 2D 图像平面上,并通过 alpha-blending 混合成最终的图像。
2025-09-18 15:31:02
1352
原创 一天认识一种模型方法--3D人体建模 SMPL
是一个“万能人体生成器”。它非常强大,因为你只需要给它两组参数,它就能生成一个具有特定和的、带有关节的、完整的 3D 人体网格(mesh)。1.这个公式对应上面说的第一大步。它计算出要建模的人的3D人体模型(此时还没有各种动作,只是标准状态下的外表的建模),这个模型已经具备了目标的体型和姿态修正,但所有关节还处在“标准姿势”(Template Pose,T-Pose)下。M(β,θ): 这就是我们想要的最终模型,一个特定体型、特定姿态的 3D 人体网格。
2025-09-17 16:12:10
972
原创 一天认识一个神经网络之--CNN卷积神经网络
CNN 是一种非常强大的深度学习模型,尤其擅长处理像图片这样的网格结构数据。你可以把它想象成一个系统,它能像我们的大脑一样,自动从图片中学习并识别出各种特征,比如边缘、角落、纹理,甚至是更复杂的物体部分(比如眼睛或者车轮)。可以把CNN“看”图的过程想象成一个侦探在分析一张照片寻找基础线索 (Detecting Basic Features): 最开始,CNN就像一个拿着放大镜 🔎 的侦探。它不会立刻去看整张图,而是逐个小区域地扫描,寻找最基础的线索,比如边缘、角落、颜色变化等。
2025-08-28 23:17:11
3063
4
原创 怎么理解最大后验估计(Maximum A Posteriori, MAP)
本文是从一个小白的角度来解读最大后验估计(MAP), 以及解释MAP和MLE(最大似然估计)的区别关于如何解读MLE,请阅读我的上一篇文章:怎么理解最大似然估计(Maximum Likelihood Estimation, MLE)-优快云博客。
2024-08-27 22:07:13
996
原创 怎么理解最大似然估计(Maximum Likelihood Estimation, MLE)
先说定义,MLE指的是,找到能够使得定义的模型,观测到我们想要观测的事件的概率最大化,的参数也就是说,我们终极目标使找到合适的模型参数,在此之前我们要明确想要观测的事件,以及选定模型可以通过两个简单的例子来帮助理解。
2024-08-21 23:34:02
516
原创 如何理解深度学习中的Embeddings(嵌入)
作为一名小白,在学习深度学习中经常看到一个词叫做嵌入(Embeddings), 一直很难理解,直到读到了邱锡鹏教授的《神经网络与深度学习》一书,让我有了比较直白的理解。分享给各位。
2024-08-21 09:53:44
503
原创 优化问题中的凸函数
但我们在实际情况下却并不常使用这个作为我们的loss function, 这是因为当我们想要让逻辑回归方程里的参数进行学习的时候,当考虑优化问题时,会发现变成了非凸问题(non-convex problem): 即出现了多个local optima, 无法找到global optima。然而,当损失函数是非凸函数时,由于存在多个局部最小值,找到全局最小值变得更具挑战性。并且,二阶可导的一元函数f为凸函数,当且仅当他的二阶导数f''在定义域上是非负的。
2023-09-15 22:47:44
176
1
原创 机器学习6:评估方法(Evaluation Method)
通常情况下,我们通过将学习器在测试集上进行测试,收集泛化误差,来对模型进行评估和选择,那么,当我们只有一个包含 m 个 example 的数据集时,如何划分出 training set 和 testing set 呢?
2023-08-13 16:05:45
521
1
原创 机器学习5:经验误差和过拟合(Emperical Error & Overfitting)
• 错误率 (error rate): m 个样本中 a 个分类错误,错误率 E = a/m• 精度 (accuracy): 1 − a/m• 经验误差 (empirical error)/训练误差 (training error): 学习器在训练集上的误差• 泛化误差 (generalization error): 学习器训练后在新样本上的误差(注:误差指的是学习器的实际预测输出和样本的真实输出之间)
2023-08-11 19:44:37
322
1
原创 如何理解 if __name__==“main“
因此,`if __name__ == "__main__":` 是检查脚本是否被直接运行的一种方法。只有当脚本被直接运行时,该 if 语句下的代码才会被执行。当你希望在直接运行脚本时执行某些代码(比如调用函数),而在作为模块导入脚本时不执行某些代码时,这种方法非常有用。
2023-08-08 00:09:47
187
1
原创 机器学习4: 归纳偏好和NFL定理(Inductive Bias &NFL Theorem)
如现在已有的样本数据为 (x1, 0),(x2, 1),那么此时 f2 才是我们认为的真实目标函数,由于没有收集到或者压根不存在 (x1, 0),(x2, 0), (x1, 1),(x2, 0),(x1, 1),(x2, 1) 这类样本,所以 f1, f3, f4 都不算是真实目标函数。但这个推导并不完全,需要注意的是,在这里我们假设真实的目标函数 f 服从均匀分布,但是实际 情形并非如此,通常我们只认为能高度拟合已有样本数据的函数才是真实目标函数。这就是 NFL 定理。
2023-08-03 17:33:06
353
原创 机器学习3: 假设空间和版本空间(Hypothesis Space and Version Space)
学习的过程可以被看作是在所有假设 (hypothesis) 组成的空间中进行搜索的过程,所搜的目的是找到能够与数据集所匹配 (fit) 的假设。假设的表示一旦确定,假设空间及其规模大小也就确定了。
2023-08-03 17:13:02
2066
原创 LaTex入门5
中文 \LaTeX 示例。上述示例设置了中文字体 SimSun(宋体)。运行此示例要求系统安装了设置的字体(可以自行通过google或者baidu搜索免费的字体,下载后上传到Overleaf中即可),源文件用 UTF-8 编码保存,使用 XeLaTex 编译。simsun.ttc是下载的宋体文件Dr. Trefor Bazett在Youtube视频中提供默认Layout手动修改后的Layout%此部分代码为我修改Layout的代码。
2023-07-26 13:40:35
213
1
原创 LaTex入门4
本篇的主要内容:1. 图像(Figure) 2. 定理(Theorem)/自定义环境 3.自定义快捷符号(Custom Macros)
2023-07-22 00:39:37
674
原创 LaTex入门3
本篇主要讲述:1. 如何在Overleaf中插入图像;2. 字体格式; 3. 公式格式的调整和引用;4. 表格的创建,调整和引用。
2023-07-21 11:45:53
238
2
原创 LaTex入门2
在Overleaf中创建列表;新建section;在Overleaf中使用LaTex创建一些常用的公式(积分,向量,矩阵等)
2023-07-17 13:22:48
167
2
原创 LaTeX入门1
maketitle: '\maketitle' 会根据你在 '\title', '\author' 和 '\date' 中定义的信息生成一个标题页。\begin{document} 和\end{document}: 规定你编辑文档的范围,当你想要创作文章主题内容时,就在这个规定范围内进行创造。在LaTex中,我们将数学公式放置在"$ $" dollar 符号中,{}规定我们将哪些部分合并放在一起,\pi代表。这个公式也很好理解:\lim_{}实现极限符号,括号内放置极限范围,\infty代表。
2023-07-17 00:29:44
157
2
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅