
数学
子燕若水
子燕若水
展开
-
旋转矩阵的迹trace的几何含义
因此,旋转矩阵的迹在几何上与旋转角度的余弦相关。通过迹的值,可以推导出旋转角度的余弦,从而得到旋转的实际角度。这在计算机图形学、机器人学和物理学中都具有重要的应用,因为旋转角度是描述刚体运动和空间变换的关键参数。可以有效地从旋转矩阵的迹中提取出旋转角度 θθ。这个公式在计算机图形学、机器人学等领域广泛应用,用于从旋转矩阵中提取旋转角度。原创 2024-08-17 11:11:37 · 678 阅读 · 0 评论 -
Lambertian模型(完美漫反射)
这里使用相乘的方式组合光照色和纹理色。 根据这个模型,面朝光源的区域光照强度高,纹理色也相应增强。面背光源的区域光照弱,纹理色也被抑制。 这样通过光照和纹理的结合,可以合成出具有照明效果的面部颜色,而不仅仅是固定的纹理本身的颜色。 相乘方式可以近似实现不同光照方向下面部区域颜色的变化,提升渲染效果的真实感。原创 2023-11-12 22:21:19 · 954 阅读 · 0 评论 -
Least Square Method 最小二乘法(图文详解,必懂)
最小二乘法是一种求解线性回归模型的优化方法,其目标是最小化数据点和拟合直线之间的残差平方和。这意味着最小二乘法关注的是找到一个直线,使得所有数据点与该直线的偏差的平方和最小。在数学公式中,如果y是实际值,y'是函数估计值,那么最小二乘法求解的是使sum((y-y')^2)最小的参数。对于上述关于a和b的线性方程组,我们可以用代数的方法或者矩阵的方法来求解它们。我们要求它的偏导数为零,从而得到参数的最优解。设函数模型为 y = ax+b。此时只需要求参数是a 和 b。原创 2023-11-12 12:02:50 · 3125 阅读 · 0 评论 -
YUV空间-两张图片颜色匹配(颜色替换match_color 代码)
因为YUV把亮度和色彩分开了,所以可以更容易地调整图像的亮度分布和色彩平衡⁴。而且,YUV也更接近人类感知颜色的方式,所以可以更好地保持图像的自然感。这个公式中,T_a 和 T_b 是两个图像的(亮度)通道,也就是它们的灰度值。T_a 是要被调整的图像,T_b 是target的图像。这个公式的作用是把 T_a 的亮度分布变得和 T_b 的(亮度)分布一样。的,它是一种把颜色分成亮度(Y)、色度(U)和饱和度(V)的方式。的,也就是把一个图像的颜色调整成另一个图像的颜色。是调整后的图像的(亮度)通道。原创 2023-10-28 11:42:04 · 447 阅读 · 0 评论 -
barycentric coordinates 重心坐标
这里,p(x,y,z) 只是空间中与三角形位于同一平面的 3D 点,可以表示为三角形 V1、V2、V3 的顶点和重心坐标的线性组合u、v、w。约束消除了一个自由度,这就是为什么即使我们有三个坐标,结果也是在 2D 空间中的原因。尽管在图形中我们使用 3D 三角形,但三角形的表面始终位于 2D 平面中。,它允许我们将表面上的任何点表示为顶点的加权平均值。该坐标系称为重心空间,是。重心坐标之和应该为 1。原创 2023-10-26 11:32:50 · 185 阅读 · 0 评论 -
PCA主成分分析降维MNIST数据(代码实战版)
【代码】PCA主成分分析降维MNIST数据(代码实战版)原创 2023-10-25 17:49:02 · 360 阅读 · 0 评论 -
正交矩阵的转置就是它的逆矩阵
正交矩阵的定义是:一个矩阵A与它的转置矩阵相乘的结果是一个单位矩阵,则该矩阵被称为一个正交矩阵。根据矩阵论中的定义,如果一个矩阵A与另一个矩阵B相乘的结果是单位矩阵E,那么我们可以说矩阵A是矩阵B的逆矩阵,或者矩阵B是矩阵A的逆矩阵。因此,正交矩阵的转置就是其逆矩阵。根据矩阵的线性变换性质,先用正交矩阵A操作向量w1得到w2,再用A的逆矩阵操作w2得到的结果应该是w1。因此,w1和w3应该是相等的。先用正交矩阵A操作向量w1得到w2,再用A的逆矩阵操作w2得到w3,w1和w3是什么关系?原创 2023-10-25 14:23:19 · 6850 阅读 · 0 评论 -
实例演示:拉格朗日乘子法(Lagrange multiplier method)
拉格朗日乘子法(Lagrange multiplier method)是一种寻找多元函数在一组约束下的极值的方法。通过引入拉格朗日乘子,可将有d个变量与k个约束条件的最优化问题转化为具有d+k个变量的无约束优化问题求解。这种方法将一个有n个变量与k个约束条件的最优化问题转换为一个有n+k个变量的方程组的极值问题。原创 2023-10-25 10:51:42 · 318 阅读 · 0 评论 -
主成分分析(PCA):代码级实战
我们需要明白PCA的目的是什么。PCA是一种降维技术,它的目的是将高维的数据投影到低维的空间中,同时保留数据的最大变化信息¹。PCA的原理是通过找到一组正交的基向量,使得数据在这组基向量上的投影方差最大²。具体来说,假设我们有一个n维的数据集X,其中每一行是一个样本,每一列是一个特征。为了演示这个过程,我给出一个简单的例子。从结果中我们可以看出,原始的三维数据被成功地降维到了二维,而且保留了数据的最大变化信息。对于大规模数据,方法2更为高效。然后V的前200列就是我们要的纹理空间的基向量组成的矩阵。原创 2023-10-24 20:47:35 · 303 阅读 · 0 评论 -
L1 Loss VS L2 loss(MSE Loss)对比
L1损失和MSE(L2)损失的主要区别是,L1损失测量的是预测值和实际值之间的绝对差值,而MSE损失测量的是预测值和实际值之间的平方差值。这意味着L1损失对离群值更加稳健,因为绝对值函数对所有的错误都一视同仁,而MSE损失由于是平方运算,对较大的错误给予更多的权重。总之,L1损失和MSE损失是衡量回归问题中预测值和实际值之间误差的两种不同方式,L1损失对离群值更加稳健,MSE损失对较大的误差给予更多的权重。原创 2023-03-28 19:20:20 · 3303 阅读 · 0 评论 -
相机坐标系 -> 像素坐标系
_cam2pixel函数并没有处理相机坐标系中cam_coord[…, 2]的值,直接返回当作深度值。这是因为这个函数只是用来将相机坐标系中的点转换到像素坐标系中的点的,不需要对深度值做任何变换。深度值的变换是在convert_cc_to_ic函数中进行的,这个函数会将所有点的深度值减去根节点(Pelvis骨盆)的深度值,得到相对深度值。这样做的目的是为了消除相机位置和姿态对深度值的影响,只保留点之间的相对距离。原创 2023-09-13 09:00:17 · 231 阅读 · 0 评论 -
向量的点乘公式
向量的点乘公式,它表示两个向量的长度和夹角的余弦值的乘积。这个公式可以从代数定义或几何定义推导出来。原创 2023-09-08 11:06:49 · 142 阅读 · 0 评论 -
【图解】多层感知器(MLP)
图片是一个多层感知器(MLP)的示意图,它是一种常见的神经网络模型,用于从输入到输出进行非线性映射。原创 2023-08-21 19:59:15 · 5453 阅读 · 0 评论 -
中心极限定理 简明教程
在实际应用中,这些条件往往不能满足,因此我们需要对中心极限定理进行一些合理的假设。中心极限定理是概率论中的一组定理,它们描述了一些独立随机变量的。中心极限定理成立的前提是独立。,并且每个随机变量的。原创 2023-08-16 11:07:18 · 361 阅读 · 0 评论 -
一阶RC低通滤波器[原理详细推导]
其中: f为输入信号的频率,f_B为滤波器的截止频率。原创 2023-08-15 18:02:47 · 2535 阅读 · 0 评论 -
Kalman Filter VS Particle Filter
高斯分布有一些重要的性质,使得Kalman Filter可以用矩阵运算来简化计算和表示,以及达到最优的估计效果。如果状态是连续的,如果状态之间的关系是线性的,就是Linear Dynamic System (Kalman Filter),或者说是Linear Gaussian Model;如果状态之间的关系是Non-Linear 的或者Non-Gaussian 的,那么也就是Particle Filter。概率图模型+ 时间 -------->动态模型。原创 2023-08-13 12:26:01 · 318 阅读 · 0 评论 -
概率图模型(Probabilistic Graphical Model,PGM)
有向图模型使用有向非循环图(Directed Acyclic Graph,DAG)来表示变量之间的因果关系,也称为贝叶斯网络(Bayesian Network)或信念网络(Belief Network)。它可以用来表示复杂的概率分布,进行有效的推理和学习,以及解决各种实际问题,如图像处理,自然语言处理,生物信息学,社会网络分析等。这个图就是一个无向图模型的例子,它可以用来表示五个人的爱好和性格的联合概率分布,以及他们之间的友谊关系。推断问题是指如何根据已知的观测变量和参数,计算未知的隐变量或者边缘概率。原创 2023-08-13 11:11:56 · 363 阅读 · 0 评论 -
一般透视投影VS正交投影VS弱透视投影
当三维物体相对于相机或成像平面的距离很大时,或者相机或成像平面的焦距很小时,透视效果就会很小,也就是说,远处和近处的物体看起来差不多一样大。这时候,我们可以用弱透视投影来代替透视投影,而不会损失太多的精度。弱透视投影 (Weak Perspective Projection) 是一种对透视投影 (Perspective Projection) 的近似方法,正交投影 (Orthographic Projection) 是一种将。正交投影常用于工程图和技术文档中,因为它可以方便地测量尺寸和形状。原创 2023-08-09 12:50:20 · 1745 阅读 · 0 评论 -
二分图匹配算法
二分图匹配算法是一种用于解决二分图最大匹配问题的算法。二分图是指一个图可以被分成两个集合,使得每个顶点都只能在其中一个集合中出现。二分图匹配问题就是在给定的二分图中,找到最多的一对对顶点进行匹配,使得每个顶点都有一个匹配。二分图匹配算法的时间复杂度为 O(n^3),其中 n 是二分图中顶点的数量。然后,对于每个不匹配的顶点,我们尝试将它与右部每个未被匹配的顶点进行匹配,计算出每个匹配的分数,并选择分数最高的那个匹配。最终,算法会返回最多的一对对顶点进行匹配,使得每个顶点都有一个匹配。来表示匹配情况,其中。原创 2023-08-02 10:44:22 · 561 阅读 · 0 评论 -
图论-简明导读
计算机图论是计算机科学中的一个重要分支,它主要研究图的性质和结构,以及本文将总结计算机图论的核心知识点。原创 2023-08-02 10:44:57 · 1242 阅读 · 0 评论 -
add_subplot()--matplotlib
例如: fig.add_subplot(3, 1, (1, 2)),表示子图占据的位置为将画布三等分后的前两份位置。参数nrows与ncols决定画布被划分为nrows*ncols几部分。索引index从左上角开始,向右边递增。索引也可以指定为二元数组,表示图表占据位置为:从索引的第1个参数到第2个参数的位置。转载 2023-07-28 13:38:08 · 362 阅读 · 0 评论 -
用矩阵处理3D变换
也可以把三个旋转矩阵合并为一个综合旋转矩阵:有时我们想要将平移和旋转结合起来,这样我们就可以在一次操作中同时进行两者,但是我们不能用3x3矩阵来做3D平移,只能用4x4矩阵来做,如下所定义:原创 2023-07-03 20:15:42 · 587 阅读 · 0 评论 -
常微分方程ODE和Neural Ordinary Differential Equations
用一个函数f表示。这个函数f的参数是θ t ,它可以是一个神经网络。这个公式可以看作是残差网络(ResNet)的连续化,因为残差网络的每一层都可以写成h t+1 = h t + f(h t , θ t ),如果把层数看作是时间,那么就可以用欧拉法近似求解这个ODE。这样就得到了一种新的深度神经网络模型,叫做神经微分方程(Neural ODE)¹²³。这个数学公式是一个常微分方程(ODE),它描述了一个。而在初等数学的代数方程裡,其解是常数值。微分方程的解是一個符合方程的。原创 2023-05-29 14:00:23 · 2277 阅读 · 0 评论 -
teacher forcing
teacher-forcing 在训练网络过程中,每次不使用上一个state的输出作为下一个state的输入,而是直接使用训练数据的标准答案(ground truth)的对应上一项作为下一个state的输入。Teacher Forcing工作原理: 在训练过程的t�时刻,使用训练数据集的期望输出或实际输出: y(t)�(�), 作为下一时间步骤的输入: x(t+1)�(�+1),而不是使用模型生成的输出h(t)ℎ(�)。一个例子:训练这样一个模型,在给定序列中前一个单词的情况下生成序列中的下一个单词。转载 2023-02-01 22:06:45 · 442 阅读 · 0 评论 -
Diffusion Models 扩散模型
Diffusion Models 扩散模型原创 2023-01-09 12:15:04 · 245 阅读 · 0 评论 -
正态分布随机变量的和也是正态分布(高斯分布)
参考链接:原创 2023-01-08 17:19:08 · 683 阅读 · 0 评论 -
协方差矩阵covariance matrices.
Understanding covariance matrices | Lulu's blogThis aim of this article is to explain covariance matrices. We start from a very simple illustration (a normally uncorrelated distributed random sample) to more advanced ones (normally and correlated distribut原创 2023-01-07 17:13:45 · 211 阅读 · 0 评论 -
机器学习之-weight decay
Weight decay is a regularization technique that is used to regularize the size of the weights of certain parameters in machine learning models. Weight decay is most widely used regularization technique for parametric machine learning models. Weight decay i原创 2022-11-18 22:40:28 · 614 阅读 · 0 评论 -
What is the difference Cross-entropy and KL divergence?
无转载 2022-11-11 14:37:58 · 104 阅读 · 0 评论 -
二次型矩阵与特征值分解
无原创 2022-10-26 21:46:15 · 281 阅读 · 0 评论 -
概率质量函数Probability Mass Functions
原文链接:https://online.stat.psu.edu/stat414/lesson/7/7.2转载 2022-09-28 23:11:56 · 334 阅读 · 0 评论 -
Logistic Regression VS Linear Regression
Logistic Regression VS Linear Regression原创 2022-06-25 12:10:54 · 158 阅读 · 0 评论 -
sigmoid函数sigmoid求导
sigmoid函数sigmoid求导原创 2022-06-25 11:37:51 · 311 阅读 · 0 评论 -
分类器用cross entropy loss和softmax做损失函数
pytorch api及其实战代码CrossEntropyLoss — PyTorch 1.11.0 documentationhttps://pytorch.org/docs/stable/generated/torch.nn.CrossEntropyLoss.html#torch.nn.CrossEntropyLoss 最大化真实发生事件的概率值之乘积 cross entropy 代表p(x) 与 q(x) 两个distribution有多接近, 如果两个distribution一样的话H(p, q)就原创 2022-06-25 11:52:00 · 430 阅读 · 0 评论 -
向量的点积与叉乘的几何解释
原链接:Cross Producthttps://www.mathsisfun.com/algebra/vectors-cross-product.htmlSee how it changes for different angles:转载 2022-04-13 21:26:09 · 114 阅读 · 0 评论 -
激活函数- relu vs sigmoid
数据流经过sigmoid后,会发生明显的衰减。假设前面对w做一个比较大的变化,经过sigmoid之后会变成一个很小的变化。这个变化一直向后衰减传递,一直到。此时会发现前面层的明显小于后面的。如果用梯度下降法,后面的参数一定比前面的参数迭代的更快,所以收敛的更快。造成了后面参数几乎训练完毕,前面的参数依然接近随机数的糟糕训练结果。所以ML界寻找替代 sigmoid的激活函数,如relu。relu函数在大于0的部分梯度为常数,relu函数在小于0时的导数为0 ,...原创 2022-02-15 13:05:09 · 1882 阅读 · 0 评论 -
Backpropogation反向传播公式推导【李宏毅深度学习版】
引入问题一般神经网络里面的参数非常之多,一个一个的计算每个,不切实际。所以引入一个有效率的计算每个参数偏微分的方法,--Backpropogation。依靠的数学知识求导目标为:根据chain rule,把求导目标拆分成两部分的乘积第一部分:第二部分:把计作,把同一层的放在一起看作一个向量,中间的可以由最后的,和与的关系求出。下面求:下面求与的关系:...原创 2022-02-14 17:38:44 · 382 阅读 · 0 评论 -
logistics regression 线性不可分转换成线性可分
单独一个 logistics regression 是线性模型无法分开非线性数据,如果硬要把非线性数据塞给一个logistics regression,需要将数据做feature transformation完后再塞给它。对数据熟悉的人,可以手工找到一个专门的函数来做feature transformation 。不过实验发现logisticregression,设置合适的参数后,也可以对非线性数据完成feature transformation,使其变成线性可分的feature。..原创 2022-02-12 20:49:10 · 794 阅读 · 0 评论 -
SVM之-二分类延伸到多分类
先看logisticRegression的多分类:原创 2022-02-10 23:37:13 · 680 阅读 · 0 评论 -
SVM之-核函数概念和简单例子
概念:核函数的简单例子:这个例子说明给定一个核函数,可能存在多种空间映射将其实现。 但我们实践中不必关系具体的空间映射。比较常用的核函数:原创 2022-02-10 09:31:51 · 1364 阅读 · 0 评论