- 博客(27)
- 收藏
- 关注
原创 PCA(主元分析)推导与应用
在人脸识别场景下,数据集包含了人脸图像数据,每一个数据点是一张人脸图像,可以用一个向量来表示这个图像(这个向量每一个坐标值对应于图像中的一个像素点的灰阶值)。首先需要对矩阵A正则化,之后求解数据集的协方差矩阵S,再求解矩阵S的特征值及特征向量,选取前n个最大特征值对应的特征向量作为主元子空间的基。PCA通过寻找原始数据空间的一个子空间,并在这个子空间中获取原始数据点的最佳近似数据点。这个就是PCA的目标。数据集在完全补空间中的部分是要被忽略的,选择忽略掉特征值最小的部分,也就是忽略了数据集方差最小的部分。
2025-05-11 21:23:41
928
原创 微积分学习总结
或者说,如果知道函数在某点的函数值及N阶导数,那么就可以用N阶多项式函数近似估算函数在其它点处的函数值。在(x,y)点处,函数沿梯度方向增长速率最快(在函数图像中,梯度指向(x,y)点处最陡的上坡方向),它的长度为沿梯度方向的变化速率(沿梯度方向的方向导数)。1、函数近似:如果在某个区间内,存在一个幂级数,它在这区间内收敛,并且在这个区间内和函数与函数f(x)相同,那么f(x)在这个区间内可以展开为幂级数。由于函数的梯度指明了函数增长最快的方向,因此,可以沿着梯度方向寻找函数极大值。这种方法称作下降算法。
2025-04-12 21:27:07
661
原创 线性代数学习总结
一个矩阵可以对一个向量空间进行变换:这个矩阵相当于对空间的基进行了变换,向量空间中的所有向量相对于这个新的基坐标不变,但是结果会随着基进行相应的变换。(4)两个矩阵A、B的乘积可以看作是A、B矩阵对向量空间变换的组合,它的变换结果等效于用B矩阵对向量空间进行变换后,再用A矩阵对新向量空间进行变换。4、有时需要求解一个复杂的变换矩阵时,可以通过基变换,求解相对于一个特殊基的变换矩阵后,再将这个变换矩阵转换为相对于目标基的变换矩阵。2、矩阵与向量的乘积:一个矩阵与一个列向量相乘,结果为一个新的向量。
2025-03-08 23:56:12
957
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人