- 博客(8)
- 收藏
- 关注
原创 留个学习笔记1
情况a所得结果是实验手册中神经网络的多分类成本函数;情况b所得结果是nndl第62页推导出的Softmax多分类风险函数;两者略有不同,暂时想不明白
2022-03-18 22:25:08
1151
原创 东南大学数值分析第七章上机作业Python实现
考试周快到了编程作业还没做完...花了一上午写了这个程序,验算了一下应该没有大问题,欢迎大家指出问题。本程序全原创,分享出来一起讨论!正文开始,题目如下:程序设计思路如下,采用7.1.37的矩阵形式进行求解,两个系数方阵都是严格对角占优的,所以一定可逆,为了编程简单没有采用迭代格式,直接使用矩阵求逆法求解方程组。下图为第二问程序;第三问略,具体思路如下:步长二分即M或N增倍。import numpy as npfrom sympy import *# 此函数为调参入口def .
2021-12-30 14:06:06
2244
2
原创 Moore-Penrose 广义逆/伪逆 (The Moore-Penrose Pseudoinverse)
矩阵求逆运算一般是对于方阵而言,矩阵求逆没有对非方阵定义。非方阵求逆会给我们带来很多便捷,假设我们得到矩阵A的左逆矩阵B,对于线性方程组Ax=y,我们可以这样求得:x=By;根据问题的结构,有可能无法设计一个从A到B的单一映射。 如果矩阵A更高(行数m大于列数n,即未知数的约束方程可能大于未知数的数目),那么这个方程就有可能没有解。如果矩阵A更宽(行数m小于列数n,即未知数的约束方程一定大于未知数的数目),那么就有多种解 。在这些情况下,Moore-Penrose伪逆允许我...
2021-10-25 11:15:01
2724
原创 奇异值分解(Singular Value Decomposition, SVD)
今天来汇总一下线性代数奇异值分解的知识。 与特征分解不同,奇异值分解(SVD)提供了将矩阵分解为奇异向量和奇异值的另一种方法并且应用更广泛。每个实矩阵都有一个奇异值分解,但特征值分解却不是这样。例如,如果一个矩阵不是方阵,特征分解就没有定义,我们必须使用奇异值分解来代替。 回想一下,特征分解涉及到分析一个矩阵A来找出一个特征向量组成的矩阵V和一个特征值λ组成的向量,这样我们可以重写A为: 奇异值分解是类似的,只是这次我们写A是三个矩阵的...
2021-10-17 14:56:26
303
原创 特征分解(Eigendecomposition)
身为一个刚进入研究生学习的学生,在此记录下我的学习过程,目前在整理机器学习所需要的线代知识,所记录的线代知识大部分为考研之外的知识点。 分解矩阵的方式可以向我们展示在矩阵的元素排列表示中不明显的那些信息。一种最广泛使用的矩阵分解称为特征分解,其中我们将一个矩阵分解成一组特征向量和特征值。方阵的特征向量是一个非零向量v,并且乘A只改变v的比例:Av = λv 其中标量λ是这个特征向量所对应的特征值。我们也可以找到一个左特征向量使A= λ ,但我们通常关心的是...
2021-10-17 13:41:54
4465
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人