深度学习基础-理解线性代数本质
文章平均质量分 71
理解线性代数本质
BingJJJ
从0开始深度学习
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
深度学习基础:线性代数本质3——矩阵与线性变换
你对线性代数的一切困惑,根源就在于没有真正理解矩阵到底是什么。原创 2025-03-12 10:43:22 · 771 阅读 · 0 评论 -
深度学习基础:线性代数本质5——行列式
我们注意到,有一些变换在结果上拉伸了整个网格,有一些则是压缩了,那如何度量这种压缩和拉伸呢?或者换一种更容易思考的表达,某一块面积的缩放比例是多少?其实,根据我们之前讲的基向量,我们只需要知道i帽和j帽组成的面积为1的正方形面积缩放了多少。所以行列式就是这个特殊的缩放比例,即线性变换对面积产生改变的比例。比如说一个线性变换的行列式为6,那么就算是它将一个区域的面积增加为原来的6倍特别的,我们可以发现,如果一个矩阵的行列式为0,意味着它把这个空间降维了(例如原本二维的变为了一维的线了),并且矩阵的。原创 2025-03-12 11:42:46 · 767 阅读 · 0 评论 -
深度学习基础:线性代数本质4——矩阵乘法
两个矩阵相乘的意义就是。原创 2025-03-12 11:15:47 · 508 阅读 · 0 评论 -
深度学习基础:线性代数本质6——逆矩阵、列空间与零向量
从几何角度求解线性方程组:从逆矩阵,列空间,零空间线性方程组:对应一个线性变换。原创 2025-03-12 15:29:53 · 1098 阅读 · 0 评论 -
深度学习基础:线性代数的本质1——深入理解向量
从几何方面思考向量,当遇到向量时,首先考虑一个箭头以及落在某个坐标系中,比如x-y平面,并且箭头起点为原点,这里和物理学角度的不同,向量可以在空间中如何位置落脚(起点),但是在线性代数中向量(通常以坐标系中的原点为起点)把每个向量看作一种特定的运动,及在空间中朝着某个方向迈出一定的,先按v的运动方式运动,然后按照w的运动方式运动,总体运动效果与沿着这两个向量的和运动无异。,等于将向量中的各个元素(分量)分别进行缩放。平移向量使向量首尾相连,则向量相加的结果是第一个向量的起点到最后一个向量的终点。原创 2025-03-11 22:00:55 · 1149 阅读 · 0 评论 -
深度学习基础:线性代数本质2——线性组合、张成的空间与基
向量空间的一组基是张成该空间的一个线性无关向量集。原创 2025-03-11 22:41:34 · 1148 阅读 · 0 评论
分享