- 博客(14)
- 收藏
- 关注
原创 L1神经网络与深度学习-2.16python中向量的说明
如图所示,a不是矩阵,是一个秩为1的数组,这就会与矩阵有一些细微差别,比如转置(In 4)2.多用assert确认数组形状,多用reshape保证数组形状。python语言更灵活,但是不了解的话也更容易引入细微错误。比如矩阵维度不匹配不会报错,可能会因为广播机制出现错误结果。下面通过一个例子了解可能我们平时不会注意的细节。这里的a才是矩阵,注意方括号的数量。1.多用矩阵,不要用秩为1的数组。
2025-10-23 20:32:54
257
原创 L1神经网络与深度学习-2.15python广播
问题引入:列代表四种不同的食物(苹果,牛肉,鸡蛋,土豆),行代表三种成分(Carb碳水化合物,Protein蛋白质,Fat脂肪),数值代表卡路里。要解决这个问题,首先要算出每一列的和,得到这个食物的总卡路里,然后再用食物各个成分的卡路里去除以这个食物的总卡路里。规则2:如果两个数组的形状在任何一个维度上都不匹配,那么数组的形状会沿着维度为1的维度拓展以匹配另外一个数组形状。比如(m,n)与(m,1)运算,就会把(m,1)复制n列变为(m,n)的矩阵。A是3行4列,cal是1行4列,为什么可以正常相除呢?
2025-10-23 20:30:06
759
原创 L1神经网络与深度学习-2.9&2.10logistic回归中的梯度下降法
(超爽中英!) 2024公认最好的【吴恩达深度学习】教程!附课件代码 Professionalization of Deep Learning。
2025-10-16 15:32:05
553
原创 L1神经网络与深度学习-2.7&2.8计算图
例如,需要计算:那么把计算的顺序用流程图表示第一步要计算,然后要计算,最后计算用流程图表示计算的步骤,如下图所示要计算J,我们需要从左往右一步步算,这又被称为正向传播,用变量去计算成本函数。
2025-10-16 15:13:52
346
原创 L1神经网络与深度学习-2.4梯度下降法
以刚才讲过的logistic回归为例,我们的目标是要找到 使得的w和b如上图所示,水平的两个轴是w和b【为了方便绘图认为w是一个实数,实际上是更高维的】,J(w,b)是一个曲面。曲面在某个点(w,b)的高度,就是J(w,b)的值我们要找到w和b使得成本函数J的值为最小值J是一个凸函数,对于凸函数,在哪里初始化都会到达或接近最低点而下面这种函数会存在很多局部最优解。
2025-10-15 14:13:49
922
原创 L1神经网络与深度学习-2.3logistic回归损失函数
损失函数通常不定义为这个形式,因为当你学习这些参数的时候,你会发现之后讨论的优化问题,会变成非凸的,最后会得到很多个局部最优解,梯度下降法可能找不到全局最优值【课程后面会讲】是针对一个训练样本来说的,有圆括号的上标可以区分是哪个样本,方便引用说明,比如你的第i个训练样本。loss function定义在单个训练样本中,衡量在单个训练样本的表现。根据之前得到的参数w和b,对损失函数求和取平均。如果y等于1,函数变为如上形式。为了让损失函数足够小,那么。要接近于1,也就接近。
2025-10-15 12:58:58
311
原创 L1神经网络与深度学习-2.1二分分类
X:训练集中的x1/x2/x3等,n行m列(一般都是特征向量竖着组合);(x,y):一个单独的样本,x是一个n维的特征向量,y是标签(0或1)x:特征向量,保存了所有的像素信息,包括红绿蓝三个矩阵。mtrain 训练集样本数 mtest 测试集样本数。Logistic回归是一个用于二分分类的算法。n:特征向量的维度,也可以写作nx。一个图片保存为三个矩阵。训练集由m个样本构成。
2025-10-15 11:49:04
399
原创 L1神经网络与深度学习-2.2 logistic回归
回归:“回归”(Regression)并非指 “回到过去”,而是统计学中一种探究变量间关系的经典方法logistic 回归虽用于分类任务(如判断 “是否患病”“用户是否点击”),但建模框架仍沿用了回归的核心逻辑:先构建自变量(如年龄、性别)的线性组合(类似线性回归的 “y = wx + b”);再通过某种变换,将线性结果映射到分类所需的范围(如 0-1 概率)。因此,尽管目标是分类,它仍保留了 “回归” 这一命名,体现与传统回归分析的技术传承。
2025-10-15 11:46:23
855
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅