自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(14)
  • 收藏
  • 关注

原创 L1神经网络与深度学习-2.16python中向量的说明

如图所示,a不是矩阵,是一个秩为1的数组,这就会与矩阵有一些细微差别,比如转置(In 4)2.多用assert确认数组形状,多用reshape保证数组形状。python语言更灵活,但是不了解的话也更容易引入细微错误。比如矩阵维度不匹配不会报错,可能会因为广播机制出现错误结果。下面通过一个例子了解可能我们平时不会注意的细节。这里的a才是矩阵,注意方括号的数量。1.多用矩阵,不要用秩为1的数组。

2025-10-23 20:32:54 257

原创 L1神经网络与深度学习-2.15python广播

问题引入:列代表四种不同的食物(苹果,牛肉,鸡蛋,土豆),行代表三种成分(Carb碳水化合物,Protein蛋白质,Fat脂肪),数值代表卡路里。要解决这个问题,首先要算出每一列的和,得到这个食物的总卡路里,然后再用食物各个成分的卡路里去除以这个食物的总卡路里。规则2:如果两个数组的形状在任何一个维度上都不匹配,那么数组的形状会沿着维度为1的维度拓展以匹配另外一个数组形状。比如(m,n)与(m,1)运算,就会把(m,1)复制n列变为(m,n)的矩阵。A是3行4列,cal是1行4列,为什么可以正常相除呢?

2025-10-23 20:30:06 759

原创 L1神经网络与深度学习-2.13logistic的向量化&2.14向量化logstic回归的梯度输出

注:课程笔记,自用。

2025-10-23 20:25:02 506

原创 L1神经网络与深度学习-2.11&2.12向量化

注:仅为自己学习用,是观看课程的心得体会。

2025-10-23 19:38:42 664

原创 L1神经网络与深度学习-2.9&2.10logistic回归中的梯度下降法

(超爽中英!) 2024公认最好的【吴恩达深度学习】教程!附课件代码 Professionalization of Deep Learning。

2025-10-16 15:32:05 553

原创 L1神经网络与深度学习-2.7&2.8计算图

例如,需要计算:那么把计算的顺序用流程图表示第一步要计算,然后要计算,最后计算用流程图表示计算的步骤,如下图所示要计算J,我们需要从左往右一步步算,这又被称为正向传播,用变量去计算成本函数。

2025-10-16 15:13:52 346

原创 L1神经网络与深度学习-2.5导数2.6更多导数

这两节吴恩达老师讲解了比较基础的导数知识(大概就是高中难度),但是给人的印象比较直观。

2025-10-15 19:48:28 130

原创 L1神经网络与深度学习-2.4梯度下降法

以刚才讲过的logistic回归为例,我们的目标是要找到 使得的w和b如上图所示,水平的两个轴是w和b【为了方便绘图认为w是一个实数,实际上是更高维的】,J(w,b)是一个曲面。曲面在某个点(w,b)的高度,就是J(w,b)的值我们要找到w和b使得成本函数J的值为最小值J是一个凸函数,对于凸函数,在哪里初始化都会到达或接近最低点而下面这种函数会存在很多局部最优解。

2025-10-15 14:13:49 922

原创 L1神经网络与深度学习-2.3logistic回归损失函数

损失函数通常不定义为这个形式,因为当你学习这些参数的时候,你会发现之后讨论的优化问题,会变成非凸的,最后会得到很多个局部最优解,梯度下降法可能找不到全局最优值【课程后面会讲】是针对一个训练样本来说的,有圆括号的上标可以区分是哪个样本,方便引用说明,比如你的第i个训练样本。loss function定义在单个训练样本中,衡量在单个训练样本的表现。根据之前得到的参数w和b,对损失函数求和取平均。如果y等于1,函数变为如上形式。为了让损失函数足够小,那么。要接近于1,也就接近。

2025-10-15 12:58:58 311

原创 L1神经网络与深度学习-2.1二分分类

X:训练集中的x1/x2/x3等,n行m列(一般都是特征向量竖着组合);(x,y):一个单独的样本,x是一个n维的特征向量,y是标签(0或1)x:特征向量,保存了所有的像素信息,包括红绿蓝三个矩阵。mtrain 训练集样本数 mtest 测试集样本数。Logistic回归是一个用于二分分类的算法。n:特征向量的维度,也可以写作nx。一个图片保存为三个矩阵。训练集由m个样本构成。

2025-10-15 11:49:04 399

原创 L1神经网络与深度学习-2.2 logistic回归

回归:“回归”(Regression)并非指 “回到过去”,而是统计学中一种探究变量间关系的经典方法logistic 回归虽用于分类任务(如判断 “是否患病”“用户是否点击”),但建模框架仍沿用了回归的核心逻辑:先构建自变量(如年龄、性别)的线性组合(类似线性回归的 “y = wx + b”);再通过某种变换,将线性结果映射到分类所需的范围(如 0-1 概率)。因此,尽管目标是分类,它仍保留了 “回归” 这一命名,体现与传统回归分析的技术传承。

2025-10-15 11:46:23 855

原创 变量交换:一个程序实现多种类型的变量交换(C++)

变量交换:一个程序实现多种类型的变量交换(C++)

2023-01-05 01:10:11 122

原创 龟兔赛跑习题答案

龟兔赛跑习题解析,笔者在初学C时碰到的很有意思的一道题

2023-01-05 01:04:44 210

原创 龟兔赛跑习题答案

龟兔赛跑习题解析,笔者在初学C时碰到的很有意思的一道题

2023-01-05 01:04:00 150

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除