网易云课堂吴恩达Andrew Ng深度学习笔记(二)

这篇博客介绍了吴恩达的深度学习课程中的神经网络基础和梯度下降法。讨论了二分类问题、特征与标签、logistic回归、sigmoid函数、损失函数、梯度下降优化以及向量化的重要性。通过一个简单的例子展示了如何计算导数和更新参数,同时强调了在实际应用中向量化能有效提升计算效率。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

01.神经网络和深度学习

第二周  神经网络基础

先说明最简单的二分类,即可以把结果分为0和1两类,或者说是否两种的分类情况。

比如说判定图片中是否有猫,标记为有(1)或者无(0)。

特征则是图片中像素点RGB三色的深度,对应于64x64像素的图像,特征量为64x64x3= 12288。

为了操作解释方便,我们会把特征进行排列,重组成纵列。

一个特征对应一个标签,最后组成数据对(x,y)

m个数据组合后把特征和标签组合成X和Y


logistic regression,监督学习的一种,输出为0或者1.

在已知x的情况下,求y的概论,其中x为上面说明的特征,y为标签。

我们这里定义为一般公式,引入参数w和b

单纯的w*x+b类似于一元线性方程,无法得到一个[0,1]范围内的数值,还需要用到sigmoid function(这点在后面会优化,因为sigmoid中间有一段缓慢变化区,不利于函数收敛)

为了训练参数w和b,我们需要定义一个cost function来判断怎样的参数才是合适的。

cost function是在当前训练集下的,而loss(error) function是指针对某个样本的。cost function 是loss function的平均。

对loss function,我们希望

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值