深度学习,逻辑回归梯度下降向量化及一些编程基础

这篇博客深入探讨了深度学习与神经网络的关系,阐述了如何通过输入特征x得到输出y的过程。同时,文章对比了结构化和非结构化数据的特点,并详细介绍了逻辑回归算法在二元分类问题中的应用,包括模型、损失函数和梯度下降法的实现。此外,还强调了向量化在提高代码效率中的作用,并展示了Python中的向量化操作实例。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

深度学习就是神经网络

 只要输入x特征,即可得到计算结果y,中间的圆圈为中间层 

结构化与非结构化数据

 左端为结构化数据,右端为非结构化数据

 

矩阵向量化

 

 

 

logic回归算法:一个用在监督学习问题(SVM)中输出y标签是0还是1的二元分类问题 

 

logistic回归模型和sigmiod函数

 

损失函数(loss function):

 

 coss function工作原理

logic回归公式

 

应用于多样本中

 

 

 

向后传播公式

 

 

 

对logistic回归应用梯度下降法

 

 

 

向量化可以消除代码中显式for循环的部分,让代码运行更加快速 

 

 

pyhon中的np函数

 

 

 

向量化细节及其代码

正向传播

 

 

反向传播

 

左端是for循环,右端是向量化实现 

 

 

代码展示

 

Python中的传播:在进行矩阵加减乘除运算时,会自动进行矩阵的扩充

 

 

 

行向量或者列向量的编程习惯

 

 

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值