深度学习(2)——深层神经网络

本文深入探讨神经网络中的关键概念,包括激活函数的作用、不同类型的损失函数(如交叉熵、均方误差)在分类与回归问题中的应用,以及自定义损失函数的方法。此外,还介绍了神经网络参数优化的过程,包括前向传播与反向传播算法,以及如何使用梯度下降法更新参数。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

目录

 

一、概念

二、损失函数

1. 分类问题:

2. 对于回归问题,

3.自定义损失函数

三、参数优化


一、概念

1.激活函数实现去线性化

加了激活函数和偏置项

tensorflow提供了其中不同的非线性激活函数,也可以自定义

多层网络解决抑或问题

二、损失函数

神经网络模型的效果以及优化的目标是通过损失函数来定义的

1. 分类问题:

判断输出向量与期望的向量的距离:交叉熵:刻画两个概率分布之间的距离

Softmax将神经网络的输出变成了一个概率分布

 

2. 对于回归问题,

最常用损失函数韦均方误差MSE(mean squared error)

 

3.自定义损失函数

三、参数优化

神经网络的优化分为两个阶段:1.通过前向传播算法计算得到预测值,并与真实值求差 2. 根据反向传播函数计算损失函数对每一个参数求梯度,再根据梯度和学习率使用梯度下降法更新每一个参数 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值