14、深度学习网络调优与参数调整策略

深度学习网络调优与参数调整策略

1. 损失函数的选择

在深度学习中,对于不同的分类问题,合适的损失函数至关重要。对于二元分类问题,我们可以使用交叉熵损失函数。在TensorFlow中,使用Keras时,只需在 compile 函数中指定 loss='binary_crossentropy' 即可。示例代码如下:

model.compile(loss='binary_crossentropy', 
              optimizer = optimizer_type, 
              metrics =['accuracy'])

对于多分类问题,则使用分类交叉熵损失函数,在TensorFlow里指定 loss='categorical_crossentropy'

2. 避免隐藏层梯度消失的激活函数

之前我们讨论了通过选择不同的损失函数来解决输出层神经元饱和的问题,但这对隐藏层并无帮助。隐藏层神经元仍可能饱和,导致导数接近0,出现梯度消失的情况。

早期的激活函数如tanh和逻辑sigmoid函数,是从早期的神经元模型发展而来,并且要求激活函数可微。然而,当这些函数的导数为0时,即使可微也没有太大作用。

因此,我们有必要探索其他激活函数:
- 修正线性单元(ReLU) :它在神经网络中表现良好。虽然在x = 0处不可微,但我们可以将该点的导数定义为1,从而在反

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符  | 博主筛选后可见
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值