【深度之眼】Pytorch框架班第五期-Week4【任务1】第一节:权值初始化

本文深入探讨了深度学习中权值初始化的重要性,包括梯度消失与爆炸问题的解决方法,详细介绍了Xavier与Kaiming两种初始化方法。Xavier方法适用于Sigmoid和Tanh等饱和激活函数,而Kaiming方法则针对ReLU及其变种。文中还讲解了如何使用nn.init.calculate_gain来计算激活函数的方差变化尺度。

权值初始化

梯度消失与爆炸

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

Xavier方法与Kaiming方法

Xavier初始化

方差一致性:保持数据尺度维持在恰当范围,通常方差为1
激活函数:饱和函数,如Sigmoid, Tanh
在这里插入图片描述

Kaiming初始化

方差一致性:保持数据尺度维持在恰当范围,通常方差为1
激活函数:ReLU及其变种
在这里插入图片描述

常用初始化方法

在这里插入图片描述

nn.init.calculate_gain

nn.init.calculate_gain(nonlinearity, param=None)

主要功能:计算激活函数的方差变化尺度
主要参数

  • nonlinearity: 激活函数名称
  • param: 激活函数的参数,如Leaky ReLU的negative_slop
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值