深度学习的数学

本文总结了神经网络的重点和难点,包括输入层、隐藏层和输出层的结构,以及代价函数和参数优化。讨论了过拟合、防御与认证在模型安全性中的作用。介绍了误差反向传播法在解决复杂神经网络优化问题中的应用,以及卷积神经网络的工作机制。还探讨了数据规模与模型参数的关系,以及如何通过梯度下降和误差反向传播来调整权重和偏置。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >


本文参考《深度学习的数学》-涌井良幸 涌井贞美著 杨瑞龙译【人民邮电出版社】

神经网络重点、难点总结

当训练样本不足,网络参数过多时,模型容易发生过拟合
每层需要的卷积核不止一个
针对模型的安全性,主要有两种保护类型:防御和认证。防御的重点是探测和删除。
后门攻击被认为是对深度学习的严重安全威胁。这种攻击可以使模型在带有预定义触发器的输入上表现异常,但在干净的数据上仍然保持最先进的性能。
下采样模式(池层)、下采样层主要有两个功能:降低特征图的维数,并在一定程度上保持特征的尺度不变性特征
偏置也就相当于阈值
在这里插入图片描述
输入层神经元的个数给像素的个数是相同的?
比如要读取4*3像素的图像,输入神经元有12个
隐藏层神经元的个数给什么有关?
设计者的预估,不同的神经元有不同的偏好
除了各层之间传递的兴奋度信息之外,还有噪声,噪声导致无法正确的传递兴奋度信息,需要减少噪声的功能,被称为偏置。
如果将隐藏层和输出层的每个神经元看做一个恶魔,那么恶魔之间的关系就被称为权重,恶魔心的偏置为偏置。输入层为恶魔的手下。
神经网络的权重可以是负数

神经网络需要用到的函数

y=ax+b (正向传播)
y=ax(2)+bx+c(代价函数)
阶跃函数,指数函数(激活函数)
正态分布函数(设置权

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Nefelibat

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值