
深度学习
文章平均质量分 96
念秋乐晚
这个作者很懒,什么都没留下…
展开
-
pytorch学习(b站小土堆学习)
线性层,也就等同于全连接层,将一个多维数据拉伸映射为一维。原创 2025-03-31 21:10:29 · 936 阅读 · 0 评论 -
鱼书--学习2
梯度消失(Vanishing Gradient)指在深层神经网络反向传播过程中,梯度值随层数增加指数级衰减,导致浅层网络参数更新缓慢甚至停滞。原创 2025-03-22 17:14:49 · 874 阅读 · 0 评论 -
鱼书-学习
以这个损失函数为基准,找出使它的值达到最小的权重参数,就是神经网络学习的目标。为了找到尽可能小的损失函数值,我们介绍了使用函数斜率的梯度法。原创 2025-03-18 18:00:33 · 919 阅读 · 0 评论