- 博客(5)
- 收藏
- 关注
原创 ACN(Auto-Compressing Networks)详解---ResNet?DenseNet?傻傻分不清
Auto-Compressing Networks这篇论文由雅典国立科技大学于2025年Nips发表。先来对比一下论文中给出的网络架构图1.网络架构图第一次听到这个ACN名称会觉得有些蒙,何来auto?何来compressing?这里就直接开门见山的给出答案。auto源于 仅对架构进行更改,文章多次提到 through architectural design通过架构本身设计,就能咋样咋样...读者能否体会only这个词在这里体现出小得意的感觉?
2025-12-11 21:33:01
578
原创 权重初始化的底层逻辑:从可学习参数的数值范围到梯度传递的全链路解析
如果你去问大语言模型,为什么要进行权重初始化?大概率会得到这样一个回答:参数初始化是为了给可学习参数一个合理起点:避免梯度消失 / 爆炸,让模型训练稳定;加速收敛,减少迭代次数;让各层参数同步更新,充分发挥网络能力。。既然涉及到参数更新,也就是说参数初始化,比如卷积层里的卷积核的参数,全连接层的参数,bn层里的放缩和偏移系数。所以“需要被更新” 是 “需要被初始化” 的前提,两者的对象完全一致。
2025-10-29 23:22:10
961
原创 alex、vgg、googlet的pytorch代码实现---附CNN常见问题汇总
alex、vgg、googlet的pytorch代码实现---附CNN常见问题汇总
2025-07-02 14:32:17
909
原创 CS231N笔记前部分拓展、深度学习入门知识-----正则化、优化器、基本分类器
对斯坦福cs231n课程前部分进行扩展、深入、理解。主要从k近邻分类器、线性分类器、正则化、优化器、全连接层这些方面进行细化拓展。可以说这些是每一个深度学习工作者的第一步也是必须走的一步。走好这步,在接下来学习cnn、rnn、transfrom等都会轻松很多。
2025-05-30 11:12:23
279
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅