在55 服务器运行stam 看到网络结构为:

为什么两个norm 层连在一起 然后两个dropout层也连在一起?
实际上是:


但是假如这个成立的话,那么我是需要一个mlp 的操作 但是在上面又没有发现mlp
mlp 的结构:


深度学习网络结构解析:连续的归一化与Dropout层
博客探讨了一种不寻常的深度学习网络结构,其中两个归一化(Norm)层紧接着两个Dropout层。作者提出疑问,这种设计是否合理,并指出在结构中未明确发现多层感知器(MLP)的使用。文章可能涉及神经网络优化和架构选择的主题。
在55 服务器运行stam 看到网络结构为:

为什么两个norm 层连在一起 然后两个dropout层也连在一起?
实际上是:


但是假如这个成立的话,那么我是需要一个mlp 的操作 但是在上面又没有发现mlp
mlp 的结构:


3695
3194

被折叠的 条评论
为什么被折叠?