
卷积神经网络
zouxiaolv
踏实、稳重、前行
展开
-
多头注意力机制
动手学深度学习(五十)——多头注意力机制_留小星的博客-优快云博客_多头注意力机制多头注意力机制的理解_Takoony的博客-优快云博客_多头注意力多头注意力机制的概念、具体流程以及相关代码_mjssdhy的博客-优快云博客_多头注意力原创 2022-10-29 15:10:44 · 535 阅读 · 0 评论 -
GoogLeNet系列解读(转载)
https://blog.youkuaiyun.com/shuzfan/article/details/50738394转载 2018-12-10 21:15:50 · 254 阅读 · 0 评论 -
训练神经网络中最基本的三个概念:Epoch, Batch, Iteration
2. 换算关系实际上,梯度下降的几种方式的根本区别就在于上面公式中的 Batch Size不同。*注:上表中 Mini-Batch 的 Batch 个数为 N / B + 1 是针对未整除的情况。整除则是 N / B。3. 示例CIFAR10 数据集有 50000 张训练图片,10000 张测试图片。现在选择 Batch Size = 256 对模型进行训练。每个 ...转载 2019-11-12 14:30:05 · 278 阅读 · 0 评论 -
卷积神经网络——输入层、卷积层、激活函数、池化层、全连接层(转载)
https://blog.youkuaiyun.com/yjl9122/article/details/70198357https://www.cnblogs.com/neopenx/p/4453161.html(激活函数进步详解)https://blog.youkuaiyun.com/glory_lee/article/details/77899465最容易理解的对卷积(convolution)的解释(ht...转载 2018-12-11 11:27:38 · 1585 阅读 · 0 评论 -
深度学习(二十九)Batch Normalization 学习笔记
https://blog.youkuaiyun.com/hjimce/article/details/50866313转载 2018-12-11 16:56:44 · 175 阅读 · 0 评论