
深度学习
我的她像朵花
这个作者很懒,什么都没留下…
展开
-
全连接的图卷积网络(GCN)和self-attention这些机制的区别与联系
转载声明:如有侵犯作者权利,将立即删除本文。文章来源:知乎问题—“”请问全连接的图卷积网络(GCN)和self-attention这些机制有什么区别联系吗?”文章作者:我爱吃三文鱼原回答链接首先结论是大部分GCN和Self-attention都属于Message Passing(消息传递)。GCN中的Message从节点的邻居节点传播来,Self-attention的Message从Q...转载 2020-02-19 12:14:11 · 3987 阅读 · 0 评论 -
LeNet5的论文及理解
LeNet5网络的来源:Lécun Y, Bottou L, Bengio Y, et al. Gradient-based learning applied to document recognition[J]. Proceedings of the IEEE, 1998, 86(11):2278-2324.1. 卷积神经网络(Convolutional Neural Network,CNN)...原创 2019-03-05 20:59:56 · 24507 阅读 · 1 评论 -
AlexNet论文理解及Tensorfow实现
1. 基本介绍AlexNet,是Hinton的学生Alex Krizhevsky在2012年ImageNet比赛夺冠时使用的网络(在ILSVRC-2010上top-1与top-5错误率为37.5%和17.0%,在ILSVRC-2012上top-5错误率为15.3%),在这之后众多优秀网络结构也相继出现,该网络出自论文《‘ImageNet Classification with Deep Conv...原创 2019-03-15 10:57:39 · 430 阅读 · 0 评论 -
VGGNet理解及TensorFlow实现
1. 介绍VGGNet是牛津大学计算机视觉组(Visual Geometry Group)和Google DeepMind公司的研究员一起研发的深度卷积神经网络。VGGNet探索了卷积神经网络的深度与其性能之间的关系,通过反复堆叠3×33\times33×3的小型卷积核和2×22\times22×2的最大池化层,VGGNet成功地构筑了16~19层深的卷积神经网络。VGGNet相比之前最好的网...原创 2019-03-23 12:36:21 · 731 阅读 · 0 评论 -
GoogLeNet理解及Tensorflow实现
1. 介绍GoogLeNet首次出现在ILSVRC 2014的比赛中(Inception V1),就以较大优势取得了第一名(top-5错误率6.67%,VGGNet—7.32%)。GoogLeNet有22层深,比[AlexNet]的8层和[VGGNet]的19层还要深。但是GoogLeNet只有500万的参数数量,是AlexNet的1/12(但远胜于AlexNet的准确率),VGGNet的参数是...原创 2019-04-09 10:49:21 · 1527 阅读 · 0 评论