
深度学习笔记
野蛮大胖
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
numpy搭建可训练式CNN(二):CNN卷积的反向传播,反卷积,反池化的实现
https://zhuanlan.zhihu.com/p/40951745https://mp.weixin.qq.com/s?__biz=MzI4ODY2NjYzMQ==&mid=2247484232&idx=1&sn=e8f962ecbc85e033e1b06ec166dcb306&chksm=ec3ba620db4c2f3695c43de7d205e16b82cf1b67208d4c572695a5202736dfa89b89c9076595&mpshare=原创 2020-07-23 01:32:38 · 569 阅读 · 0 评论 -
numpy搭建可训练式CNN(一):使用im2col的前向传播
通过摆脱pytorch和tensorflow完全搭建神经网络来夯实一下基础,害,双非的卑微努力本篇搭建了卷积部分和池化的前向传播首先需要复习卷积的基础概念输入(feature), 卷积核(filter)中对应点的相乘上图很清楚的表示了单通道feature的卷积计算,在多通道下,需要注意的是一个卷积核的shape(c, h, w),在每个卷积核的对应通道和feature的对应通道相乘后加起来,具体过程如下图所示在理解上面的卷积过程后,如果自己尝试卷积,可能需要至少6个for循环,极大拖延效率,所原创 2020-07-17 22:50:16 · 435 阅读 · 0 评论