吴恩达深度学习笔记(deeplearning.ai)之卷积神经网络(CNN)(上)
原文链接 https://www.cnblogs.com/szxspark/p/8439066.html
1. Padding
在卷积操作中,过滤器(又称核)的大小通常为奇数,如3x3,5x5。这样的好处有两点:
在特征图(二维卷积)中就会存在一个中心像素点。有一个中心像素点会十分方便,便于指出过滤器的位置。
在没有padding的情况下,经过卷积操作,输出的数据维度会减少。以二维卷积为例,输入大小 n×n,过滤器大小f×f,卷积后输出的大小为(n−f+1)×(n−f+1)。
转载
2020-10-12 16:13:40 ·
368 阅读 ·
0 评论