(本文已加入“计算机视觉入门与调优”专栏,点击专栏查看更多文章信息)
这一节汇总一下resnet50 中包含的算法,并且简单介绍。
总共卷积算法、激活算法(relu)、最大池化算法、加法(主要是为了实现残差结构)、全局平均池化、全连接和 softmax 算法这几种算法。
卷积
卷积算法是CNN网络的核心,它的主要作用是对图片(第一层卷积的输入是原始的图片)或者特征图(中间的卷积的输入是上面卷积输出的特征图)进行进一步的特征提取,从而实现在不同尺度下的特征提取或者特征融合。
激活(relu)
经网络中的激活函数有很多,激活函数基本都是跟在卷积层后面,用来对卷积的运算结果施加一个非线性变换的因素。
因为卷积算法的主要实现步骤就是乘法和加法,而乘法和加法在数学中,是一种线性变换,再多的乘法和加法,最终还是线性的。也就是说,如果一个卷积层后面紧跟着另一个卷积,那么两个卷积的作用和一个卷积是一样的。
为了将两个卷积区分开,需要在卷积后面添加一个非线性因素的算法,使得两个卷积连接起来并不能等价于一个卷积。
激活层的一个重要作用就是这个,另一个重要的作用就是完成卷积输出的激活,将部分神经元激活,而将部分神经元关闭。
池化
池化层的作用是为了减少运算量,同时保留特征图中的关键特征。
本文详细介绍了ResNet50模型中涉及的算法,包括卷积、ReLU激活、最大池化、残差结构的加法、全局平均池化、全连接和softmax。卷积用于特征提取,激活层引入非线性,池化减少计算量并保留关键特征,残差结构通过加法加速信息传递,全连接层融合特征并映射到样本空间,softmax则增强多分类的准确性。
订阅专栏 解锁全文
1万+

被折叠的 条评论
为什么被折叠?



