深度学习之卷积网络-概述及概念思想通俗地总结

本文介绍了卷积神经网络(CNN)的基础知识,包括卷积运算、池化、激活函数和参数共享。CNN通过稀疏交互、参数共享和等变表示改进了机器学习系统的效率。卷积层、池化层和激活函数共同作用,实现了对输入数据的局部平移不变性。此外,还讨论了零填充的作用以及如何处理不同尺寸的输入。预训练策略在卷积网络中也起到了关键作用。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

深度学习之卷积网络

卷积神经网络(CNN)是一种专门用来处理具有类似网格结构的数据的神经网络。

  • 卷积网络的术语中,卷积的第一个参数x通常叫做输入,第二个参数叫做核函数。输出有时被称作特征映射。

通俗要点总结

1.卷积运算
利用卷积核,将图中具有卷积核特征的部分提取出来,最后形成特征图谱
2.池化
池化可以把区域内最大的值来代表进行输出,也可以求取平均值,当然还有其他种类的池化函数。特点:保持原有的特征的同时缩小了图谱降低了计算量,保存了时移不变性。
下采样:我们有时希望跳过核中的一些位置来降低计算的开销(相应的代价是提取的特征没有先前那么好了),我们可以把这一过程看做对全卷积函数输出的下采样。
3.激活函数
整流线性函数等

  • 超参数:需要人工先设定,事先搭好框架

在很多机器学习的库实现的是互相关函数但是称为卷积。传统上互相关函数和卷积都被大家称为了卷积。互相关函数和卷积运算几乎一样,但是并没有对核进行翻转。

  • 卷积运算通过三个重要的思想来帮助改机机器学习系统:稀疏交互(稀疏连接),参数共享,等变表示。卷积在存储需求和统计效率方面极大的优于稠密矩阵的乘法运算。

稀疏连接通俗的理解就是经过稀疏连接后,一个输入单元仅仅影响部分输出单元,一个输出单元仅仅受部分输入单元影响。然而矩阵乘法产生的,连接不在稀疏的,所有的输出都会受到一个输入单元的影响,所有的输入都会影响一个输出。
处于卷积网络中更深层的单元,他们的接受域要比处在浅层的单元的接受域更大。如果网络中还有池化操作,这样的效应会更强,这意味着卷积网络中尽管直接连接是稀疏的,但是处在更深的层中的单元可以间接的连接到全部或者大部分输入图像上。

  • 参数共享:是指在一个模型中的多个函数
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值