卷积神经网络CNN简要学习

本文介绍了卷积神经网络(CNN)的基础知识,包括卷积、非线性激活、池化及全连接层等核心组件的工作原理,并探讨了CNN的训练与优化方法。
部署运行你感兴趣的模型镜像
【1】基本概念
欠拟合:识别不出正确样本
泛化能力:CNN模型的通用性
patch匹配:块匹配
特征(feature)= 卷积核(filter):样本的特征;多个
【2】卷积
卷积:卷积核和样本对应相乘,取平均值放中间,得到新图——特征图(feature map)
      窗口按照步长滑动
特征图中的值越接近于1说明对应位置和feature匹配越完整。
有几个特征就会产生几个feature map
【3】非线性激活层
使用的非线性激活函数是Relu函数
公式:f(x)=max(0,x)
【4】pooling池化层
为什么要池化:feature map太多,用池化来减小数据量。
池化分两种:Max Pooling最大池化、Average Pooling平均池化
最大池化:选取池化窗口中最大的值作为新feature map的值
根据步长滑动池化窗口来更新值


卷积层、Relu层、池化层就是CNN的基本配置,堆叠使用这三层。
【5】全连接层
全连接层的形式和前馈神经网络(feedforward neural network)的形式一样,称为多层感知机(multilayer perceptron,MLP)。
通过【1】【2】【3】【4】得到一个小矩阵(即特征图),全连接层来对该矩阵(特征图)进行维度上的改变,得到每个分类类别对应的概率值。
卷积采用的是根据窗口进行局部连接的方法,然后滑动窗口来进行后续连接,这种思想叫做“参数共享”,参数指filter。局部连接和参数共享是卷积神经网络最重要的两个性质。
全连接层中有一个非常重要的函数-Softmax。是一个分类函数,输出是每个对应类别的概率值。通过概率来进行样本的分类。
【6】神经网络的训练与优化
神经网络训练的就是卷积核们。
其中有BP算法(BackProp反向传播算法)
误差:error=(result-label)2

训练的目标是使error最小,常用的方法:梯度下降法

参考:

https://zhuanlan.zhihu.com/p/27908027

https://zhuanlan.zhihu.com/p/28173972

您可能感兴趣的与本文相关的镜像

Stable-Diffusion-3.5

Stable-Diffusion-3.5

图片生成
Stable-Diffusion

Stable Diffusion 3.5 (SD 3.5) 是由 Stability AI 推出的新一代文本到图像生成模型,相比 3.0 版本,它提升了图像质量、运行速度和硬件效率

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值