卷积神经网络基础入门知识

人工智能的一个重要的分支为机器学习,而机器学习中核心的就是神经网络,神经网络的隐藏层若是足够深,则可以称为深度神经网络,深度学习包括有深度神经网络,卷积神经网络,循环神经网络。

 

卷积神经网络:

解释一:可以看做一个有输入和输出的盒子,输入的是二维像素矩阵(图片),输出的是这个图片是什么。

解释二: 是一种包含卷积计算且有深度学习结构的前馈神经网络(涉及了人脸识别,自动驾驶等等领域)

 

CNN特点:

能够高效的将大数据量的图片降维成小数据量,能够有效的保留图片的特征,符合图片处理原则。

CNN两大核心:

1.通过卷积操作实现局部连接,这个局部区域大小就是滤波器filter,避免全连接中参数过多,造成无法计算的情况。

2.通过参数共享来缩减实际参数的数量,为实现多层网络提高了可能。

 

卷积: 原图在与卷积核进行卷积操作之后,变成了新的矩阵,相当于是卷积核将原图的特征提取之后反应在了新图像上面 

池化: 由于一些图片的特征特别多,如果要扫描和大量卷积,这将会使得计算量空前巨大,因此,引入池化,将得到的特征图进行缩小(主要有最大池化和平均池化两种,一般是用最大池化)

 

激活函数: 对于人工神经网络模型的学习,理解复杂的非线性函数有十分重要的作用,它们将非线性特征引入到了网络之中。

 

全连接层: 将最终池化后的像素铺成一排,乘以相应的权重并且相加,由此得到某事物的概率,还可以有多层(输入层,隐藏层,输出层。)

 

一般卷积神经网络的步骤是  卷积->激活函数->池化,多次反复后到了全连接层,最终输出。(也不一定有池化操作。)

 

主要的两种神经网络的计算:

 

前向传播: 前向传播是我们通过预先设计好的卷积层,池化层等,按照规定的网络结构一层层的向前计算,最终得到预测的结果。(顺序计算)

 

反向传播: 反向传播是为了将设定的网络中众多参数一步步调整,使得预期的结果贴近真实值。(参数应该向着损失函数下降最快的方向更新即朝着梯度方向更新)

 

损失函数: 将神经网络的结果与真实结果相比较,这就是损失函数(我们的目的是将损失函数降到最低,通过无数次训练,使得神经网络自行选择得到最合适的卷积核)

 

超参数(初始参数): 事先就准备好卷积核的尺寸数目,池化,全连接等。。在机器学习中,超参数是学习阶段设置值的参数,而不是通过训练得到的参数数据(通常情况下,需要对超参数进行优化,给学习机选择一组最优超参数以提高学习的性能和效果)

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值