一、图像基本知识:


二、CNN(convolutional neural network)卷积神经网络:含卷积层的神经网络。
卷积神经网络的构成:有三层分别是:1.卷积层(CONV):卷积层负责线性乘积求和,提取图像中的局部特征。1.5激励层(RELU):激活函数映射成概率。2.池化层(Pool):池化层用来大幅度降低参数量级(降维)。3.全连接层(FC):全连接层用来输出想要的结果。
卷积层计算:卷积运算本质上就是在卷积核(Filter)和输入数据的局部区域间做点积。
【补充】:卷积核也叫滤波器=Filter;一个卷积核就是一个神经元!
卷积层的主要作用如下:需要背的:
1.特征提取:卷积层的主要作用是从输入图像中提取低级特征(如边缘、角点、纹理等。)通过多个卷积层的堆叠,网络能够逐渐从低级特征到高级特征(如物体的形状、区域等)进行学习。
2.权重共享:在卷积层中,同一个卷积核在整个输入图像上共享权重,这使得卷积层的参数数量大大减少,减少了计算量并提高了计算效率。
3.局部连接:卷积层中的每个神将元仅与输入图像的一个小局部区域相连,这称为局部感受野,这种局部连接方式更符合图像的空间结构,有助于捕捉图像中的局部特征。
4.空间不变性:由于卷积操作是局部的并且采用权重共享,卷积层在处理图像时具有平移不变性。也就是说,不论物体出现在图像的哪个位置,卷积层都能有效地检测到这些物体的特征。
三、padding(填充):用于处理卷积时图像边缘的像素。
其目的是在输入图像的边界周围添加额外的像素(通常是零),从而解决卷积操作时边缘信息丢失的问题。


四、步长(stride):指的是卷积核在图像上滑动时的步伐大小,即每次卷积时卷积核在图像中向右(或向下)移动的像素数。步长直接影响卷积操作后输出特征图的尺寸,以及计算和模型的特征提取能力。

【补充】:特征图的大小与四个东西有关:1.原图大小 2.卷积核大小 3.步长 4.padding(填充)
五、多通道卷积计算:

七、其他补充内容:
1.神经元和感知机的关系:应该说“每个神经元是一个‘广义的’或‘升级版的’感知机”。


3.梯度(Gradient):损失函数相对于模型参数的导数,表示误差随着参数变化的变化率。
【在深度学习中,梯度可以看作是一个指引我们如何调整模型参数(如权重和偏置)以最小化误差的指南针。梯度告诉我们,在当前参数值的情况下,误差朝哪个方向增大或减小,以及应该调整参数多少。】
4.损失函数(Loss Function):衡量模型预测与真实值之间的误差。例如,均方误差(MSE)
cnn和图像基本知识
于 2025-11-29 21:26:56 首次发布

被折叠的 条评论
为什么被折叠?



