tensor:张量,可以理解为矩阵
torch.rand(batsh_size,chanel,w,h)
batsh_size:一次性能处理的数量
channel:通道数,比如一般的图像为RGB 三通道,灰度图像则只有灰度值,也就是单通道1
w,h:张量的长和宽
nn.moudule:神经网络
包含有forward类函数,
包含有卷积层,池化层等等。
卷积层:
来自百度百科的解释:
卷积神经网络中每层卷积层(Convolutional layer)由若干卷积单元组成,每个卷积单元的参数都是通过反向传播算法最佳化得到的。卷积运算的目的是提取输入的不同特征,第一层卷积层可能只能提取一些低级的特征如边缘、线条和角等层级,更多层的网路能从低级特征中迭代提取更复杂的特征。
作用:类似于滤波器(选频,降噪),提取图像特征。
卷积核:系统自动给定的的初始化值,卷积核的大小是自己设定,接受元组或是整形输入,比如3x3的卷积核,卷积的操作是把卷积核的值一个个与输入值相乘再累加,以此得到输出,输出的长和宽不仅取决于输入和卷积核还收step(步长)影响,步长指的是卷积核做卷积操作时向右相下移动的步数。
池化层:
作用:抽象,降维,类似于把1080p的视频变成720p,减低训练时间。
线性层:
作用:变换特征维度
非线性变换:为网络中引入非线性特征,非线性越多,才能训练出拟合各种曲线的模型。
根据loss获得梯度从而进行反向传播进行优化

本文介绍了深度学习的基础概念,包括张量、卷积神经网络(CNN)及其组件。张量是矩阵形式的数据结构,torch.rand()用于创建随机张量。卷积层通过卷积核对图像进行滤波和特征提取,而池化层则用于降低维度,加速训练。非线性变换引入模型复杂性,帮助拟合复杂数据。最后,讨论了线性层的作用及反向传播在优化模型中的应用。
&spm=1001.2101.3001.5002&articleId=124595991&d=1&t=3&u=1808d7eca258450da3711853a722cd97)
445

被折叠的 条评论
为什么被折叠?



