关于深度学习的概念理解(笔记)

本文介绍了深度学习的基础概念,包括张量、卷积神经网络(CNN)及其组件。张量是矩阵形式的数据结构,torch.rand()用于创建随机张量。卷积层通过卷积核对图像进行滤波和特征提取,而池化层则用于降低维度,加速训练。非线性变换引入模型复杂性,帮助拟合复杂数据。最后,讨论了线性层的作用及反向传播在优化模型中的应用。

tensor:张量,可以理解为矩阵

torch.rand(batsh_size,chanel,w,h)

batsh_size:一次性能处理的数量

channel:通道数,比如一般的图像为RGB 三通道,灰度图像则只有灰度值,也就是单通道1

w,h:张量的长和宽

nn.moudule:神经网络

包含有forward类函数,

包含有卷积层,池化层等等。

卷积层:

来自百度百科的解释:

卷积神经网络中每层卷积层(Convolutional layer)由若干卷积单元组成,每个卷积单元的参数都是通过反向传播算法最佳化得到的。卷积运算的目的是提取输入的不同特征,第一层卷积层可能只能提取一些低级的特征如边缘、线条和角等层级,更多层的网路能从低级特征中迭代提取更复杂的特征。

作用:类似于滤波器(选频,降噪),提取图像特征

卷积核:系统自动给定的的初始化值,卷积核的大小是自己设定,接受元组或是整形输入,比如3x3的卷积核,卷积的操作是把卷积核的值一个个与输入值相乘再累加,以此得到输出,输出的长和宽不仅取决于输入和卷积核还收step(步长)影响,步长指的是卷积核做卷积操作时向右相下移动的步数。

池化层:

作用:抽象,降维,类似于把1080p的视频变成720p,减低训练时间。

线性层:

作用:变换特征维度

非线性变换:为网络中引入非线性特征,非线性越多,才能训练出拟合各种曲线的模型。

根据loss获得梯度从而进行反向传播进行优化

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值