- 博客(21)
- 收藏
- 关注
原创 [土堆]深度学习快速入门教程笔记——利用GPU训练——016
GPU(Graphics Processing Unit,图形处理单元)是一种专门设计用于处理图形和并行计算任务的硬件设备。最初,GPU主要用于图形渲染和游戏应用,但由于其高度并行的计算能力,它们在科学计算、机器学习和深度学习等领域得到了广泛应用。在深度学习中,神经网络的训练通常涉及大量的矩阵运算和张量操作,这些操作可以高度并行化。GPU的并行计算能力远远超过了一般的中央处理单元(CPU),因此,将神经网络的训练任务放在GPU上进行加速可以极大地提高训练速度。
2023-10-29 11:30:01
281
原创 [土堆]深度学习快速入门教程笔记——神经网络模型训练实战——016
model.eval()是保证BN层能够用全部训练数据的均值和方差,即测试过程中要保证BN层的均值和方差不变。② 如果模型中有BN层(Batch Normalization)和 Dropout,需要在训练时添加model.train()。在model(test)之前,需要加上model.eval(),否则的话,有输入数据,即使不训练,它也会改变权值。① model.train()和model.eval()的区别主要在于Batch Normalization和Dropout两层。
2023-10-29 00:58:46
258
原创 [土堆]深度学习快速入门教程笔记——网络模型使用及修改——014
选择合适的卷积层、池化层、全连接层等,构建网络的基本结构。定义网络的层数、每层的节点数、激活函数等,构建完整的网络架构。根据问题类型选择合适的损失函数和优化器。划分训练集、验证集和测试集,使用反向传播算法和优化器训练网络。根据模型性能调整网络架构、损失函数和超参数,以获得更好的结果。
2023-10-28 21:20:33
355
原创 [土堆]深度学习快速入门教程笔记——损失函数、反向传播与优化器——013
损失函数能够量化模型的预测结果与实际标签之间的误差。通过最小化损失函数,我们可以使得模型的预测结果尽可能接近实际标签,从而提高模型的性能。在训练过程中,优化算法(比如梯度下降)使用损失函数的梯度信息来更新模型参数。通过最小化损失函数,模型可以根据训练数据不断调整自身的参数,使得预测结果更加准确。
2023-10-28 19:56:33
276
原创 [土堆]深度学习快速入门教程笔记——搭建小实战和Sequential使用——012
在PyTorch中,是一个用于构建神经网络模型的容器。它允许你按照顺序添加神经网络的层,使得创建神经网络模型变得更加简单和直观。你只需要按照顺序将各个层添加到Sequential容器中,然后就可以像使用单个模块一样使用它。使用Sequential的好处在于,它让模型的结构更加清晰,你可以通过简单地添加或删除层来修改模型结构。
2023-10-27 23:42:49
142
1
原创 [土堆]深度学习快速入门教程笔记——线性层及其他层——011
神经网络是一种受到人脑神经元结构启发的计算模型,用于机器学习和人工智能任务。它由大量相互连接的人工神经元(也称为节点或神经元)组成,这些神经元按层次排列,分为输入层、隐藏层(可以有多个)和输出层。
2023-10-27 00:13:10
1599
1
原创 [土堆]深度学习快速入门教程笔记——非线性激活——010
如果在神经网络中只使用线性操作(如线性加权和),整个网络就会变成一个大的线性函数,多个线性层的组合依然是一个线性变换。非线性激活函数(例如sigmoid、tanh、ReLU等)引入了非线性关系,允许网络学习和表示非线性的模式,这对于解决复杂任务非常关键。- 作用: 将输入映射到范围(0, 1)之间。在二元分类问题中常用作输出层的激活函数。但它在深层网络中容易引起梯度消失问题,因此在隐藏层中的使用相对较少。
2023-10-26 23:34:30
193
原创 [土堆]深度学习快速入门教程笔记——池化层——009
当 ceil_mode=True 时,如果滑动窗口在左填充内边距内启动,则允许它们越界或输入。将在右侧填充区域开始的滑动窗口将被忽略。
2023-10-26 22:44:40
147
原创 [土堆]深度学习快速入门教程笔记——卷积层——008
torch.nn.Conv2dstride1padding0dilation1groups1biasTrue'zeros'deviceNonedtypeNone常用参数:) – 输入图像中的通道数) – 由卷积产生的通道数or) – 卷积核的大小oroptional) – 卷积的步幅 Default: 1oroptional) – 添加到输入四个边的Padding Default: 0optionaloroptionaloptionaloptional。
2023-10-25 23:25:29
102
1
原创 [土堆]深度学习快速入门教程笔记——卷积原理——007
卷积核不停的在原图上进行滑动,对应元素相乘再相加。下图为每次滑动移动1格,然后再利用原图与卷积核上的数值进行计算得到缩略图矩阵的数据,如下图右所示。输出结果tensor([[[[10, 12, 12],
2023-10-25 00:21:11
147
1
原创 [土堆]深度学习快速入门教程笔记——nn.Module模块使用——006
① 简单理解就是子类把父类的__init__()放到自己的__init__()当中,这样子类就有了父类的__init__()的那些东西。② Myclass类继承nn.Module,super(Myclass, self).__init__()就是对继承自父类nn.Module的属性进行初始化。而且是用nn.Module的初始化方法来初始化继承的属性。③ super().__init()__()来通过初始化父类属性以初始化自身继承了父类的那部分属性;
2023-10-24 23:15:37
133
原创 [土堆]深度学习快速入门教程笔记——Dataloader使用——005
【代码】[土堆]深度学习快速入门教程笔记——Dataloader使用——005。
2023-10-24 22:36:35
133
原创 [土堆]深度学习快速入门教程笔记——torchvision数据集使用——004
torchvision中有很多数据集,当我们写代码时指定相应的数据集指定一些参数,它就可以自行下载。CIFAR-10数据集包含60000张32×32的彩色图片,一共10个类别,其中50000张训练图片,10000张测试图片。
2023-10-24 21:43:10
123
原创 [土堆]深度学习快速入门教程笔记——Transforms使用——003
transforms是Pytorch其中一个模块,它包含了一系列常用的数据转换操作,可以对数据进行缩放、裁剪、旋转、翻转、归一化、变换等处理。transforms的主要作用是为了让数据适合训练神经网络,比如把PIL图像转换为张量,把整数标签转换为one-hot编码,把数据范围调整到[0, 1]或者[-1, 1]等。transforms也可以用来增加数据的多样性和随机性,比如随机裁剪、随机旋转、随机噪声等,这样可以提高模型的泛化能力和鲁棒性。
2023-10-22 17:20:46
578
1
原创 [土堆]深度学习快速入门教程笔记——Tensorboard使用——002
或者做新的训练的时候可以先创建一个子文件:SummaryWriter("新文件夹名")它可以帮助你跟踪和展示训练过程中的指标,如损失和准确率,可视化模型图,查看权重、偏置或其他张量的直方图,将嵌入投影到低维空间,显示图像、文本和音频数据,分析TensorFlow程序的性能,等等。注:这样得到的图片是格式(H, W, 3),并非默认的(3, H, W), 需要设置dataformats='HWC'将网址赋值浏览器的网址栏,回车,即可查看tensorboard显示日志情况。Tensorboard是一个用于。
2023-10-22 14:59:12
182
1
原创 [土堆]深度学习快速入门教程笔记——Pytorch加载数据——001
Dataloader:为后面的网络提供不同的数据形式,它将一批一批数据进行一个打包。
2023-10-22 09:47:30
123
1
转载 STM32 GPIO八种输入输出模式
如按键采用浮空输入,则在按键按下时输入电平为低,但是当松开按键时输入端口悬空,外界有微弱的干扰都会被端口检测到。漏极经上拉电阻接到电源,栅极输出0时,场效应管截止(阻抗无线大),电压被分到场效应管上,此时输出为1。当栅极输出1时,场效应管导通,输出端口相当于接地,此时输出0。开漏输出高电平时是由外接电源输出的,因此可以实现高于输出端口电压的输出。但是无法调节输出电压,因为输出高低电平均为三极管输入端电压,此电压在由芯片内部供电,无法改变。,此时没有电阻接入,电路的时间常数较小,充电较快。
2023-09-11 01:03:16
836
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人