- 博客(6)
- 收藏
- 关注
原创 深度学习笔记 第1周
(5)通过提供包含数值的列表或者嵌套列表为所需张量中的每个元素赋确定值。(4)使用全0,全1,其他常量或者从特定分布中随机采样的数字。N维数组是机器学习和神经网络的主要数据结构。张量表示一个数值组成的数组,可有多个维度。(3)通过reshape仅改变张量的形状。形状不同时,可通过广播机制来执行元素操作。(11)python对象相互转化。(2)访问张量的形状和元素总数。(7)可以把多个张量连结在一起。(6)可按元素进行运算。(10)内存分配问题。
2024-09-17 19:21:27
354
原创 利用GPU训练模型
使用GPU训练(4060laptop):速度明显比CPU快。通过.to(device)进行训练(T4 GPU)使用Google提供的。使用GPU训练的方法。使用GPU训练的方法。结果与第一种方法相同。
2024-05-15 10:58:14
698
原创 完整的模型训练套路
其对一些网络层对有作用,比如Dropout层、BatchNorm层,这时就需要调用,将模型调为训练和测试模式,但不输入这两个代码,我们的模型仍可进行训练和测试。因为我们的模型中并不存在这两个类型的网络层,所以不调用也可以正常运行。在训练和测试步骤开始时,需要分别使用。搭建神经网络,作为一个模块。在官方文档中有详细说明。
2024-05-14 22:14:25
407
原创 (自用)学习进度(三)
3、NLLLoss的结果就是把上面的输出与Label对应的那个值拿出来(下面例子中就是:将log_output\logsoftmax_output中与y_target对应的值拿出来),去掉负号,再求均值。它通过对模型参数的更新进行惩罚,使得参数的幅度较小,有助于提高模型的泛化能力。函数使其进行反向传播,计算出每个节点的参数的梯度,可以通过梯度选择合适的优化器,对参数进行优化,对loss达到降低的目的。”的简称,是一种与最优化方法(如梯度下降法)结合使用的,用来训练人工神经网络的常见方法。
2024-05-10 21:35:59
1686
1
原创 (自用)学习进度(二)
以ReLU函数为例,有一个参数inplace,该参数作用在于是否将输入数据进行替换,inplace的取值是True或者False,当inplace=True时,将输入数据进行替换,当inplace=False时,输入数据不进行替换。是用于设置网络中的全连接层的,需要注意在二维图像处理的任务中,全连接层的输入与输出一般都设置为二维张量,形状通常为[batch_size, size],不同于卷积层要求输入输出是四维张量。:卷积核的大小,可用元组(H,W)表示,H为高度,W为宽度。
2024-05-03 20:24:40
1595
1
原创 (自用)学习进度(一)
利用img,label接收ants_dataset[1]传回来的数据(数列,通过索引访问),再通过img.show()函数可以将图片打开。先利用numpy.array(),对PIL图片进行转换即可获得add_image()所需要的数据类型。注:从PIL到numpy,需要再add_image()中指定shape中每一个数字/维表示的含义。在pytorch的虚拟环境中输入以下代码安装tensorboard。1、add_scalar()的使用。二、TensorBoard的使用。2、add_image()的使用。
2024-05-01 21:34:12
1602
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅