- 博客(16)
- 收藏
- 关注
原创 autodl无法更新ubuntu内核版本?sudo update grub: failed ...
autodl无法更新ubuntu内核版本?sudo update grub: failed ...
2024-10-25 02:13:59
528
1
原创 pytorch: .dot(), .mm(), .matmul(), .add(), .add_(), .mul(), .mul_(), .zero_()
pytorch: .dot(), .mm(), .matmul(), .add(), .add_(), .mul(), .mul_(), .zero_()
2024-07-22 16:03:23
625
原创 在手写数字识别MNIST上实现模型固定间隔的保存以及意外中断的恢复训练!
作者作为深度学习半脚入门玩家,初心是想实现1.每训练一定的epoch保存一下模型权重;2.训练意外中断时从保存的最近检查点恢复训练;这两个目的。所以就从最简单的CNN手写数字识别任务上做了尝试,这份代码应该是直接copy就能跑通的,大家可以训一半epoch自己中断一下(ctrl+c)再重新训试试,应该是可以从保存的最近检查点(ckpt)恢复训练的,看在作业这么诚恳地交流心得且代码完全copy下来就能跑通的前提下点赞收藏关注下吧!
2024-07-14 15:19:47
516
原创 argparse库设置命令行参数--parser.add_argument()
一、argparse库设置命令行参数带有--前缀的形如--epoch表示可选参数,不必要且无需按特定的顺序;不带--的为位置参数,必须按特定顺序,且通常是必需的。1.1 parser.add_argument()各个参数解释: name_or_flags:如"batch_size",表示参数的名字 default:为参数的默认值
2024-07-11 22:09:10
483
原创 高维数组/一维列表切片【冒号切片法,省略号切片法,...】
高维数组/一维列表切片【冒号切片法,省略号切片法,...】'''对高维(至少得是二维数组)数组切片,有省略号切片法,冒号切片法(左行/右列);对index1:index2,index1为开始索引,index2为结束索引(不包含!)'''a = np.array([[1.1, 2.1, 3.1, 4.1], [5, 6, 7, 8], [9, 10, 11, 12]])print(a.shape) #(3, 4)表示a是一个二维数组,其中含有3个长度为4的一维数组
2024-07-09 23:21:09
590
原创 pytorch-生成随机数的函数(torch.rand(), torch.randn(), torch.randn_like(), ...)
'pytorch生成随机数'import torchimport torch.nn as nn# 1.torch.rand(shape)生成形状为shape的随机张量,其中每个元素的值服从[0, 1)的均匀分布;x1 = torch.rand(2, 2)print(x1)print(x1.shape) # torch.Size([2, 2])
2024-07-08 21:50:19
505
原创 类的特殊方法汇总(__init__, forward, __getitem__)
在python中定义的类中,往往有__init__()方法,与模型有关的类还会有forward()方法,以及其他特殊方法,如__getitem__()方法,这些方法什么时候会被执行呢?我们通过下面的例子说明:
2024-07-04 16:37:59
395
原创 einsum(equation, *tensors)函数用法【附代码】
einsum(equation, *tensors)函数对输入的一个或多个张量(*tensors)作定义为equation的运算 通常来说,equation由输入的张量(*tensors)的shape来定义的,类似于einops模块中的rearrange, reduce, repeat但规则不同: 1. 一般来说,eqution的形式是'i j -> j i'(矩阵转置例子,这里的i, j对应的是张量shape的对应维度) # 如shape:(2, 3);可知i=2, j=3.
2024-06-26 22:42:31
434
原创 pytorch3d.transforms转换类函数和三角函数运算
from pytorch3d.transform import (axis_angle_to_matrix, matrix_to_axis_angle, quaternion_to_matrix, matrix_to_quaternion, rotation_6d_to_matrix, matrix_to_rotation_6d)
2024-06-24 00:12:45
365
原创 torch.split()函数用法讲解[含代码实例]
# torch.split(tensor, split_size, dim)函数对张量tensor在指定维度(dim)按参数split_size_or_sections进行分割,最终返回分割后的张量组成的元组(turple);# 其中split_size可以是区间[ 1, tensor.shape[dim] ]的整数,表示每一次在指定维度(dim)分割的值(行数/列数),最终分块张量的数量==tensor.shape[dim] / split_size的值# 若除不尽,则分块张量的数量为最大商+1
2024-06-23 20:59:51
1259
原创 DataLoader()函数的参数说明
DataLoader()函数的参数说明:1.dataset (必需): 用于加载数据的数据集,通常是torch.utils.data.Dataset子类的实例化;2.batch_size (可选): 每个批次的数据样本数,default: 13.shuffle (可选): 是否打乱数据集,default: False4.num_workers (可选): 数据加载的子进程数量,default: 0,即数据只在主进程中加载;
2024-06-20 00:30:09
449
原创 python 中的迭代器和生成器
一.迭代器(iterator)1.在介绍迭代器之前,我们需要明白一个概念:什么是可迭代的(iterable)?如字符串,列表,字典等可以使用for循环的对象都是可迭代的,单个数字是不可迭代的。此外,可迭代的(iterable)不等同于迭代器(iterator)。我们可以借助collections.abc 库中的 Iterable 和 Iterator 判断一个对象是否可迭代(iterable)和是否为迭代器(iterator).
2024-06-19 17:53:07
1125
原创 torch.nn.LayerNorm(normalized_shape, eps)函数
# torch.nn.LayerNorm(normalized_shape, eps)对一个batch的数据进行归一化,即均值为0方差为1.(归一化不改变张量的shape)# 其中normalized_shape指定需要进行归一化的数据形状,eps是一个很小的正数防止除以0的情况。# 创建两个随机张量并转化为浮点数a1 = torch.randint(0, 10, (3, 4)).to(torch.float32)
2024-06-18 18:03:23
1208
原创 torch.where()函数的三种用法
# torch.where()函数的三种用法:"""1.torch.where(bool_tensor1 & bool_tensor2)接受两个元素为布尔值(True/False)组成的张量,返回两个张量组成的元组(turple),其中第一个张量中的元素是两布尔张量bool_tensor1 和 bool_tensor2 均为True的元素的行索引,第二个张量中的元素是两布尔张量bool_tensor1 和 bool_tensor2均为True的元素的列索引。
2024-06-16 22:07:30
961
原创 函数torch.gather(input, dim, index)
--torch.gather(input, dim, index)函数接受三个参数:input: 输入张量dim: 操作维度index: 索引张量(整数张量,实际上它的每个元素都为非负整数)作用(输出):从输入张量input中抽一些元素作为输出张量的元素组成,且输出张量的shape == index.shape关键:怎么从输入张量input中抽元素,具体抽哪一个(对每一步骤)哪些(整体上)元素。
2024-06-16 01:30:48
480
原创 对张量shape操作函数汇总,附代码(reshape(), torch.cat(), view(), torch.stack(), transpose(), permute(), unsqueeze)
若不指定索引,如x.squeeze()则在所有维度上均类此操作。x3_6 = reduce(x, '(b1 b) h (w1 w) -> b h w', 'mean', b1=2, w1=2) # 平均池化。x3_4 = reduce(x, '(b1 b) h (w1 w) -> b h w', 'max', b1=2, w1=2) # 最大池化。x3_5 = reduce(x, '(b1 b) h (w1 w) -> b h w', 'min', b1=2, w1=2) # 最小池化。
2024-06-11 23:58:46
856
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人