
pytorch学习
文章平均质量分 57
UQI-LIUWJ
这个作者很懒,什么都没留下…
展开
-
论文辅助笔记:Harder Tasks Need More Experts: Dynamic Routing in MoE Models(infer.py)
原创 2025-04-10 16:29:12 · 208 阅读 · 0 评论 -
pytorch 笔记:张量索引的维度扩展规则
这么说可能不清楚,我们用例子说明。原创 2025-03-19 23:47:16 · 362 阅读 · 0 评论 -
深度学习&pytorch笔记:TCN
注:以下是个人观点:这边kernel_size=2(TCN的标准做法),所以此时dilation = 2**i还是dilation = kernel_size**i是无所谓的,但如果。每一个TemporalBlock是由两个因果扩张卷积组成的。如上图,把输出后的x5'和x6'裁剪掉。原创 2025-03-17 10:44:10 · 627 阅读 · 0 评论 -
大模型笔记:pytorch实现MOE
【代码】大模型笔记:pytorch实现MOE。原创 2025-02-11 12:15:19 · 574 阅读 · 0 评论 -
pytorch笔记:mm VS bmm
【代码】pytorch笔记:mm VS bmm。原创 2025-02-11 11:52:34 · 301 阅读 · 0 评论 -
pytorch 笔记:torch.optim.Adam
【代码】pytorch 笔记:torch.optim.Adam。原创 2024-07-22 20:08:14 · 1866 阅读 · 0 评论 -
pytorch 笔记:torch.optim(基类的基本操作)
这在微调预训练网络时特别有用,例如当你决定解冻某些层,让它们在训练过程中变得可训练,并需要被优化器管理。这是大多数优化器支持的简化版本。一旦使用例如 backward() 计算了梯度,就可以调用该函数。这个字典指定了应该被优化的张量(Tensors),以及与该参数组相关的特定优化选项。假设有一个已经训练的模型,现在在特定的epoch之后,要解冻最后几层以进行微调。所有优化器都实现了一个 step() 方法,用于更新参数。这些选项可以包括学习率 (原创 2024-07-22 19:58:10 · 644 阅读 · 0 评论 -
pytorch笔记:named_parameters
可以使用。原创 2024-06-26 11:04:02 · 768 阅读 · 0 评论 -
机器学习/pytorch笔记:time2vec
【代码】机器学习/pytorch笔记:time2vec。原创 2024-06-25 11:32:19 · 901 阅读 · 0 评论 -
pytorch 笔记:应用:根据内积结果评估模型预测准确性
具体来说,有以下数据:张量a(大小为 40x10),包含 40 个位置的embedding(每个位置的embedding维度为10)。张量b(大小为 4x10),包含一个batch中4个预测位置的embedding。张量c(大小为 4x1),包含四个ground-truth位置的索引。任务是对于b中的每个位置,计算它与a中所有40个位置的embedding的内积,然后选取内积值最高的10个位置。接下来,检查c中的ground-truth位置索引是否在这10个最高内积位置中。原创 2024-06-24 14:48:53 · 367 阅读 · 0 评论 -
pytorch笔记:清理GPU内存
用top/htop找到相应程序的PID,再使用 kill 结束该进程。可以清理任何先前运行的程序可能遗留的未释放内存。原创 2024-06-19 14:51:21 · 2290 阅读 · 0 评论 -
pytorch 笔记:torch.dist
时,这表示使用曼哈顿距离(或 L1 范数)。(无穷大)可以用来计算切比雪夫距离。计算距离时使用的范数的阶数。,这表示使用欧几里得距离。原创 2024-06-14 16:28:49 · 647 阅读 · 0 评论 -
torchvision笔记 torchvision.ops.sigmoid_focal_loss
会退化成普通的二元交叉熵损失(Binary Cross Entropy, BCE)权重因子,范围在 (0,1) 之间,用于平衡正负样本。存储每个元素的二分类标签(0表示负类,1表示正类)'none'、'mean' 或 'sum'。与 inputs 形状相同的浮点张量。'none' 表示对输出不进行约简;'mean' 表示将输出取平均;当 =α=1 且 γ=0= 时,'sum' 表示将输出求和。默认为 'none'原创 2024-06-11 16:11:31 · 589 阅读 · 0 评论 -
pytorch 笔记:pytorch 优化内容(更新中)
时,PyTorch 会在程序第一次执行每种卷积配置时启用一个自动调优器,这个调优器通过实际运行不同的卷积算法来测试它们的性能。(默认值)时,PyTorch/cuDNN 会选择一个合适的、通用的卷积算法来执行操作,而不会根据具体的网络配置进行优化。这是因为一旦为每种卷积配置选择了最优算法,就不需要再进行调整,每次执行同样的卷积操作都会使用这一最优算法。然后,它选择最快的算法,并在后续的训练过程中使用这一算法。这个“基准测试”过程只在第一次遇到新的卷积配置时进行。原创 2024-06-08 17:40:14 · 1037 阅读 · 0 评论 -
pytorch笔记:自动混合精度(AMP)
输入为半精度(FP16),输出为全精度(FP32)原创 2024-06-03 14:30:52 · 2284 阅读 · 0 评论 -
pytorch笔记:topk
返回给定输入张量沿指定维度的最大的 k 个元素dimlargestFalsedimsortedTrue。原创 2024-05-29 10:11:13 · 468 阅读 · 0 评论 -
pytorch笔记:torch.nn.Flatten()
将一个连续的维度范围扁平化为一个张量start_dimend_dim。原创 2024-05-26 11:07:26 · 440 阅读 · 0 评论 -
pytorch笔记nn.functional.one_hot & 衍生(有一个padding对应的全零向量)
接收一个包含索引值的 LongTensor,形状为(),并返回一个形状为(, num_classes)的张量,该张量在所有位置都是零,除了在输入张量对应值的索引位置处为1。(int) – 总类别数。如果设置为-1,则类别数将被推断为输入张量中最大类别值加一。num_classes必须比tensor中出现的数字多,否则会报错。原创 2024-05-19 16:04:21 · 451 阅读 · 0 评论 -
pytorch笔记:ModuleDict
nn.Module。原创 2024-05-03 16:00:32 · 555 阅读 · 0 评论 -
pytorch笔记:ReplicationPad1d
可以是一个整数或一个元组。,那么填充后的序列将是。被复制了两次,右边的。原创 2024-05-03 15:48:17 · 1213 阅读 · 0 评论 -
pytorch 笔记:dist 和 cdist
计算两个Tensor之间的p-范数。原创 2023-12-09 16:58:05 · 1590 阅读 · 0 评论 -
t2vec 辅助笔记:evaluate.py
【代码】t2vec 辅助笔记:evaluate.py。原创 2023-11-03 08:50:59 · 359 阅读 · 4 评论 -
pytorch 笔记:torch.nn.utils.clip_grad_norm_
用于防止在训练神经网络时出现梯度爆炸的问题。梯度裁剪通过限制梯度的范数来防止梯度的值变得过大。原创 2023-11-02 17:28:06 · 812 阅读 · 0 评论 -
pytorch笔记:split
是 PyTorch 中的一个函数,用于将张量按指定的大小或张量数量进行分割。原创 2023-11-02 15:21:37 · 1097 阅读 · 0 评论 -
论文辅助笔记:t2vec models.py
从指定的路径加载预训练的词嵌入权重,并将这些权重复制到模型中的。原创 2023-11-02 14:27:14 · 361 阅读 · 0 评论 -
pytorch笔记:allclose,isclose,eq,equal
是一个PyTorch函数,用于检查两个张量是否在某个容忍度范围内近似相等otherrtolatolequal_nan。原创 2023-11-02 14:29:53 · 3689 阅读 · 0 评论 -
论文辅助笔记:T2VEC一个疑虑:stackingGRUCell和GRU的区别在哪里?
nn.GRUhnseq_lenhnseq_lenhnGRUCell如果seq_len为1,那么nn.GRU的hn和的hn应该是相同的?原创 2023-11-01 21:56:42 · 904 阅读 · 0 评论 -
pytorch 笔记:GRU
在多层GRU中,第 l 层的输入(对于 l≥2)是前一层的隐藏状态乘以概率 dropout。原创 2023-11-01 20:47:22 · 1962 阅读 · 0 评论 -
pytorch笔记:PackedSequence对象送入RNN
使用的主要好处是。因为通过跳过填充部分,RNN不需要在这些部分进行无用的计算。这特别对于处理长度差异很大的批量序列时很有帮助。原创 2023-11-01 20:22:30 · 1377 阅读 · 0 评论 -
pytorch 笔记:PAD_PACKED_SEQUENCE 和PACK_PADDED_SEQUENCE
对一个已打包的序列进行解包,这个打包的序列通常是通过。设置为False,输入序列将无条件地被排序。,序列应该按长度降序排列。函数从一个填充的序列得到的。还是之前的packed。原创 2023-11-01 16:51:07 · 673 阅读 · 0 评论 -
pytorch笔记:TRIPLETMARGINLOSS
【代码】pytorch笔记:TRIPLETMARGINLOSS。原创 2023-10-28 23:13:58 · 994 阅读 · 0 评论 -
pytorch 笔记:KLDivLoss
对于具有相同形状的张量 ypred 和 ytrue(ypred 是输入,ytrue 是目标),定义逐点KL散度为:为了在计算时避免下溢问题,此KLDivLoss期望输入在对数空间中。如果log_target=True,则目标也在对数空间。原创 2023-10-28 22:38:24 · 1178 阅读 · 0 评论 -
pytorch 笔记:index_select
是 PyTorch 中的一个非常有用的函数,允许从给定的维度中选择指定索引的张量值一个 1D 张量,包含你想要从dim维度中选择的索引此张量应该是LongTensor类型一个可选的参数,用于指定输出张量。如果没有提供,将创建一个新的张量。原创 2023-10-28 19:12:37 · 2210 阅读 · 0 评论 -
pytorch笔记:torch.norm
默认情况,Frobenius范数。原创 2023-03-29 14:23:13 · 189 阅读 · 0 评论 -
pytorch 笔记:torch.fft
进行一个维度的快速傅里叶变换。原创 2023-03-06 16:04:25 · 4908 阅读 · 0 评论 -
pytorch笔记 torchviz
画出pytorch的流程图。原创 2023-02-26 14:48:45 · 676 阅读 · 0 评论 -
pytorch 笔记:VAE 变分自编码器
使用BCE计算重构误差。原创 2023-01-31 16:32:26 · 578 阅读 · 1 评论 -
pytorch 笔记:torch.nn.init
这个在后面的一些nn.init初始化中会用到。原创 2023-01-20 19:46:12 · 1295 阅读 · 0 评论 -
pytorch笔记:nn.MultiheadAttention
embed_dim模型的维度num_headsattention的头数(embed_dim会平均分配给每个头,也即每个头的维度是embed_dim//num_heads)dropoutattn_output_weights的dropout概率biasinput和output的投影函数,是否有biaskdimk的维度,默认embed_dimvdimv的维度,默认embed_dimTrue——输入和输出的维度是(batch_num,seq_len,feature_dim)原创 2022-10-04 09:54:03 · 4241 阅读 · 0 评论 -
pytorch笔记 meshgrid
【代码】pytorch笔记 meshgrid。原创 2022-09-25 04:43:31 · 470 阅读 · 0 评论