
pytorch
幽殇默
他时若遂凌云志,敢笑黄巢不丈夫。
展开
-
dgl库中一些模型的使用
笔记原创 2024-08-19 21:00:19 · 295 阅读 · 0 评论 -
events.out.tfevents文件
来可视化这些事件文件,以便更好地理解模型的训练和评估过程。文件通常存储训练过程中的事件和摘要数据的文件。文件的目录,并运行以下命令来启动。在命令行中,导航到包含。原创 2024-03-20 00:38:17 · 988 阅读 · 0 评论 -
python中给函数的参数说明其数据类型
原创 2024-02-27 23:35:51 · 112 阅读 · 0 评论 -
python中的...
上图的结果其实是和第一张图的结果是一样的(这里数值有改动但是输出的数的位置是一摸一样的)。通常用于表示省略一系列维度,而不是指定具体的维度索引。上图中的倒数第二个例子很难理解,其他的话就很好理解。上图的结果也是后面的几个。原创 2024-02-27 23:33:53 · 326 阅读 · 0 评论 -
Python列表推导式
从上图可以看到,下面那种就是Python列表推导式可以很简洁的给一个列表赋值。用Python列表推导式给二维的列表赋值。原创 2024-02-27 23:04:06 · 185 阅读 · 0 评论 -
用张量来索引张量
我们创建了一个包含了从 0 到 9 的整数的张量 x。然后,我们创建了一个 bool 类型的张量 bool_indices,其中对应位置为 True 的元素表示选择该位置的元素,而 False 表示不选择。最后,我们使用 bool_indices 张量作为索引来选择 x 中对应位置为 True 的元素,并将结果保存在 selected_elements 中。原创 2024-02-27 22:51:02 · 219 阅读 · 0 评论 -
张量索引张量
第一个是选取张量中大于100的数字,第二个是根据自己定义的mask张量来选取对应位置为True的张量的数值。假设我们有一个一维张量a和另一个整数张量index,我们可以使用index来从a中选择元素。使用布尔张量进行索引,这通常用于根据某些条件选择元素。原创 2024-03-03 11:10:49 · 193 阅读 · 0 评论 -
torch.nn【总结笔记】
在训练时,该层计算每次输入的均值与方差,并进行移动平均。ceil_mode - 如果等于 True,计算输出信号大小的时候,会使用向上取整,代替默认的向下取整的操作。ceil_mode - 如果等于 True,计算输出信号大小的时候,会使用向上取整,代替默认的向下取整的。ceil_mode - 如果等于 True,计算输出信号大小的时候,会使用向上取整,代替默认的向下取整的。ceil_mode - 如果等于 True,计算输出信号大小的时候,会使用向上取整,代替默认的向下取整的。原创 2024-03-08 00:59:55 · 752 阅读 · 0 评论 -
判断是否安装了cuda和cuDNN
【代码】判断是否安装了cuda和cuDNN。原创 2024-03-07 00:06:13 · 379 阅读 · 0 评论 -
torch.Tensor
permute(dims),将 tensor 的维度换位。原创 2024-03-05 08:27:26 · 159 阅读 · 0 评论 -
DGL如何表示一个图形?
官网:https://docs.dgl.ai/tutorials/blitz/2_dglgraph.html。原创 2024-03-03 12:54:58 · 270 阅读 · 0 评论 -
dgl中的dgl.DGLGraph.ndata和dgl.DGLGraph.edata
【代码】dgl中的dgl.DGLGraph.ndata¶和dgl.DGLGraph.edata。原创 2024-03-03 09:23:34 · 885 阅读 · 0 评论 -
检查GPU版本的Pytorch安装是否成功
【代码】检查GPU版本的Pytorch安装是否成功。原创 2024-03-02 00:11:24 · 1184 阅读 · 0 评论 -
清理 Anaconda 的 pkgs
参考文章:https://blog.youkuaiyun.com/Robin_Pi/article/details/115004870。原创 2024-03-01 22:57:15 · 400 阅读 · 0 评论 -
import和from...import的对比
笔记原创 2024-03-01 22:03:36 · 121 阅读 · 0 评论 -
conda从本地安装包
【代码】conda从本地安装包。原创 2024-03-01 00:09:46 · 3129 阅读 · 0 评论 -
enumerate()
enumerate()主要用来便利列表原创 2024-02-29 23:49:18 · 99 阅读 · 0 评论 -
torch.nn.Dropout()
官网地址: https://pytorch.org/docs/stable/generated/torch.nn.Dropout.html。原创 2024-02-29 23:47:40 · 283 阅读 · 0 评论 -
LEAKY_RELU
官网:https://pytorch.org/docs/stable/generated/torch.ao.nn.quantized.functional.leaky_relu.html#leaky-relu。原创 2024-02-29 23:40:59 · 226 阅读 · 0 评论 -
torch.nn.AdaptiveAvgPool2d()
官网:https://pytorch.org/docs/stable/generated/torch.nn.AdaptiveAvgPool2d.html#torch.nn.AdaptiveAvgPool2d。原创 2024-02-29 23:35:56 · 532 阅读 · 0 评论 -
torch.nn.init.kaiming_uniform_
官网:https://pytorch.org/docs/stable/nn.init.html#torch.nn.init.kaiming_uniform_对张量 w 进行 Kaiming 均匀初始化,使得其适合用于具有 ReLU 激活函数的神经网络。原创 2024-02-29 23:33:47 · 465 阅读 · 0 评论 -
nn.AdaptiveAvgPool1d()
官网地址: https://pytorch.org/docs/stable/generated/torch.nn.AdaptiveAvgPool1d.html#torch.nn.AdaptiveAvgPool1d。原创 2024-02-29 23:21:52 · 240 阅读 · 0 评论 -
nn.ModuleList()
官网:https://pytorch.org/docs/stable/generated/torch.nn.ModuleList.html#torch.nn.ModuleList。原创 2024-02-29 23:20:02 · 237 阅读 · 0 评论 -
python中size()函数如何用?
原创 2024-02-28 23:57:58 · 895 阅读 · 0 评论 -
CONV2D
官网:https://pytorch.org/docs/stable/generated/torch.nn.Conv2d.html。原创 2024-02-28 22:15:29 · 379 阅读 · 0 评论 -
LEAKYRELU
官网: https://pytorch.org/docs/stable/generated/torch.nn.LeakyReLU.html#torch.nn.LeakyReLU。原创 2024-02-28 22:17:20 · 175 阅读 · 0 评论 -
CONV1D详解
笔记原创 2024-02-28 22:10:38 · 1135 阅读 · 0 评论 -
Pytorch nn.Linear的基本用法与原理详解
ops_request_misc=%257B%2522request%255Fid%2522%253A%2522170910369016800182121817%2522%252C%2522scm%2522%253A%252220140713.130102334…官网:https://pytorch.org/docs/stable/generated/torch.nn.Linear.html#torch.nn.Linear。原创 2024-02-28 22:24:50 · 297 阅读 · 0 评论 -
torch中 nn.BatchNorm1d
官网:https://pytorch.org/docs/stable/generated/torch.nn.BatchNorm1d.html#torch.nn.BatchNorm1d。一维批标准化层,可以用于神经网络中的卷积层或全连接层,有助于加速模型训练并提高模型的泛化能力。原创 2024-02-28 22:35:11 · 415 阅读 · 0 评论 -
torch.nn.ReLU和TORCH.NN.FUNCTIONAL.RELU
第一种,需要定义一个实例然后再使用。第二种,可以直接使用。原创 2024-02-28 23:27:27 · 366 阅读 · 0 评论 -
TORCH.NN.FUNCTIONAL.MAX_POOL2D
官网地址:https://pytorch.org/docs/stable/generated/torch.nn.functional.max_pool2d.html。可以看到这里的移动的步长默认是卷积核的大小。原创 2024-02-28 23:42:20 · 215 阅读 · 0 评论