
pytorch
文章平均质量分 70
卢容和
这个作者很懒,什么都没留下…
展开
-
JS:单调栈——更大元素,每日温度,柱状图矩阵,移掉数字,去重复字母
单调队列 处理 滑动窗口最大值(困难)单调栈:单调栈用途不太广泛,只处理一种典型的问题,叫做 Next Greater Element。496. 下一个更大元素 I (简单)这里多了一步是,在nums2中找到目标值nums1。给你两个 没有重复元素 的数组 nums1 和 nums2 ,下标从 0 开始计数,其中nums1 是 nums2 的子集。var nextGreaterElement = function(nums1, nums2) { let stack = [], n.原创 2022-02-28 15:44:17 · 1280 阅读 · 0 评论 -
全面理解pytorch nn.conv2d 和 1d
https://www.freesion.com/article/9320430513/torch.nn.conv2d的group参数谨记:input_channel = xoutput_channel = ygroup = n组卷积就是把将input分解成group个组,即input_channel则一个组需要 output_channel / group 个filter,因为group * output_channel / group = output_channel 。为啥分组呢?原创 2021-08-30 12:54:11 · 410 阅读 · 0 评论 -
GCN——DGL教程
官方教程中文版安装DGL内置函数和消息传递APIdgl.function查阅需要的函数,官方教程没有注释消息传递框架(Message Passing Paradigm):可以对“边” 或者 “节点” 计算,(小白,还不知道怎么运用“边”的特征)message function消息函数:它通过将边上特征与其两端节点的特征相结合来生成消息。update function更新函数:结合聚合后的消息和节点本身的特征来更新节点的特征。reduce function聚合函数:聚合节点接受到的消息原创 2021-08-01 18:23:34 · 2236 阅读 · 0 评论 -
学习图卷积
知乎:一文读懂图卷积GCN,苘郁蓁目录图网络的分类1.1 Graph Embedding——方式:矩阵分解、DeepWalk游走、Graph Neural Network1.2 Graph Neural Network——统称,从图的类型,训练的方式,传播的方式三个方面划分1.3 Graph Convolutional Network——理解其他模型(GAT、Graph LSTM)的基础图卷积神经网络GCN属于图神经网络GNN的一类,是采用卷积操作的图神经网络,可以应用于图嵌入GE。原创 2021-07-31 19:04:28 · 559 阅读 · 0 评论 -
nn.moduleList 和Sequential(转载)
转载核心:moduleList当添加 nn.ModuleList 作为 nn.Module 对象的一个成员时(即当我们添加模块到我们的网络时),所有 nn.ModuleList 内部的 nn.Module 的 parameter 也被添加作为 我们的网络的 parameter。和普通list不一样,它和torch的其他机制结合紧密,继承了nn.Module的网络模型class可以使用nn.ModuleList并识别其中的parameters,而nn.ModuleList则没有顺序性要求,并且也没有实转载 2021-03-20 20:25:21 · 248 阅读 · 0 评论 -
BCELoss和BCEWithLogitsLoss计算机及参数
计算target 和output 间的二值交叉熵(Binary Cross Entropy)转载1:介绍公式,计算过程转载2:函数参数解释转载3:BCEWithLogitsLoss还提供了参数pos_weight原创 2021-03-20 19:11:31 · 743 阅读 · 0 评论 -
torch.save,为cpu设置种子,model.eval()与torch.no_grad(),model.forward()与model()
转载1:https://zhuanlan.zhihu.com/p/67053004?from_voters_page=true首先讲讲保存模型或权重参数的后缀格式,权重参数和模型参数的后缀格式一样,pytorch中最常见的模型保存使用 .pt 或者是 .pth 作为模型文件扩展名。还有其他的保存数据的格式为.t7或者.pkl格式。t7文件是沿用torch7中读取模型权重的方式,而pth文件是python中存储文件的常用格式,而在keras中则是使用.h5文件 。转载2:https://blog.cs原创 2021-03-19 16:59:18 · 768 阅读 · 0 评论 -
pytorch pack_padded_sequence和pad_packed_sequence
问题当我们进行batch个训练数据一起计算的时候,我们会遇到多个训练样例长度不同的情况,这样我们就会很自然的进行padding,将短句子padding为跟最长的句子一样。问题是,句子“Yes”只有一个单词,但是padding了5的pad符号,这样会导致LSTM对它的表示通过了非常多无用的字符,这样得到的句子表示就会有误差。RNN对变长序列的处理主要是用函数torch.nn.utils.rnn.pack_padded_sequence()和torch.nn.utils.rnn.pad_packed原创 2020-12-06 10:24:26 · 321 阅读 · 1 评论 -
pytorch官方教程3 translation with seq2seq and attention 拓展(3)
前言该代码来源:《深度学习理论与实战:基础篇》的ch4章节,编著:李理。github,第一篇探索attention原理时发现的大神。代码形式与官网大致相似,也有优化的地方。Variable可以训练的PyTorch模块要求输入是Variable而不是Tensor。Variable除了包含Tensor的内容之外,它还会跟踪计算图的状态,从而可以进行自动梯度的求值。def variable_from_sentence(lang, sentence): indexes = indexes_原创 2020-12-03 21:24:32 · 205 阅读 · 0 评论 -
torch的函数contiguous(),view(),permute()
view只是读数组的方式不同https://blog.youkuaiyun.com/york1996/article/details/81949843 介绍view()view只能用在contiguous的variable上。如果在view之前用了transpose,permute等,需要用contiguous()来返回一个contiguous copy。what is contiguoushttps://blog.youkuaiyun.com/appleml/article/details/80143212?utm_so原创 2020-11-28 14:30:16 · 699 阅读 · 0 评论 -
embedding层和全连接层的区别
本篇没技术含量,来源于知乎评论:问题来源:nn.Embedding输入的是每个词的索引。该层就通过索引返回对应的词向量。全连接层输入如果是one-hot(向量中只有一位为1),那返回的也是对应的那一行向量。作者:Hover链接:https://www.zhihu.com/question/344209738/answer/843929870Embededding 描述的一种功能,FC描述的是一种结构,二者的划分方式不同Embedding的目的是进行数据的降维和向量化,比如图像用CNN卷了之后原创 2020-10-23 20:13:03 · 2055 阅读 · 0 评论 -
torch.nn.LSTM()
链接1:单个RNN单元可以使用torch.nn.RNNCell(), LSTMCell(), GRUCell() ——使用for循环来处理循环神经网络(时间维度)可以直接调用torch.nn.RNN(), LSTM(), GRU()rnn = nn.LSTM(10, 20, 2) # 初始化LSTM, 输入x的特征数=10, 输出隐藏状态的特征数=20, LSTM的层数=2input = torch.randn(5, 3, 10) # 字段长度/时间步总数=5, batch_size=3原创 2020-10-22 16:44:18 · 863 阅读 · 0 评论 -
pytorch小函数+gensim库 (1)
torch.data()或者直接print(x)获取的类型是tensor, item()则是float.注意torch.item()只能是一个值,适合返回loss,acctorch.eq(input, other, out=None)比较元素是否相等,第二个参数可以是一个数,或者是第一个参数同类型形状的张量。相同则对应位置为1,否则为0https://blog.youkuaiyun.com/DJames23/article/details/105847199/比较torch.eq()与x.eq()http原创 2020-10-20 15:36:44 · 328 阅读 · 0 评论