- 博客(9)
- 收藏
- 关注
原创 关于DataFrame的一些操作
1.输出df特定列最大值的一行df[df['test_precison']==df['test_precison'].max()]2.生成空的df表,并扩展new_df = pd.DataFrame(columns=['Method', 'RecNum', 'Layer'])new_df =new_df.append(row, ignore_index=True) 3.输出对应列为特定值的所有行(例:topK=5, n_layers=2, 希望找到RecNum为5,Layer为2条件下的所有
2021-04-11 16:10:46
145
原创 InstanceNorm1d
官方文档:https://pytorch.org/docs/stable/generated/torch.nn.InstanceNorm1d.html?highlight=instancenorm1d#torch.nn.InstanceNorm1d
2021-04-06 10:45:05
1419
1
转载 Attention Mask
Mask大致分为两种Padding Mask:在NLP任务中,由于句子长度不一致,经常会进行padding操作,在sequence中加入零向量。这部分padding不应该起作用,但是在Attention的计算中用到了softmax等操作,即便0向量也会参与计算(e^0=1),因此需要手动将这部分信息mask才行。padding mask主要包含两种:key mask:在计算score之后,且softmax之前进行,将值设为很小的数字(如-e^12),这样经过的softmax之后值几乎为0query m
2021-03-29 14:48:46
3327
转载 协同过滤的局限性
协同过滤的局限性 协同过滤非常直观,而且可解释性强,但是它仍然具有很多的局限性,比如它的泛化能力比较差,协同过滤无法将两个物品相似这一信息推广到其他物品的相似度计算上。这就到这了一个严重的问题,热门物品具有很强的头部效应,容易跟大量的商品产生相似度,而长尾商品,由于其特征向量稀疏,很少与其他物品产生相似度,导致被推荐的可能性很小。但是去发掘长尾商品,增加长尾被推荐的可能性却是推荐系统最重要的目标之一。这其实也可以被视为是协同过滤的天然缺陷,本身无论是基于用户还是基于商品,协同过滤对稀疏向量的处理本身就很
2021-03-07 15:46:11
2288
原创 python csv 写入 double类型
with open("loss.csv", "a", newline="") as f: writer = csv.writer(f) writer.writerow([epoch_loss]) f.close()
2021-01-13 15:03:21
406
原创 字典
python 字典提取出value相同的keydic={‘a’:1,‘b’:2’,‘c’:1}想要提取出list=[[‘a’,‘c’],[‘b’]]:new_dict = {}for k, v in some_dict.items(): new_dict.setdefault(v, []).append(k)from: https://wenwen.sogou.com/z/q908560056.htm...
2021-01-06 20:16:56
89
原创 tensor维度
tensor维度a = torch.tensor([1,0,0])print(len(a))b = a.unsqueeze(0)print(len(b))print(b)
2021-01-05 15:58:26
154
原创 DGL update_all
来源:https://docs.dgl.ai/guide_cn/message-api.html#guide-cn-message-passing-api
2020-12-03 20:58:39
520
1
原创 图神经网络七日打卡营学习心得
图神经网络七日打卡营学习心得干货满满!虽然没有具体介绍图神经网络谱域方法,但终于弄明白经典GCN模型与空域方法之间的联系。GCN信息传递过程简化来看其实就是邻接矩阵与特征的乘积,对每个节点来说,也就是接收与其相邻节点的特征信息。如下图。此外,不同邻居节点对中心节点起到的作用程度不同,需要为邻居赋予权重,那对于GCN来说,度矩阵就可以派上用场。GCN模型中的权重以“度”来衡量,而GAT模型中的权重则可以通过自学习获取。所有的图片都来自于七日打卡营的课程的ppt:https://gith
2020-11-29 16:19:43
157
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人