
图卷积
weixin_40248634
清华大学计算机硕士
展开
-
(LHCN)Line Hypergraph Convolution Network(2020)笔记
Line Hypergraph Convolution Network:Applying Graph Convolution for Hypergraphs摘要贡献问题定义方法:LHCNLine Graph and Extension to Hypergraphsline graph 卷积网络将信息传回到超图实验代码: https://bit.ly/2qNmbRn摘要利用GCN,将其扩展到hypergraph,提出在边图(也就是LINE图)上的超图卷积。这篇论文可以看作是将超图转化为普通图,然后通过普原创 2020-06-09 15:52:49 · 1560 阅读 · 2 评论 -
图神经网络聚类
传递算子Z=(1−η)Z+ηZZ=(1-\eta)Z+\eta ZZ=(1−η)Z+ηZ可以用来(GCN的迭代聚合,容易出现过平滑)减缓过平滑现象,也就是决定有多少是保留,有多少又是传递到下一个使用1 是将Q分布进行挤压,以获得更高置信度的分布P。用三个监督信息,对一个实体用多个视图进行描述会更准确使用重构loss 和聚类loss应用场景ACM是学术数据集,DBLP是电影数据集,真实的聚类问题是没有真实的标准答案的,而搞研究的实验数据集是有真正答案的;...原创 2020-05-29 19:57:53 · 2611 阅读 · 8 评论 -
HyperGCN(2019-NIPS)
HyperGCN: A New Method of Training Graph Convolutional Networks on Hypergraphs动机贡献模型:HyperGCN超图拉普拉斯1-HyperGCNHyperGCN: Enhancing 1-HyperGCN with mediatorsFastHyperGCN实验数据集baselinesHyperGCN比HGNN的优势局限...原创 2019-12-15 16:20:14 · 4918 阅读 · 3 评论 -
Towards Sparse Hierarchical Graph Classifiers
sparse HIerarchical动机:模型卷积层池化层Redout layer实验预备知识:在 numpy中,矩阵的元素操作对矩阵维度的要求,通过一种叫做 broadcasting的机制实现。我们称两个矩阵相容(compatible),如果它们相互对应的维度(行对行,列对列)满足以下条件:对应的维度均相等, 或 有一个维度的大小是1矩阵的Hadamard 乘积是一个元素运算,...原创 2019-12-10 19:10:48 · 751 阅读 · 0 评论 -
DIFFPOOL(Hierarchical Graph Representation)
Hierarchical Graph Representation Learning withDifferentiable Pooling动机核心思想图神经网络可微分池化层Differentiable Pooling)论文链接:https://arxiv.org/pdf/1806.08804.pdf一些概念:置换矩阵:每个行以及每个列都只有一个1的矩阵,其可以看做是单位阵经过行的交换而生成...原创 2019-12-07 00:39:27 · 1145 阅读 · 0 评论 -
图卷积(三)
A Comprehensive Survey on Graph NeuralNetworks图神经网络 vs. 网络嵌入。时空图图神经网络(GNN)的新分类体系Networks)论文链接:https://arxiv.org/pdf/1901.00596v1.pdf图神经网络 vs. 网络嵌入。转自:https://www.jiqizhixin.com/articles/2019-01-0...原创 2019-11-27 19:56:19 · 1070 阅读 · 0 评论 -
DrugVQA
文章目录原创 2020-06-18 17:35:57 · 806 阅读 · 1 评论 -
图卷积(二)-图神经网络
二、图卷积结点映射结点映射目标是将原始空间的相似性也体现在映射空间中。目标:similarty(u,v)≈zvTzusimilarty(u,v)\approx z_v^Tz_usimilarty(u,v)≈zvTzu两个关键组件:将每个点映射到一个低维向量相似性函数指定向量空间中的关系如何映射到原始网络中的关系。从“浅”到“深”...原创 2019-11-15 15:16:36 · 1117 阅读 · 0 评论 -
负采样(negative sampling))
负采样(negative sampling)引用自:https://zhuanlan.zhihu.com/p/39684349训练一个神经网络意味着要输入训练样本并且不断调整神经元的权重,从而不断提高对目标的准确预测。每当神经网络经过一个训练样本的训练,它的权重就会进行一次调整。vocabulary的大小决定了我们的Skip-Gram神经网络将会拥有大规模的权重矩阵,所有的这些权重需要通过我...原创 2019-11-12 22:49:10 · 2184 阅读 · 0 评论 -
图卷积(一)-图结点表示
图卷积网络研究survey图卷积网络研究survey一、 LINE功能快捷键合理的创建标题,有助于目录的生成如何改变文本的样式插入链接与图片如何插入一段漂亮的代码片生成一个适合你的列表创建一个表格设定内容居中、居左、居右SmartyPants创建一个自定义列表如何创建一个注脚注释也是必不可少的KaTeX数学公式新的甘特图功能,丰富你的文章UML 图表FLowchart流程图导出与导入导出导入图卷...原创 2019-11-12 13:02:19 · 2123 阅读 · 0 评论