
Graph
文章平均质量分 90
知之之
这个作者很懒,什么都没留下…
展开
-
cs224w-图机器学习-Colab 3
这里写自定义目录标题一、GCN二、GAT一、GCN二、GAT公式是:原创 2021-08-28 20:50:12 · 1004 阅读 · 0 评论 -
cs224w-图机器学习-Colab 3-GCN在pytorch-geometric中的实现
实现记录一、GNN在pytorch-geometric中的实现思路1.实现GNN的思路一、GNN在pytorch-geometric中的实现思路官方文档是这里:MESSAGE PASSING NETWORKS1.实现GNN的思路文档中说到,Generalizing the convolution operator to irregular domains is typically expressed as a neighborhood aggregation or message passing s原创 2021-08-28 12:57:47 · 601 阅读 · 0 评论 -
cs224w-图机器学习-2021冬季课程学习笔记-10 Knowledge Graph Embeddings
Knowledge Graph Embeddings一、 Heterogeneous Graphs and Relational GCN (RGCN)1.Heterogeneous Graphs and Relational GCN (RGCN)2.Relational GCN(1) block diagonal matrices(2)basis learning3.RGCN链路预测应用(1)验证集、训练集的划分(2)边的得分函数(3)负采样的方法(4)训练流程(5)验证、测试阶段二、 Knowledge原创 2021-08-28 10:58:18 · 1143 阅读 · 0 评论 -
cs224w-图机器学习-2021冬季课程学习笔记-09 Theory of Graph Neural Networks
Theory of Graph Neural Networks一、How Expressive are Graph Neural Networks?1.local neighborhood structures二、Designing the Most Powerful Graph Neural Network1.GCN的聚合操作2.GraphSAGE3.本节小结4.设计一个满足单射性质的NN三、本章总结1.The power of pooling2.还能提升表示力吗?一、How Expressive ar原创 2021-08-27 19:13:44 · 494 阅读 · 1 评论 -
cs224w-图机器学习-2021冬季课程学习笔记-08 Graph Neural Networks 2: Design Space
Graph Neural Networks 2: Design Space一、总述一、feature augmentation(1)原图信息不够1. Assign constant values to nodes2.Assign unique IDs to nodes3.两个方法的利弊(2)有些feature是GNN难以学到的三、Structure Augment1.添加虚拟边或者节点2.node neighborhood sampling四、Learning Objective1.Different pr原创 2021-08-27 14:17:26 · 239 阅读 · 0 评论 -
cs224w-图机器学习-2021冬季课程学习笔记-07 Graph Neural Networks 2: Design Space
Graph Neural Networks 2: Design Space一、本章内容总述二、单层的设计1.Message computation2.Aggregation3.小节总结4.GCN的layers设计5.GraphSAGE的layers设计6.GAT一、本章内容总述讲了如何设计不同的GNN,以及这些GNN背后有什么区别。本章提供了一个统一现有的GNN模型的框架。框架中,一共有五个部分可以供我们修改,得到不同的GNN模型:是信息聚合和传递的方式(函数)不同层之间如何连接(全连接还是s原创 2021-08-26 21:58:35 · 321 阅读 · 0 评论 -
CS224W - Colab 2
CS224W - Colab 21.TUDataset2. PyTorch Geometric3. OGB4.GCN其他1.TUDataset描述是A collection of benchmark datasets for graph classification and regression.官网是这个这数据集包含了很多不同类的的数据,比如电影,分子。2. PyTorch Geometric描述是a geometric deep learning extension library for原创 2021-08-26 16:09:24 · 601 阅读 · 0 评论 -
cs224w-图机器学习-2021冬课程学习笔记06- Graph Neural Networks 1: GNN Model
Graph Neural Networks 1: GNN Model一、GNN介绍二、深度学习基础三、Deep learning for Graphs1. GCN背后的直觉2.GCN工作过程3.Neighborhood aggregation3.求和式 Neighborhood aggregation5.如何训练GNN5.本节小结一、GNN介绍之前图嵌入方法,是用的浅嵌入(即查找表)的方式。这有三个巨大缺陷:参数量大且不共享参数、不能应用于新节点、不能使用特征信息。本章讲深度模型。二、深度学习基础略原创 2021-08-26 10:38:09 · 505 阅读 · 0 评论 -
cs224w-图机器学习-2021冬课程学习笔记-5- Message Passing and Node Classification
Message Passing and Node Classification一、分类背后的直觉1.分类问题的表述2.本章内容大纲3.Correlations(1)Homophily(2)Influence4.如何利用Correlations来进行预测5.分类器的主要组成二、Relational classification三、Iterative classification1.两个分类器2.迭代过程四、Loopy belief propagation一、分类背后的直觉1.分类问题的表述根据一部分带标原创 2021-08-25 16:25:57 · 427 阅读 · 0 评论 -
cs224w-图机器学习-2021冬课程学习笔记-04-Link Analysis: PageRank (Graph as Matrix)
Link Analysis: PageRank ,Graph as Matrix一、PageRank1.如何定义Web对应的图?2.Ranking Nodes on the Graph3. PageRank: The "Flow" Model4.如何解PageRank本章内容:将图视为矩阵,有三个作用:这几项内容实质上是相关联的。这使得可以用线性代数分析图数据。一、PageRank这是斯坦福两个博士生给Google做的,有巨大的作用。用图分析Internet。1.如何定义Web对应的图?看似原创 2021-08-25 09:27:12 · 253 阅读 · 0 评论 -
cs224w图神经网络-03Node Embeddings-课程笔记
Node Embeddings一、 Node Embeddings1. Graph Representation Learning (GPL)2.Node Embeddings: Encoder and Decoder二、 Random Walk Approaches for Node Embeddings1. 符号表示2. Random Walk定义3. simliarity定义4. Why random walks?5. optimization6. random walk总结7 其他random原创 2021-08-24 11:28:34 · 379 阅读 · 0 评论 -
cs224w图神经网络 -02-课程笔记
文章目录0 章节前言图的两种特征数据传统机器学习Pipeline本章内容概览1 Traditional Feature-based Method- Node1. 问题描述:根据已有的红绿色信息,预测灰色点的颜色信息2. 首要问题:使用何种features描述节点的**位置和结构**信息0 章节前言图的两种特征数据节点和边的attribute和property描述了图的拓扑结构的数据传统机器学习Pipeline设计、获取特征训练应用本章内容概览使用高效的feature是好性能原创 2021-08-23 08:55:53 · 360 阅读 · 0 评论 -
CS224w图神经网络 -01-intro笔记
文章目录两大类Graph自然的图结构用图表示relation structure(即用图表示知识等)两大类Graph自然的图结构如社交网络、通信网络、生物图、大脑神经元连接(如果我们想对大脑建模,图结构是少不了的)用图表示relation structure(即用图表示知识等)...原创 2021-08-22 17:03:18 · 248 阅读 · 0 评论