Community Preserving Network Embedding
| 网络性质 | 属性、标签 | 权重 | 方向 | 方法 | 任务 |
|---|---|---|---|---|---|
| 同质 | 有 | 有权 | 有向 | matrix factorization | node classification |
| 异质 | 无 | 无权 | 无向 | random walk | link prediction |
| / | / | / | 有向&无向 | deep learning | clustering (community detection) |
| / | / | / | / | transition matrix | visualization |
复杂度,一阶、二阶,用到哪些信息。输入 输出
结构信息
同样是一阶相似度、二阶相似度,文中说了一个,Modularized Nonnegative Matrix Factorization (M-NMF) 的方法,就是平时在 community detection 中,人关于标签的矩阵,因为这儿不好解释,所以用了 bias matrix 的说法。
一阶相似性: S ( 1 ) = [ S i , j ( 1 ) ] S^{(1)} = [S^{(1)}_{i,j}] S(1)=[Si,j(1)] 就是邻接矩阵的变种吧,有边就有一个大于0 的值,没有边就还是等于0,
二阶相似性: S ( 2 ) = [ S i , j ( 2 ) ] = S i ( 1 ) S j ( 1 ) ∥ S i ( 1 ) ∥ ∥ S j ( 1 ) ∥ S^{(2)} = [S^{(2)}_{i,j}] = \frac{S^{(1)}_iS^{(1)}_j}{\|S^{(1)}_i\| \|S^{(1)}_j\|} S(2)=[Si,j(2)]=∥Si(1)∥∥Sj(1)∥Si(1)Sj(1)也就是高中 cosine 值的算法
总体来说 S = S ( 1 ) + η S ( 2 ) S = S^{(1)} + \eta S^{(2)} S=S(1)+ηS(2) ,并且 S , S ( 1 ) , S ( 2 ) ∈ R n × n S , S^{(1)} , S^{(2)} \in \mathbb R^{n \times n} S,S(1),S(2)∈Rn×n
好的,到这儿呢,肯定会出现一个 embedding 的矩阵,叫做 U ∈ R n × m , m U \in \mathbb R ^{n \times m}, m U∈

本文介绍了Community Preserving Network Embedding的方法,它结合了一阶和二阶相似度来捕获网络结构信息。通过Minimizing the Frobenius norm between the similarity matrix and the product of embedding and bias matrices,同时利用社区信息,引入了community membership indicator矩阵H,并用Q作为正则项,确保社区结构得以保留。Q的定义来源于图二分类的文献,用于多分类时,0,1向量指示器能有效区分节点所属社区。"
114578136,10737545,Python ospybook库安装教程,"['Python', '库安装', 'Pycharm', '开发工具']
最低0.47元/天 解锁文章
834

被折叠的 条评论
为什么被折叠?



