network embedding 网络表示学习的大致总结

本文总结了网络表示学习的重要性和挑战,从维度灾难到网络嵌入方法,如Node2vec、DeepWalk和GraphSAGE。讨论了如何利用Word2vec的思路应用于网络数据,以及如何通过随机游走和深度学习捕捉网络的非线性结构。此外,还介绍了结合GANS的网络嵌入方法GraphGAN,用于增强表示学习的鲁棒性。网络表示学习领域尽管取得进展,但仍面临复杂性和可扩展性的问题。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

 Big Data Challenge
数据随着时间呈现指数增长,计算力也呈指数增长,但这是在数据非连接的情况下;数据之间存在相互关系的时候,计算力的要求达到双指数增长;很多数据呈现为网络形式,如社交网络、生物网络、互联网、论文引用网络等。

 维度灾难:
在单元立方体中,子立方体中的均匀数据。维度p=10的时候,需要在每一个坐标轴上覆盖80%才能捕获10%的数据。在高维空间上,大多数数据点处在样本空间的边缘;全部的数据都稀疏在输入空间中,因此在保留更多原始数据信息的条件下是有助于数据处理的,也能降低计算复杂度。
 NE 方法
1. 传统方法:统计图的度(degrees)、聚类系数(clustering coefficients)、核函数(kernel function) 还有手工特征设计。
2. 时兴方法:表示学习,即学习一个映射(mapping)把节点或整个(子)图嵌入(embed)到低维向量空间,Rd 。
3. 两者的差别在于1是把问题做为预处理环节,2是把问题作为机器学习本身(data-driven approach),因为是通过数据本身优化学习到的mapping(作为参数或者模型),使得该mapping反映更多得原始图信息。
 Proximity
在传统的图嵌入上直接使用邻接矩阵作为邻近性矩阵(proximity matrix),在网络上需要设计邻近性矩阵,这与网络嵌入的目标有关,定义网络嵌入可以从共同的邻接点、高阶邻近性、社区结构等出发。

 传统的网络表示一般使用高维的稀疏向量. 但是高维稀疏的表示也成为了人们使用统计学习方法时的局限所在, 因为高维的向量将会花费更多的运行时间和计算空间. 随着表示学习技术在自然语言处理(Word2vec)等领域的发展和广泛应用, 研究者们转而探索将网络中的节点表示为低维稠密的向量表示的方法. 直觉上来看, 在网络中拓扑结构相似的节点也应该具有相近的向量表示. 这里向量表示的相似性一般用向量间的余弦距离或者欧氏距离来表示. 之后这些作为节点表示的向量就可以用作对应节点的特征并应用到后续的任务场景中.

 Word2vec
结构之一skip-gram:其目的是给定目标词,预

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值