Max-Margin DeepWalk: Discriminative Learning of Network Representation
继承了Network Representation Learning with Rich Text Information论文。
在Network Representation Learning with Rich Text Information文中,DW可以被看成矩阵分解:M=WH
其中M是log下面的式子:
W是顶点向量排列成的矩阵,H是上下文顶点向量排列成的矩阵。
因此对于DW形成的矩阵分解的的目标就是逼近M和WH,因此目标方程可以写成:
在本文中,作者认为,由于许多网络中的节点都会有标签,比如维基百科连接的网络,顶点可能被标签成物理,天文,人物等等,因此可以充分的利用这些信息。而在纯DW中,并没有考虑这种标签信息。
因此可以在DW的基础上加入SVM,其实我们按照深度学习网络的状态可以想象成最后一层再加入SVM网络,使得不同类别的顶点向量区分的更大。
在本论文中,作者使用矩阵分解来表现DW+SVM:

其中:LDW项是:
也就是最小化DW相当于的矩阵分解目标。后面的项是SVM典型的公式。
论文还给出了如何优化w和e,X和Y。
本文介绍了一种名为Max-MarginDeepWalk的方法,它结合了DeepWalk和SVM,用于更有效地学习网络表示。通过利用节点标签信息,该方法能够使不同类别的节点向量在向量空间中更好地分离。
901

被折叠的 条评论
为什么被折叠?



