Graph-Embedding
文章平均质量分 61
腾云丶
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
论文笔记(10): Node2Vec-Scalable Feature Learning for Networks
论文笔记:Node2Vec-Scalable Feature Learning for Networks一、简介node2vec是2016年提出的Graph Embedding表示方式,其训练速度快,并开放了源码,而且表示效果还不错,所以挺火。本质上来说,node2vec其实是基于DeepWalk的改进,所以要想了解node2vec,就需要先了解DeepWalk。这里对DeepWalk...原创 2018-09-05 10:33:39 · 4298 阅读 · 3 评论 -
gensim.models Word2Vec参数说明
参数:1.sentences:可以是一个List,对于大语料集,建议使用BrownCorpus,Text8Corpus或·ineSentence构建。 2.sg: 用于设置训练算法,默认为0,对应CBOW算法;sg=1则采用skip-gram算法。 3.size:是指输出的词的向量维数,默认为100。大的size需要更多的训练数据,但是效果会更好. 推荐值为几十到几百。 4.window...原创 2018-09-09 11:23:58 · 4072 阅读 · 0 评论 -
node2vec代码详解
初衷为了训练向量表示,选择这个模型,然而,实在太吃内存了。就想着怎么优化一下,就把源码过了一遍。里面多余得代码是自己为了监控打的日志,其他没有做任何修改。 具体如下:# coding=utf-8import numpy as npimport networkx as nximport randomimport logginglogging.basicConfig(format...原创 2018-09-13 16:40:03 · 13481 阅读 · 26 评论 -
如何评估词向量?
如何评估词向量?目前词向量的评估一般分为两大类:extrinsic 和 intrinsic evaluation即内部评估和外部评估。内部评估内部评估直接衡量单词之间的句法和语义关系。这些任务通常涉及一组预先选择的查询术语和语义相关的目标词汇,我们将其称为query inventory。similarity 相关性度量当前绝大部分工作(比如以各种方式改进word embedding)都...原创 2019-02-19 16:24:40 · 1946 阅读 · 0 评论
分享