李宏毅老师课程:Unsupervised Learning - Word Embedding

Introduction

用vector来表示一个word,最传统的做法是1-of-N Encoding,可以把有同样性质的word进行聚类,划分成多个class,然后用word所属的class来表示这个word,最后把每一个word都投影到高维空间上进行Word Embedding
在这里插入图片描述

word embedding是一个无监督的方法(unsupervised),只要让机器阅读大量的文章,它就可以知道每一个词汇embedding之后的特征向量应该长什么样子
在这里插入图片描述
我们的任务就是训练一个neural network,input是词汇,output则是它所对应的word embedding vector

Word Embedding

基本精神就是,每一个词汇的含义都可以根据它的上下文来得到
在这里插入图片描述

Count based

假如 w i w_i wi w j w_j wj这两个词汇常常在同一篇文章中出现,它们的word vector分别用 V ( w i

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值