keras单词嵌入(word embeddings)

本文介绍了Keras中如何使用单词嵌入,包括预训练的单词嵌入和通过`Embedding`层学习的单词嵌入。强调了预训练嵌入的使用以及在特定任务中学习新的嵌入空间的重要性,指出嵌入空间的结构应反映单词的语义关系。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

将矢量与单词相关联的另一种流行且有效的方法是使用密集的“单词向量”,也称为“单词嵌入”。 虽然通过单热编码获得的向量是二进制的,稀疏的(主要由零组成)和非常高维的(与词汇表中的单词数相同的维度),“单词嵌入”是低维浮点向量(即 “密集”向量,与稀疏向量相反)。 与通过one-hot编码获得的单词向量不同,单词嵌入是从数据中学习的。当处理非常大的词汇表时,通常会看到256维,512维或1024维的单词嵌入。 另一方面,one-hot编码字通常导致20,000维或更高的向量(在这种情况下捕获20,000标记的词汇)。 因此,单词嵌入将更多信息打包到更少的维度中。

有两种方法可以获得嵌入词:

预训练的单词嵌入

学习单词嵌入与所关心的主要任务(例如文档分类或情绪预测)联系起来。在此设置中,将从随机单词向量开始,然后通过与学习神经网络权重相同的方式学习单词向量。加载到模型中使用与所尝试解决的机器学习任务不同的机器学习任务预先计算的单词嵌入。这些被称为“预训练的单词嵌入”。

“嵌入”图层学习单词嵌入
 

将密集向量与单词相关联的最简单方法是随机选择向量。这种方法的问题在于得到的嵌入空间没有结构:例如,单词“准确”和“精确”可能最终会有完全不同的嵌入,即使它们在大多数句子中是可互换的。深度神经网络很难理解这种嘈杂的非结构化嵌入空间。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

cchangcs

谢谢你的支持~

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值