神经网络语言处理:损失函数与词嵌入的奥秘
在自然语言处理领域,神经网络为我们理解和处理语言提供了强大的工具。本文将深入探讨神经网络在语言学习中的应用,包括词嵌入、损失函数的选择以及词类比现象,还会介绍处理任意长度序列数据的挑战和平均词向量的强大作用。
1. 损失函数决定词嵌入聚类
在神经网络语言学习中,词嵌入的聚类方式会因损失函数的不同而发生显著变化。最初,词是根据预测正负标签的可能性进行聚类的。而使用新的神经网络后,词则基于在同一短语中出现的可能性进行聚类,有时甚至不考虑情感因素。
例如,当我们查询与“terrible”相似的词时,会得到不同的结果:
print(similar('terrible'))
[('terrible', -0.0),
('dull', -0.760788602671491),
('lacks', -0.76706470275372),
('boring', -0.7682894961694),
('disappointing', -0.768657),
('annoying', -0.78786389931),
('poor', -0.825784172378292),
('horrible', -0.83154121717),
('laughable', -0.8340279599),
('badly', -0.84165373783678)]
print(similar('terrible'))
[('terrible', -0.0),
('horrible', -2.79600898781),
('brilliant', -3.333617
损失函数与词嵌入解析
超级会员免费看
订阅专栏 解锁全文
1260

被折叠的 条评论
为什么被折叠?



