《Learning Sentiment-Specific Word Embedding for Twitter Sentiment Classificaton》阅读笔记

文章介绍了SSWE(Sentiment-Specific Word Embedding)方法,这是一种针对Twitter情感分类的词嵌入学习策略。通过三层神经网络,SSWE在大量弱监督的tweets上学习情感词向量,解决了传统方法仅关注语义建模而忽视情感的问题。模型训练使用含有积极和消极表情符号的Twitter数据,并采用AdaGrad优化算法进行参数更新。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

提出一种为实现Twitter情感分类的学习Word Embedding的方法。

  • 以往的问题:现有用于学习连续词特征表示方法仅进行了语义建模,而忽略了文本的情感。现有的用于情感分类的方法大都把注意力集中在特征工程上,原因是情感分类的好坏程度取决于选择特征的好坏。
  • 解决方案:建立了一种三层的网络学习情感词向量,即sentiment-specific word embedding(SSWE),从大量的弱监督tweets进行学习,无需大量人工注释。
  • -

2 国内外研究现状

2.2 学习用于情感分类的连续型特征
Pang等人(2002)是使用bag-of-word作为特征的领域开拓者,用one-hot形式代表每一个词。长度与词汇量的尺寸相同,只有一个维度是1,其他都是0。根据这个想法,后续提出了许多特征学习算法用于改善分类性能(Pang and Lee,2008;Liu,2012;Feldman,2013)。然而,这种one-hot形式不能有效的获取词语复杂的语言学特征。
随着深度学习的流行(Bengio et al.,2013),把包含着连续的特征作为词的特征在许多NLP任务中证明是有效的,如分词(Socher et al.,2013a),语言建模(Bengio et al.,2003;Mnih and Hinton,2009)and NER(Turian et al.,2010)。在情感分析领域,Bespalov et al.(2011;2012)通过潜在的语义分析初始化词向量并且进一步表征每个文档的特征作为ngram向量的权重进一步用于情感分类。Yessenalina and Cardie(2011)把每个词建模成矩阵并且通过使用迭代矩阵乘法的方式将多个词合并在一起。Glorot et al.(2011)探究了Stacked Denoising Autoencoder(迭代去噪编码)的方法用于情感分类的领域适应问题。Socher et al.提出了Recursive Neural Network(RNN)(2011b),matrix-vector RNN(20

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值