提出一种为实现Twitter情感分类的学习Word Embedding的方法。
- 以往的问题:现有用于学习连续词特征表示方法仅进行了语义建模,而忽略了文本的情感。现有的用于情感分类的方法大都把注意力集中在特征工程上,原因是情感分类的好坏程度取决于选择特征的好坏。
- 解决方案:建立了一种三层的网络学习情感词向量,即sentiment-specific word embedding(SSWE),从大量的弱监督tweets进行学习,无需大量人工注释。
- -
2 国内外研究现状
2.2 学习用于情感分类的连续型特征
Pang等人(2002)是使用bag-of-word作为特征的领域开拓者,用one-hot形式代表每一个词。长度与词汇量的尺寸相同,只有一个维度是1,其他都是0。根据这个想法,后续提出了许多特征学习算法用于改善分类性能(Pang and Lee,2008;Liu,2012;Feldman,2013)。然而,这种one-hot形式不能有效的获取词语复杂的语言学特征。
随着深度学习的流行(Bengio et al.,2013),把包含着连续的特征作为词的特征在许多NLP任务中证明是有效的,如分词(Socher et al.,2013a),语言建模(Bengio et al.,2003;Mnih and Hinton,2009)and NER(Turian et al.,2010)。在情感分析领域,Bespalov et al.(2011;2012)通过潜在的语义分析初始化词向量并且进一步表征每个文档的特征作为ngram向量的权重进一步用于情感分类。Yessenalina and Cardie(2011)把每个词建模成矩阵并且通过使用迭代矩阵乘法的方式将多个词合并在一起。Glorot et al.(2011)探究了Stacked Denoising Autoencoder(迭代去噪编码)的方法用于情感分类的领域适应问题。Socher et al.提出了Recursive Neural Network(RNN)(2011b),matrix-vector RNN(20