- 博客(6)
- 资源 (1)
- 收藏
- 关注
原创 2020-10-28
BERT理解: 是基于双向Transformer的Encoder部分,能够动态学习词嵌入; 和RNN的区别最大的就是,RNN是序列模型,必须要学习完上一个字才能学习下一个,而Transformer的训练是并行的,即所有字都是同时训练的,这样就大大增加了训练效率; BERT输入部分的处理: e.g:my dog is cute. Token Embedding: 将输入的词嵌入token化 token后:[“my”,“dog”,“is”,“cute”,“.”] Segment ...
2020-10-28 16:39:47
171
原创 《Multi-source data fusion for aspect-level sentiment classification》论文阅读笔记
文章名:《Multi-source data fusion for aspect-level sentiment classification》 作者Fang Chen∗, Zhigang Yuan, Yongfeng Huang 年份 2020 1.Introduction 神经网络的良好性能依赖于足够大的训练语料库。然而作为一个细粒度的情感分析任务,方面级的情感标注尤其昂贵。因此,现有的方面级语料库相对较小。由于现有的方法通常只基于领域特定的方面级语料库来训练模型,训练语料库的缺乏极大地限制了.
2020-05-25 17:24:47
767
1
原创 《BiLSTM with Multi-Polarity Orthogonal Attention for Implicit Sentiment Analysis》论文阅读笔记
文章名:《BiLSTM with Multi-Polarity Orthogonal Attention for Implicit Sentiment Analysis》 作者Jiyao Wei a,1, Jian Liaoa,1, Zhenfei Yanga, Suge Wanga,b,∗, Qiang Zhaoa 年份 2019 1 Introduction 目前文本情感分析多分析带...
2020-05-23 16:29:22
1485
4
原创 《Entity-Level Sentiment Analysis of Issue Comments》论文阅读笔记
文章名:《面向双注意力网络的特定方面情感分析模型》 作者孙小婉,王英,王鑫,孙玉东 年份 2019(修回日期) 2 问题描述与方法概论 给定长度为n的句子,即s={w1,w2,...,a1, a2,...,wn}每个句子由一系列的词语wi 组成,其中 a1 和a2 是句子s 中特定方面的目标词,每个句子有一个或多个目标词. 本文采用多头注意机建 D A NS A 模 型...
2020-04-08 12:58:38
549
原创 《Sentiment Analysis of Chinese Microblog Based on Stacked Bidirectional LSTM》论文阅读笔记
文章名:《Sentiment Analysis of Chinese Microblog Based on Stacked Bidirectional LSTM》 作者:JUNHAO ZHOU1 , YUE LU1 , HONG-NING DAI 1 , (Senior Member, IEEE), HAO WANG 2 , (Member, IEEE), AND HONG XIAO3 年份 ...
2020-03-20 17:46:22
754
原创 《Sentiment analysis based on improved pre-trained word embeddings》论文阅读笔记
文章名:《Sentiment analysis based on improved pre-trained word embeddings》 作者Seyed Mahdi Rezaeiniaa, Rouhollah Rahmani a,∗, Ali Ghodsi b, Hadi Veisi a 时间 2019 (一)Introduction 目前词嵌入的深度学习算法模型有两种:Word2V...
2020-02-23 16:37:11
470
1
Extracting Prominent Review Aspects from Customer Feedback.pdf
2020-02-19
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人