
论文阅读
文章平均质量分 88
记录我的论文笔记
xxr233
这个作者很懒,什么都没留下…
展开
-
无监督re-ranker,Improving Passage Retrieval with Zero-Shot Question Generation
re-ranking模型,使用无监督方法达到有监督的效果,改善open QA中的passage retrieval阶段原创 2022-09-10 22:31:43 · 904 阅读 · 1 评论 -
【论文阅读】Dense Passage Retrieval for Open-Domain Question Answering
Dense Passage Retrieval for Open-Domain Question Answering原创 2022-07-20 14:52:22 · 1709 阅读 · 0 评论 -
论文阅读:Don’t Miss the Labels: Label-semantic Augmented Meta-Learner for Few-Shot Text Classification
任务:小样本文本分类创新点:已有的方法忽视了标签所蕴含的丰富语义在小样本学习中的作用,所以将标签名直接附在文本后输入BERT中,得到语义信息更加丰富的特征向量。support和query在加入标签信息后,其特征提取方法就不一样,因为query是没有标签的。所以,support和query分别采取了三种方法进行特征提取。最后使用prototypical network然后计算查询集和类别向量的欧几里得距离。再综合所有类别计算归属于某一个类别的概率。introduction在小样本学习领域,me原创 2022-04-12 17:05:12 · 1000 阅读 · 0 评论 -
【中文论文1】基于BERT-BIGRU的短文本多分类情感分析
BERT刚出来的时候发这篇论文还行,现在的话就毫无创新了。因为有了代码的经验,再看之前的那些论文似乎就觉得很容易了,今天这篇是很简单的一篇《基于 BERT-BiLSTM 的短文本情感分析 杨奎河,刘智鹏》,没有什么创新的,不过他在论文中写的内容倒是可以帮助我理解代码。仿照这篇,我也能写出一篇BERT-BIGRU的论文,还是多情感分类的。模型结构:文本向量化表示层:常用的 Word2vec是以词为处理单元的文本向量表示方法,过程繁琐,需经历文本预处理、特征提取、特征向量表示、 向量拼接,最后才能.原创 2021-04-09 11:27:09 · 3906 阅读 · 0 评论 -
立场检测stance detection
stance detection,可理解为“立场检测”,stance即为人对个体、事物、事件所表现出的看法或者态度,如“支持、反对”。stance detection虽然也属于文本分类,但和基于主题的文本分类、情感分类有些差异,stance的表达是更隐晦的,因此分类难度更大。刚看到一篇关于立场检测的文章,一搜2019ACM上已经出了综述,故看看顺便记录一下。摘要:从自然语言文本中自动提取语义信息是一个重要的研究问题。随着在社交媒体网站、新闻门户网站和论坛等渠道人们可以自由方便地发表自己的言论,解决诸如情原创 2021-01-19 23:05:33 · 8537 阅读 · 3 评论 -
“Let’s Eat Grandma”:标点符号(句法树)增强语义表达,用于情感分析
标题:“Let’s Eat Grandma”: When Punctuation Matters in Sentence Representation for Sentiment Analysis作者:Mansooreh Karami*, Ahmadreza Mosallanezhad∗ , Michelle V Mancenido, Huan Liu 机构:Arizona State University, Tempe AZ, USA这个标题很点意思,我刚看到一脸懵“let's eat gra原创 2021-01-18 17:45:38 · 1764 阅读 · 0 评论 -
论文笔记-将情感词典融入BiLSTM中
这里写自定义目录标题欢迎使用Markdown编辑器新的改变功能快捷键合理的创建标题,有助于目录的生成如何改变文本的样式插入链接与图片如何插入一段漂亮的代码片生成一个适合你的列表创建一个表格设定内容居中、居左、居右SmartyPants创建一个自定义列表如何创建一个注脚注释也是必不可少的KaTeX数学公式新的甘特图功能,丰富你的文章UML前言一、pandas是什么?二、使用步骤1.引入库2.读入数据总结FLowchart流程图导出与导入导出导入欢迎使用Markdown编辑器你好! 这是你第一次使用 Mar原创 2021-01-14 15:52:31 · 784 阅读 · 0 评论