- 博客(10)
- 收藏
- 关注
原创 Linux创建普通用户
看了很多教程,也踩了很多坑我总结下来就只有四步,以创建名为“aaa”的用户为例首先得进入管理员账户才能创建然后创建用户aaa很多教程中不加-m,还得再有几条命令,太麻烦。直接-m,还省去了添加配置文件没啥好说的,输两遍密码就行了没有这一步的话,登录只有一个"$"四,将该用户绑定到用户组底下到此,就完成了普通用户的创建...
2022-07-12 09:54:24
9557
原创 论文阅读——Aspect Sentiment Quad Prediction as Paraphrase Generation
Aspect Sentiment Quad Prediction as Paraphrase GenerationAbstract现有的研究通常考虑对部分情绪要素的检测,而不是一次预测四个要素。本文引入了方面情感四元预测任务(ASQP),旨在联合检测一个特定意见句的四元情感元素,以揭示一个更全面、更完整的方面层面情感结构。作者进一步提出了一个新的paraphrase范式,将ASQP任务转换为一个生成过程。一方面,生成公式允许端到端的方式求解ASQP,减轻了使用管道潜在的误差传播。另一方面,通过学习以
2022-04-05 17:14:10
3491
2
原创 近两年ABSA相关ACL/EMNLP论文列表
近两年ABSA相关ACL/EMNLP论文列表单任务Aspect Term Extraction (ATE)(ACL2020)Conditional Augmentation for Aspect Term Extraction via Masked Sequence-to-Sequence Generation(EMNLP2020)Enhancing Aspect Term Extraction with Soft Prototypes(EMNLP2021)Progressive Self-Tra
2022-03-29 09:53:07
1035
原创 论文阅读——To be Closer: Learning to Link up Aspects with Opinions
To be Closer: Learning to Link up Aspects with Opinions北京理工大学新加坡科技设计大学字节跳动Abstract依赖解析树[1]有助于在基于方面的情感分析(ABSA)中发现观点词,而从现成的依赖解析器中获取的树是静态的,可能不是最优的。[1]Huang B, Carley K M. Syntax-aware aspect level sentiment classification with graph attention networks[
2022-03-22 17:09:04
3237
2
原创 论文阅读——Does syntax matter? A strong baseline for Aspect-based Sentiment Analysis with RoBERTa
Does syntax matter? A strong baseline for Aspect-based Sentiment Analysis with RoBERTaAbstract之前的大量工作都表明了融入句法信息能够提高ABSA的性能。但是最近的预训练模型(PTMs)也同样展现了强大的性能提升。因此,作者提出了问题:预训练模型中是否包含了大量的的ABSA句法信息?只使用预训练模型是否够用?在本文中,作者比较了几种流行的PTMs诱导树和依赖解析树,结果表明,精调的RoBERTa (
2022-03-22 17:06:43
1725
1
原创 论文阅读——RoBERTa A Robustly Optimized BERT Pretraining Approach
RoBERTa A Robustly Optimized BERT Pretraining ApproachAbstractDevlin等人在 BERT Pre-training of Deep Bidirectional Transformers for Language Understanding 提出的BERT预训练研究虽然已达到最优结果,但训练成本比较高,很难彻底得到训练训练的时候通常是在不同大小的私有数据集上进行训练的,很难判断具体哪个部分对结果有促进作用所以,作者重新衡量了关键参数
2022-03-17 11:23:32
1607
原创 论文阅读——Self-Attention with Relative Position Representations
Self-Attention with Relative Position RepresentationsAbstract2017年Vaswani等人提出的Transformer需要在输入中添加绝对位置表示。作者在这篇文章中提出将元素与元素之间的相对位置表示引入了self-attention机制,在两个机器翻译(WMT 2014 EN-DE and EN-FR)的任务中,引入相对位置表示的self-attention比绝对位置编码的self-attention有明显的提升。但相对与绝对结合并不会进一步提
2022-03-17 11:20:19
2929
1
原创 论文阅读——BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding
BERT: Pre-training of Deep Bidirectional Transformers for Language UnderstandingAbstract作者引入了一种新的语言表示模型BERT,只需增加一个输出层,就可以对预先训练的BERT模型进行微调,无需对特定于任务的架构进行重大修改。1 Introduction语言模型预训练已经证明对很多下游NLP任务有帮助,比如:自然语言推理,释义(通过整体分析来预测句子之间的关系);命名实体识别,问答(模型需要在词牌(token)级别
2022-03-17 11:18:07
2470
原创 论文阅读——Attention is All You Need
Attention is All You NeedAbstract主流的序列转换模型基本上都是基于RNN或CNN的编码器-解码器配置,其中性能最优的模型还通过注意力机制连接编码器-解码器,所以本文提出了一种完全基于注意力机制的模型——Transformer,作者用一系列结果表示其模型更优秀,且可以推广到其他任务。Introduction在序列转换问题中,RNN尤其是LSTM和Gated NN,已被确立为最先进的方法。RNN通常根据输入输出的序列位置进行计算,通常为隐藏状态hth_tht由上一个隐
2022-03-15 10:46:53
1055
原创 Document Modeling with Gated Recurrent Neural Network for Sentiment Classification (EMNLP 2015)
基于门控循环神经网络的文本情感分类建模Gated Recurrent Neural Network(Gated RNN): simple RNN 具有梯度消失或者梯度爆炸的特点,所以,在实际应用中,带有门限的RNN模型变种(Gated RNN)起着至关重要的作用GRNN:广义回归神经网络Abstract 引入了一个神经网络,以统一的,自底向上的方式来学习基于向量的文本表示方法。该模型首次使用CNN/LSTM来学习句
2022-03-15 08:34:18
454
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人