- 博客(9)
- 收藏
- 关注
原创 9月8日论文复写
9月8日论文复写Effective Inter-Clause Modeling for End-to-End Emotion-Cause PairExtraction情感-原因配对的提取旨在从一个特定的文档中提取出所有的情感句子与其产生的原因。之前(2020年以前)的工作采用两步:1、分别提取情感句以及原因句2、训练分类器来过滤掉负面的配对情感原因分析的目标是检测文本中表达某种情感的原因或导致这种情感发生的事件。应用场景如消费者评论挖掘和舆论监督。问题1、这种用来提取情感-原因配对的方法不是
2021-09-08 19:06:53
230
原创 9月7日论文复写
9月7日论文复写XLNet: Generalized Autoregressive Pretrainingfor Language UnderstandingNIPS2019 上的一篇文章,提出了一个XLNet自回归训练方法,影响也比较大客观事实:1、BERT这种基于去噪自动编码的预训练比基于自动回归语言建模的预训练方法取得更好的性能。2、无监督表示学习在自然语言处理方面获得了极大地成功,这些方法都先在大规模无标记的文本语料库上预训练神经网络,然后在下游任务中再进行微调3、自回归语言建模(AR)
2021-09-07 21:34:58
191
原创 读书笔记 | 动手学深度学习(3)——线性神经网络(1)
动手学深度学习(3)——线性神经网络(1)线性回归回归,即尽量让样本中所有点到一根直线的距离最短。也经常用来表示输入和输出之间的关系,因为可以将自变量和因变量之间建立模型。比如预测相关的问题,如房价与房屋平米数之间的关系,而机器学习中的大多数任务也都与预测(prediction)有关。线性回归的基本元素几个术语:训练数据集(training data set)或训练集(training set)样本(sample),也可以称为数据点(data point)或数据样本(data instanc
2021-09-07 16:46:43
234
原创 9月6日论文复写
9月6日论文复写Sentence-State LSTM for Text Representationmeeting of the association for computational linguistics (ACL18)上的一篇文章。客观事实:双向链表在文本表示中是一个非常强大的工具。神经网络方法也成为了NLP中的主流方法问题:由于其顺序性(sequential nature),受到了很多限制引言中提出了其限制:1、固有的顺序性(?这里需要去了解双向LSTM)赋予了相同句子中的非
2021-09-06 23:27:23
252
原创 9月2日论文
K-multiple-means: A multiple-means clustering method with specified K clusters摘要:本文对于K-means方法做了拓展,使其应用于多类别的聚类。之前的K-means聚类只使用一个中心对所有类别的数据进行建模。但是由于捕捉不到非凸显模式以及某些类别由多个子类组成,不能由单个原型来表示。提出方法KMM,将具有多个子类的数据点归入指定的k群(group the datapoints with multiple sub-cluste
2021-09-02 21:04:37
133
原创 读书笔记 | 动手学深度学习(2)——预备知识
动手学深度学习(2)——预备知识本文为《动手学深度学习》一书的第二章部分,书籍地址机器学习通常需要处理大型数据集。我们可以将数据集视为表,其中表的行对应样本,列对应属性。线性代数为我们提供了一些用来处理表格数据的方法。深度学习是关于优化的。我们有一个带有参数的模型,想要找到其中能拟合数据的最好模型。在算法的每个步骤中,决定以何种方式调整参数需要一点微积分知识。机器学习还涉及如何做出预测:给定我们观察到的信息,某些未知属性可能的值是多少?要在不确定的情况下进行严格的推理,我们需要借用概率语言。数据操
2021-09-01 14:43:32
381
原创 Windows10装Ubuntu双系统后遇到的那些问题
Windows10装Ubuntu双系统后遇到的那些问题本文旨在记录自己心血来潮想要装个双系统后遇到的那些事情,后续可能会一直更新。基本在装机时,可以选择使用windows boot manager进行系统安装,可以在进入系统前进行对系统的选择,看起来挺不错的。但是问题在于此时的蓝牙键盘是没有接入电脑,最好用个有线的键盘。后来我把BIOS中其中顺序选为windows优先后,整体体验较为上升。还有一种方法就是用一张新盘装Ubuntu,每次选择系统时从BIOS里面选择启动盘即可。蓝牙突然消失某一次重新
2021-09-01 08:44:14
354
1
原创 读书笔记 | 动手学深度学习——前言
动手学深度学习——前言本文源自李沐老师的《动手学深度学习》,为记录自己从0开始的深度学习入门。一开始可能都不能称之为复写,只能叫做摘抄。书本地址:https://zh-v2.d2l.ai/目标函数目标函数:定义模型的优劣程度的度量损失函数:通常定义一个目标函数,并希望优化它到最低点。因为越低越好,所以这些函数有时被称为损失函数(loss function, 或cost function)几种常见的损失函数当任务为试图预测数值时,最常见的损失函数是平方误差(squared error),即预测值与
2021-08-30 10:46:11
301
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人