
论文笔记
记录读过的论文笔记
ChanYeol666
在软件学院中学了日语
展开
-
SAFE: Similarity-Aware Multi-Modal Fake News Detection-学习笔记
SAFE: Similarity-Aware Multi-Modal Fake News Detection假新闻检测方法通常可以分为(I)基于内容的方法和(II)基于社交上下文的方法。 PolitiFact(politifact.com)是美国著名的非盈利性的政治陈述和报告真相检查网站。 GossipCop(gossipcop.com)是一个网站,用于检查杂志和报纸上发布的名人报道和娱乐故事。 LIWC是一个广泛接受的心理语言词典。给定一个新闻故事,LIWC可以对文本中的单词进行计数,这些单词属于原创 2020-10-12 16:10:25 · 2159 阅读 · 3 评论 -
Outlier Detection for Improved Data Quality and Diversity in Dialog Systems-学习笔记
Outlier Detection for Improved Data Quality and Diversity in Dialog Systems论文按如下方式检测数据集中的异常值: 1.生成每个实例的矢量表示。 2.平均向量以获得均值表示。 3.计算每个实例与平均值的距离。 4.按距离升序排列。 5.(删除列表,仅将前k%作为离群值。) 最后一步用括号括起来,因为在实践中使用动态阈值方法,允许...原创 2020-10-12 15:19:01 · 489 阅读 · 0 评论 -
LSCP: Locally Selective Combination in Parallel Outlier Ensembles-学习笔记
LSCP: Locally Selective Combination in Parallel Outlier EnsemblesLSCP框架: 1.训练多个基础异常检测器(Base Detector Generation); 2.生成伪标签用于评估(Pseudo Ground Truth); 3.对于每个测试点生成局部空间,也就是近邻(Local Region Definition); 4.模型选择与合并(Model Selecti...原创 2020-10-12 15:17:00 · 1378 阅读 · 0 评论 -
Reasoning about Entailment with Neural Attention-学习笔记
Reasoning about Entailment with Neural Attention LSTM可以学习丰富的语句表示,这些语句适合于确定文本含义。LSTM神经网络很适用于文本蕴含类的任务。 针对识别文本蕴含(RTE)任务提出了一个带有注意力的神经网络。文中的模型能够处理以前提为条件的假设来推理词与词,短语与短语之间的蕴含关系。 文中的整个模型的框架:使用两个LSTMs(A)识别文本蕴涵,一个在premise上,一个在hypothesis上,以及注意仅基于最后输出向量(h9,B)或逐字注意原创 2020-10-12 15:04:49 · 244 阅读 · 0 评论 -
Enhanced LSTM for Natural Language Inference-学习笔记
Enhanced LSTM for Natural Language Inference自然语言推理(NLI: natural language inference)问题:即判断能否从一个前提p中推导出假设h,简单来说,就是判断给定两个句子的三种关系:蕴含、矛盾或无关。 论文中的自然语言推理网络由以下部分组成:输入编码(Input Encoding ),局部推理模型(Local Inference Modeling ),和推理合成(inference composition)。 若有两个句子a=(a原创 2020-10-12 15:01:53 · 342 阅读 · 0 评论 -
GloVe: Global Vectors for Word Representation-学习笔记
GloVe: Global Vectors for Word RepresentationGloVe是一种用于获取单词向量表示的无监督学习算法。 用于最近邻居评估的相似性度量产生一个量化两个词的相关性的单个标量。 两个词向量之间的向量差是一组更大的判别数的自然而简单的候选者。 GloVe的设计目的是使这样的矢量差尽可能多地捕获两个单词并列所指定的含义。 尽管TextCNN能够在很多任务里面能有不错的表现,但CNN有个最大问题是固定 filter_size 的视野,一方面无法建模更长的序列信息,另一原创 2020-10-11 20:23:10 · 386 阅读 · 0 评论 -
Sequence Classification with LSTM Recurrent Neural Networks in Python with Keras-学习笔记
Sequence Classification with LSTM Recurrent Neural Networks in Python with Keras序列分类是一种预测建模问题,其中在空间或时间上具有一些输入序列,而任务是预测序列的类别。 LSTM(Long Short Term Memory networks)可以解决传统RNN的长期依赖(long-term dependencies)问题。它对传统RNN的隐层进行了结构上的改进。 Word Embedding是在高维空间中将单词编码为实原创 2020-10-11 20:17:47 · 247 阅读 · 0 评论 -
Convolutional Neural Networks for Sentence Classification-学习笔记
Convolutional Neural Networks for Sentence Classification在自然语言处理中,深度学习方法的大部分工作都涉及通过神经语言模型学习单词向量表示。 卷积神经网络(CNN)利用应用了卷积滤镜的图层局部特征。 无监督的神经语言模型是一种在不存在的情况下提高性能的常用方法一个大型监督训练集。 将其他随机源 - CV-fold作为符号,未知单词向量的初始化,CNN参数的初始化 - 通过使它们在每个数据集内保持一致来实现。 预先训练好的矢量是良好的“通用.原创 2020-10-11 17:08:50 · 194 阅读 · 0 评论