
NLP
文章平均质量分 94
Sophia$
算法
展开
-
BERT原理详细介绍
cased区分大小写,不需要lower-caseuncased不区分大小写(这句话是错的,所谓不区分大小写实际上是不能区分大小写,因为词表只有小写,这就是我为什么那么久还搞混的原因…),需要lower-case所以总结一句话:cased **能** 区分,uncased **不能** 区分 (能区分的自然不用事先lower)...转载 2021-06-11 14:30:22 · 9348 阅读 · 0 评论 -
Transformer详解(三):Transformer 结构
Transformer结构是谷歌那篇《Attention is all you need》论文中提到的。论文中提出了transformer这么一种新的结构,将其应用在机器翻译的领域上,取得了很好的效果。本文将分析一下Transformer结构的具体组成部分。1. 整体结构Transformer 整体结构宏观上看是一个Encoder-Decoder结构,只不过这个结构完全抛弃了常见的RNN,...转载 2019-12-04 16:01:42 · 12465 阅读 · 2 评论 -
Transformer详解(一):从RNN到Attention机制
对于《Attention is all you need》这篇文章中提到的transformer模型,自己最初阅读的时候并不是很理解,于是决定从头开始,一点一点梳理transformer模型的由来。整个文章计划分成三个部分,第一部分,也就是本文,将重点介绍一下NLP方面对于seq2seq的基本发展。第二部分,将讲解attention机制的各个细节。最后一部分,将介绍transformer模型的具体...转载 2019-12-04 11:02:15 · 1430 阅读 · 1 评论 -
Image Caption 常用评价指标
BLEU、Meteor、ROUGE、CIDEr 和 SPICE。前两个是评测机器翻译的,第三个是评测自动摘要的,最后两个评价 caption 的。1. PerplexityPerplexity其中,L是句子的长度,PPL(w_{1:L}|I) 就是根据图像 I 给出的描述句子 w_{1:L} 的 perplexity。而P(w_n|w_{1:n-1},I) 是根据图像 I 和前面的单词序列 w_{1:n-1} 生成下一个单词 w_n 的概率。一句话:Perplexity .转载 2021-03-18 16:02:52 · 3034 阅读 · 0 评论 -
使用深度学习自动给图片生成文字描述
给图像加文字描述,涉及在给定的图像(例如照片)的情况下生成人类可读的文本描述。对于人类而言,这是一个容易解决的问题,但对于机器而言却非常具有挑战性,因为它既需要理解图像的内容,又需要将这种理解转化为自然语言。近年来,深度学习方法已经取代了传统方法,并针对自动生成图像描述(称为“字幕”)的问题取得了最新技术成果。在本文中,你将发现如何使用深度神经网络模型来自动生成图像描述。完成这篇文章后,你将了解:关于为图像生成文本描述所面临的挑战以及将计算机视觉和自然语言处理方面的突破相结合的需求。转载 2021-03-18 10:21:24 · 10640 阅读 · 1 评论 -
Word2Vec之Skip-Gram模型
这篇文章主要是对Word2Vec模型的两篇英文文档的翻译、理解和整合,这两篇英文文档都是介绍Word2Vec中的Skip-Gram模型。原文英文文档请参考链接:-Word2Vec Tutorial - The Skip-Gram Model-Word2Vec (Part 1): NLP With Deep Learning with Tensorflow (Skip-gram)什么是Word2Vec和Embeddings?Word2Vec是从大量文本语料中以无监督的方式学习语义知识的一种模..转载 2020-09-01 19:48:47 · 1528 阅读 · 0 评论 -
Transformer详解(二):Attention机制
1.Encoder-Decoder中的attention机制上一篇文章最后,在Encoder-Decoder框架中,输入数据的全部信息被保存在了C。而这个C很容易受到输入句子长度的影响。当句子过长时,C就有可能存不下这些信息,导致模型后续的精度下降。Attention机制对于这个问题的解决方案是在decoder阶段,每个时间点输入的C都是不一样的。而这个C,会根据当前要输出的y,去选取最适合y...转载 2019-12-04 15:01:38 · 3536 阅读 · 0 评论 -
图解自注意力机制-通俗易通篇
BERT、RoBERTa、ALBERT、SpanBERT、DistilBERT、SesameBERT、SemBERT、MobileBERT、TinyBERT和CamemBERT的共同点是什么?答案并不是“ BERT”????。而是“自注意力”????。我们不仅在讨论承载“ BERT”的架构,更准确地说是基于 Transformer 的架构。基于 Transformer 的架构主要用于对语言理解任务进行建模,避免使用神经网络中的递归,而是完全信任自注意力在输入和输出之间绘制全局依赖性的机制。但是,这背后的转载 2020-08-10 21:58:53 · 9597 阅读 · 2 评论 -
注意力机制基本原理详解及应用
注意力模型最近几年在深度学习各个领域被广泛使用,无论是图像处理、语音识别还是自然语言处理的各种不同类型的任务中,都很容易遇到注意力模型的身影。所以,了解注意力机制的工作原理对于关注深度学习技术发展的技术人员来说有很大的必要。1. 人类的视觉注意力从注意力模型的命名方式看,很明显其借鉴了人类的注意力机制,因此,我们首先简单介绍人类视觉的选择性注意力机制。图1 人类的视觉注意力视觉注意力机制是人类视觉所特有的大脑信号处理机制。人类视觉通过快速扫描全局图像,获得需要重点关注的目标区域,也就是一般转载 2020-08-10 14:41:03 · 31113 阅读 · 10 评论 -
语音识别(一):介绍和简单实现
1. 语音识别介绍语音识别的最主要过程是:特征提取:从声音波形中提取声学特征; 声学模型(语音模型):将声学特征转换成发音的音素; 语言模型使用语言模型等解码技术转变成我们能读懂的文本。语音识别系统的典型结构如图1所示:图1 语音识别结构1.1 声学特征提取声音实际上一种波,原始的音频文件叫WAV文件,WAV文件中存储的除了一个文件头以外,就是声音波形的一个个点。如图2所示:图2 声音波形示意图要对声音进行分析,首先对声音进行分帧,把声音切分成很多小的片段,帧与帧之间有一定的交叠,转载 2020-07-24 17:09:56 · 16570 阅读 · 4 评论 -
使用CTC进行序列建模
下面是连结时序分类(Connectionist Temporal Classification,CTC)的一个可视化指导图,CTC是一种用于在语音识别,手写识别和其他序列问题中训练深度神经网络的算法。CTC的工作原理1.引言对于语音识别,我们有一个声音片段和对应校正后的转写文本数据集。不幸的是,我们不知道如何将文字记录中的字符与音频对齐,这使得训练语音识别器比最开始想的看起来更难。如果没有这种对齐, 我们就无法使用简单的方法。我们可以设计一个规则, 如 “一个字符对应于十个输入”。但人们的说话.转载 2020-07-24 13:07:43 · 1295 阅读 · 0 评论 -
5 Open Source Speech Recognition/Speech-to-Text Systems
语音文字转换 (STT) 系统就像它名字所蕴含的意思那样,是一种将说出的单词转换为文本文件以供后续使用的方法。-- Simon James语音文字转换技术非常有用。它可以用到许多应用中,例如自动转录,使用自己的声音写书籍或文本,用生成的文本文件和其他工具做复杂的分析等。在过去,语音文字转换技术以专有软件和库为主导,要么没有开源替代品,要么有着严格的限制,也没有社区。这一点正在发生改变,当今有许多开源语音文字转换工具和库可以让你随时使用。这里我列出了 5 个。1. DeepSpeech 项转载 2020-07-09 16:56:53 · 680 阅读 · 0 评论 -
知识抽取-事件抽取
接上一篇知识抽取-实体及关系抽取,前置知识在这一篇不多做解释啦。事件是促使事情状态和关系改变的条件[Dong et.al., 2010]。目前已存在的知识资源(如维基百科等) 所描述实体及实体间的关系大多是静态的,而事件能描述粒度更大的、动态的、 结构化的知识,是现有知识资源的重要补充。...转载 2020-07-02 16:44:37 · 5371 阅读 · 0 评论 -
知识抽取-实体及关系抽取
知识抽取涉及的“知识”通常是清楚的、事实性的信息,这些信息来自不同的来源和结构,而对不同数据源进行的知识抽取的方法各有不同,从结构化数据中获取知识用 D2R,其难点在于复杂表数据的处理,包括嵌套表、多列、外键关联等;从链接数据中获取知识用图映射,难点在于数据对齐;从半结构化数据中获取知识用包装器,难点在于 wrapper 的自动生成、更新和维护,这一篇主要讲从文本中获取知识,也就是我们广义上说的信息抽取。1. 信息抽取三个最重要/最受关注的子任务:实体抽取 也就是命名实体识别,包括实体的检测.转载 2020-06-30 22:15:52 · 8272 阅读 · 0 评论 -
Deepdive原理
DeepDive是一种新型数据管理系统,能够从非结构化的文本中提取出结构化的数据,可以在单个系统中解决提取,集成和预测问题,使用户能够快速构建复杂的端到端数据管道,例如黑暗数据BI(商业智能)系统。通过允许用户端到端构建系统,DeepDive允许用户专注于系统中最能直接提高应用程序质量的部分。相比之下,以前基于流水线的系统要求开发人员构建提取器,集成代码和其他组件 - 而不清楚他们的更改如何提高其数据产品的质量。这种简单的洞察力是DeepDive系统如何在更短的时间内生成更高质量数据的关键。通过DeepD转载 2020-06-29 21:34:21 · 1099 阅读 · 0 评论