
自然语言处理(NLP)
文章平均质量分 97
自然语言处理(NLP)
道友老李
提供工业机器视觉解决方案(涵盖光源、相机、镜头、结构、视觉技术等)和自研接近开关传感器(衰减系数1)产品,联系方式:18271933684(同vx)。
展开
-
【自然语言处理(NLP)】NLP实战:IMDB影评情感分析项目
*自然语言处理(Natural Language Processing,NLP)**是计算机科学领域与人工智能领域中的一个重要方向。它研究的是人类(自然)语言与计算机之间的交互。NLP的目标是让计算机能够理解、解析、生成人类语言,并且能够以有意义的方式回应和操作这些信息。词法分析:将文本分解成单词或标记(token),并识别它们的词性(如名词、动词等)。句法分析:分析句子结构,理解句子中词语的关系,比如主语、谓语、宾语等。语义分析:试图理解句子的实际含义,超越字面意义,捕捉隐含的信息。语用分析。原创 2025-02-05 05:00:00 · 16202 阅读 · 32 评论 -
【自然语言处理(NLP)】Hugging Face 介绍和使用
Hugging Face 是一个专注于自然语言处理(NLP)的开源社区和平台,提供了大量预训练模型和工具,使得开发者能够轻松地使用和微调这些模型。Hugging Face 的核心库是 **Transformers**,它支持多种预训练模型(如 BERT、GPT、T5、RoBERTa 等),并提供了简单易用的 API 来加载、训练和推理原创 2025-02-06 05:00:00 · 16038 阅读 · 14 评论 -
【自然语言处理(NLP)】生成词向量:ELMo(Embedded from Language Models)原理及应用
ELMo(Embedded from Language Models)是一种深度语境化的词表示方法,由AllenNLP团队于2018年提出。与传统的词嵌入方法(如Word2Vec、GloVe)不同,ELMo能够根据上下文动态生成词向量,从而捕捉到词的多义性和复杂的语言特征原创 2025-02-05 05:00:00 · 16911 阅读 · 52 评论 -
【自然语言处理(NLP)】学习词向量(word embeddings)和文本分类:fastText模型原理
**fastText** 是由 Facebook AI Research (FAIR) 开发的一种高效的自然语言处理(NLP)模型,主要用于学习词向量(word embeddings)和文本分类。fastText 的核心思想是通过引入子词(subword)信息来改进词向量的表示,特别适合处理形态丰富的语言(如德语、土耳其语等)和未登录词(out-of-vocabulary words)。原创 2025-02-04 05:00:00 · 16006 阅读 · 11 评论 -
【自然语言处理(NLP)】生成词向量:GloVe(Global Vectors for Word Representation)原理及应用
GloVe(Global Vectors for Word Representation)是一种用于获取词向量的无监督学习算法,由斯坦福大学的Jeffrey Pennington、Richard Socher和Christopher D. Manning于2014年提出。GloVe通过结合全局统计信息和局部上下文信息来生成词向量,旨在捕捉词语之间的语义关系。## 核心思想GloVe的核心思想是利用词与词之间的共现概率来捕捉语义信息。具体来说,GloVe通过构建一个共现矩阵(co-occurrence原创 2025-02-04 05:00:00 · 17139 阅读 · 24 评论 -
【自然语言处理(NLP)】Word2Vec 训练与应用(Skip-Gram模型)
**Word2Vec** 是一种广泛应用于自然语言处理(NLP)的算法,用于生成**词向量**(Word Embeddings),即将词语映射到一个连续的向量空间中。这些词向量能够捕捉词语之间的语义关系,使得语义相近的词语在向量空间中的位置也相近。Word2Vec 由 Google 的研究团队(Tomas Mikolov 等人)于 2013 年提出。原创 2025-02-03 05:00:00 · 15262 阅读 · 11 评论 -
【自然语言处理(NLP)】Word2Vec 数据集整理(Skip-Gram模型)
**Word2Vec** 是一种广泛应用于自然语言处理(NLP)的算法,用于生成**词向量**(Word Embeddings),即将词语映射到一个连续的向量空间中。这些词向量能够捕捉词语之间的语义关系,使得语义相近的词语在向量空间中的位置也相近。Word2Vec 由 Google 的研究团队(Tomas Mikolov 等人)于 2013 年提出。原创 2025-02-03 05:00:00 · 16001 阅读 · 12 评论 -
【自然语言处理(NLP)】Word2Vec 原理及模型架构(Skip-Gram、CBOW)
**Word2Vec** 是一种广泛应用于自然语言处理(NLP)的算法,用于生成**词向量**(Word Embeddings),即将词语映射到一个连续的向量空间中。这些词向量能够捕捉词语之间的语义关系,使得语义相近的词语在向量空间中的位置也相近。Word2Vec 由 Google 的研究团队(Tomas Mikolov 等人)于 2013 年提出。原创 2025-02-02 05:00:00 · 15584 阅读 · 11 评论 -
【自然语言处理(NLP)】基于Transformer架构的预训练语言模型:BERT 训练之数据集处理、训练代码实现
【自然语言处理(NLP)】基于Transformer架构的预训练语言模型:BERT 训练之数据集处理、训练代码实现原创 2025-02-02 05:00:00 · 16360 阅读 · 17 评论 -
【自然语言处理(NLP)】基于Transformer架构的预训练语言模型:BERT 原理及代码实现
模型架构- **基于Transformer编码器**:BERT仅使用Transformer的编码器部分,其多层双向Transformer编码器允许模型在处理每个单词时,同时考虑该单词的左右上下文信息,从而生成深度的双向语言表征。- **多层结构**:基础版本的BERT有12层Transformer编码器层,而BERT - Large有24层,层数越多,模型的表达能力越强,但计算量也越大。原创 2025-02-01 05:00:00 · 15658 阅读 · 12 评论 -
【自然语言处理(NLP)】深度学习架构:Transformer 原理及代码实现
核心组件- **[多头注意力机制(Multi-Head Attention)](https://blog.youkuaiyun.com/u014608435/article/details/145363310)** - **原理**:将输入的向量表示通过多个头(head)的注意力机制,并行地计算不同位置之间的依赖关系,从而捕捉到更丰富的语义信息。每个头都可以关注输入序列的不同部分,然后将这些头的结果进行拼接和线性变换,得到最终的输出。 - **公式**:$MultiHead(Q,K,V)=Concat原创 2025-02-01 05:00:00 · 16089 阅读 · 18 评论 -
【自然语言处理(NLP)】自注意力(Self-Attention)原理及代码实现、位置编码、相对位置信息
在自注意力中,查询(Query)、键(Key)和值(Value)都来自同一个输入序列。它能够计算输入序列中每个位置与其他所有位置之间的关联程度,从而捕捉序列内部的依赖关系。以自然语言处理中句子为例,假设输入是一个由单词组成的句子,自注意力机制可以计算每个单词与句子中其他单词的关联分数,这些分数反映了单词之间的语义相关性。比如对于句子“我 爱 自然语言处理”,自注意力机制会计算“我”与“爱”“自然语言处理”等词的关联分数,同理也会计算其他单词之间的关联分数。原创 2025-01-31 05:00:00 · 15919 阅读 · 48 评论 -
【自然语言处理(NLP)】多头注意力(Multi - Head Attention)原理及代码实现
多头注意力机制首先将查询(Query)、键(Key)、值(Value)分别通过多个全连接层进行线性变换,得到多个不同的表示。然后,对这些不同的表示分别进行注意力计算。最后,将各个注意力的结果进行连结(Concatenate),再通过一个全连接层得到最终输出。这种机制允许模型在不同的表示子空间中并行地关注输入序列的不同部分,能够捕捉到更丰富的语义信息,广泛应用于Transformer等模型架构中,在自然语言处理、计算机视觉等领域有重要应用。原创 2025-01-31 05:00:00 · 16650 阅读 · 39 评论 -
【自然语言处理(NLP)】注意力评分函数(点注意力、缩放点积注意力、缩放点积注意力、加法注意力、多头注意力等)
【自然语言处理(NLP)】注意力评分函数(点注意力、缩放点积注意力、缩放点积注意力、加法注意力、多头注意力等)原创 2025-01-30 05:00:00 · 15513 阅读 · 14 评论 -
【自然语言处理(NLP)】注意力汇聚、Watson 核回归原理及代码实现
Watson核回归通常是指Nadaraya-Watson核回归,是一种非参数回归方法。- **定义与背景**:Nadaraya-Watson核回归由前苏联数学家Elizbar A. Nadaraya和澳大利亚统计学家Geoffrey S. Watson于1964年分别提出。它是一种用于估计随机变量条件期望的非参数技术,旨在找到一对随机变量X和Y之间的非线性关系,特别适用于数据点稀疏或模型形式未知的情况。原创 2025-01-30 05:00:00 · 16328 阅读 · 16 评论 -
【自然语言处理(NLP)】Bahdanau 注意力(Bahdanau Attention)原理及代码实现
Bahdanau注意力(Bahdanau Attention)是自然语言处理中一种经典的注意力机制。在传统的编码器 - 解码器架构(如基于RNN的架构)中,编码器将整个输入序列编码为一个固定长度的向量,解码器依赖该向量生成输出。当输入序列较长时,这种固定长度向量难以存储所有重要信息,导致性能下降。Bahdanau注意力机制通过让解码器在生成每个输出时,动态关注输入序列不同部分,解决此问题。## 原理允许解码器在生成输出时,根据当前状态,从编码器的隐藏状态序列中选择性聚焦,获取与当前生成任务最相关信原创 2025-01-29 05:00:00 · 15812 阅读 · 11 评论 -
【自然语言处理(NLP)】seq2seq、编解码器原理及代码实现
基于循环神经网络(RNN)及其变体的编码器-解码器架构- **编码器** - **工作原理**:RNN编码器按顺序处理输入序列中的每个元素,将当前输入和上一时刻的隐藏状态结合起来,通过非线性变换更新隐藏状态。对于长序列输入,长短期记忆网络(LSTM)和门控循环单元(GRU)等RNN变体能够更好地处理长期依赖问题。以LSTM为例,它通过输入门、遗忘门和输出门来控制信息的流动,决定哪些信息需要保留、哪些需要遗忘,从而更有效地捕捉输入序列中的长期依赖关系。 - **输出**:编码器最后一个时间步原创 2025-01-29 05:00:00 · 15856 阅读 · 14 评论 -
【自然语言处理(NLP)】机器翻译之数据处理(数据收集、数据清洗、数据分词、数据标注、数据划分)
【自然语言处理(NLP)】机器翻译之数据处理(数据收集、数据清洗、数据分词、数据标注、数据划分)原创 2025-01-28 05:00:00 · 15385 阅读 · 11 评论 -
【自然语言处理(NLP)】双向循环神经网络(Bidirectional Recurrent Neural Network,Bi - RNN)原理和实现
双向循环神经网络(Bidirectional Recurrent Neural Network,Bi - RNN)是循环神经网络(RNN)的一种拓展形式,在处理序列数据时具有独特优势,以下是对它的详细介绍:## 结构特点双向循环神经网络由两个方向相反的循环层构成,一个按时间顺序正向处理序列数据(前向RNN),另一个则逆向处理(后向RNN)。在每个时间步,这两个循环层都分别计算各自的隐藏状态,然后将它们的结果进行合并(如拼接或相加等),作为该时间步的最终隐藏状态输出。这种结构使得模型在处理当前时刻的信息原创 2025-01-28 05:00:00 · 16344 阅读 · 13 评论 -
【自然语言处理(NLP)】深度循环神经网络(Deep Recurrent Neural Network,DRNN)原理和实现
深度循环神经网络(Deep Recurrent Neural Network,DRNN)是在循环神经网络(RNN)基础上发展而来的一种深度学习模型。## 结构特点- **多层循环结构**:普通的RNN通常只有一层循环层,而DRNN包含多个循环层堆叠在一起。每一层循环层都可以学习到不同层次和粒度的序列特征。底层的循环层可以捕捉到序列中的局部短期依赖关系,随着层数的增加,高层的循环层能够逐渐提取出更抽象、更长期的依赖关系。- **丰富的连接方式**:除了循环层之间的堆叠,DRNN还可以有多种连接方式。例原创 2025-01-27 05:00:00 · 15787 阅读 · 52 评论 -
【自然语言处理(NLP)】门控循环单元 GRU 原理和代码实现
门控循环单元(Gated Recurrent Unit,GRU)是循环神经网络(RNN)的一种变体。## 基本原理- **门控机制**:主要包含两个门控结构,即更新门和重置门。更新门决定了有多少过去的信息需要保留到当前时刻,以及有多少当前的输入信息需要被整合到新的隐藏状态中。重置门用于决定需要忽略多少过去的信息。- **隐藏状态的更新**:基于更新门和重置门进行隐藏状态的更新。在每个时间步,GRU接受当前的输入向量以及上一个时间步的隐藏状态,然后输出当前时间步的隐藏状态,并将其传递到下一个时间步作为原创 2025-01-27 05:00:00 · 15985 阅读 · 34 评论 -
【自然语言处理(NLP)】长短期记忆网络(Long - Short Term Memory,LSTM)原理和代码实现(从零实现、Pytorch实现)
长短期记忆网络(Long - Short Term Memory,LSTM)是一种特殊的循环神经网络(RNN),专门为解决传统RNN中的长期依赖问题和梯度消失/爆炸问题而设计,在自然语言处理、时间序列分析等领域广泛应用。原创 2025-01-26 05:00:00 · 15341 阅读 · 12 评论 -
【自然语言处理(NLP)】从零实现循环神经网络RNN、Pytorch实现循环神经网络RNN
【自然语言处理(NLP)】从零实现循环神经网络RNN、Pytorch实现循环神经网络RNN原创 2025-01-26 05:00:00 · 15598 阅读 · 20 评论 -
【自然语言处理(NLP)】循环神经网络RNN
循环神经网络(Recurrent Neural Network,RNN)是一类特殊的人工神经网络,它适合处理序列数据,在自然语言处理、语音识别等领域应用广泛。下面从结构原理、特点、存在的问题及应用场景等方面详细介绍。原创 2025-01-25 05:00:00 · 15899 阅读 · 51 评论 -
【自然语言处理(NLP)】jieba分词的使用(分词模式、关键词提取)
*自然语言处理(Natural Language Processing,NLP)**是计算机科学领域与人工智能领域中的一个重要方向。它研究的是人类(自然)语言与计算机之间的交互。NLP的目标是让计算机能够理解、解析、生成人类语言,并且能够以有意义的方式回应和操作这些信息。词法分析:将文本分解成单词或标记(token),并识别它们的词性(如名词、动词等)。【自然语言处理(NLP)】jieba分词的使用(分词模式、关键词提取)原创 2025-01-25 05:00:00 · 15932 阅读 · 38 评论 -
【自然语言处理(NLP)】NLTK的使用(分句、分词、词频提取)
NLTK全称是NaturalLanguageToolkit(自然语言处理工具包),它是一个用于构建处理人类语言数据的Python程序的领先平台。NLTK提供了简单易用的接口以及丰富的工具和资源,广泛应用于文本处理、信息检索、情感分析、机器翻译等众多自然语言处理(NLP)任务中。原创 2025-01-24 05:00:00 · 16072 阅读 · 10 评论 -
【自然语言处理(NLP)】文本预处理和语言模型(读取数据集、词元化、词汇表、功能整合、语言模型、序列数据取样)
#文本预处理-将文本作为字符串加载到内存中。-将字符串拆分为词元(如单词和字符)。-建立一个词汇表,将拆分的词元映射到数字索引。-将文本转换为数字索引序列,方便模型操作。原创 2025-01-24 05:00:00 · 15361 阅读 · 12 评论 -
【自然语言处理(NLP)】序列数据研究(创建序列数据、简单的MLP模型、预测结果分析)
自然语言处理(Natural Language Processing,NLP)是计算机科学领域与人工智能领域中的一个重要方向。它研究的是人类(自然)语言与计算机之间的交互。NLP的目标是让计算机能够理解、解析、生成人类语言,并且能够以有意义的方式回应和操作这些信息。词法分析:将文本分解成单词或标记(token),并识别它们的词性(如名词、动词等)。句法分析:分析句子结构,理解句子中词语的关系,比如主语、谓语、宾语等。语义分析:试图理解句子的实际含义,超越字面意义,捕捉隐含的信息。语用分析。原创 2025-01-23 05:00:00 · 15669 阅读 · 25 评论 -
【自然语言处理(NLP)】介绍、发展史
自然语言处理(Natural Language Processing,NLP)是计算机科学领域与人工智能领域中的一个重要方向。它研究的是人类(自然)语言与计算机之间的交互。NLP的目标是让计算机能够理解、解析、生成人类语言,并且能够以有意义的方式回应和操作这些信息。词法分析:将文本分解成单词或标记(token),并识别它们的词性(如名词、动词等)。句法分析:分析句子结构,理解句子中词语的关系,比如主语、谓语、宾语等。语义分析:试图理解句子的实际含义,超越字面意义,捕捉隐含的信息。语用分析。原创 2025-01-23 05:00:00 · 16144 阅读 · 45 评论