
自然语言处理
NLP相关,从基础知识到实战积累
阿桥今天吃饱了吗
大家一起来学习吖~
展开
-
情感分析总览(未完成)
情感分析(一) ABSA:译为基于方面的情感分析,本质就是对句子中不同对象可能会存在不同的情感倾向。 Effective LSTMs for Target-Dependent Sentiment Classification(COLING2016) 三种基于LSTM的模型:LSTM、Target-Dependent LSTM 、Target-Connection LSTM Attention-based LSTM for Aspect-level Sentiment Classification(EMNLP原创 2021-05-31 13:51:47 · 202 阅读 · 0 评论 -
自然语言处理 专项3 CBOW模型与word2vec中的CBOW
自然语言处理 专项3 CBOW模型与word2vec中的CBOW #让计算机学习假词向量的正确向量空间 from tensorflow import keras import tensorflow as tf from utils import process_w2v_data from visual import show_w2v_word_embedding corpus = [ # numbers "5 2 4 8 6 2 3 6 4", "4 8 5 6 9 5 5 6"原创 2021-01-29 18:54:04 · 257 阅读 · 0 评论 -
自然语言处理 专项1 TF-IDF、word2vec、CBOW和Skip-Gram
自然语言处理 专项1 CBOW和Skip-Gram 词向量转载 2020-10-16 16:25:35 · 464 阅读 · 0 评论 -
自然语言处理 专项2 Word Embedding
自然语言处理 专项2 WordEmbedding 关于其他的Embedding,后续再分析 万物皆可Embedding,先mark 一、数学含义 翻译过来叫词嵌入 Embedding在数学上表示一个maping,也就是一个function:F(x)->y 其中该函数是injective(就是我们所说的单射函数,每个Y只有唯一的X对应,反之亦然) 和structure-preserving (结构保存,比如在X所属的空间上X1 < X2,那么映射后在Y所属空间上同理 Y1 < Y2) 那么对原创 2020-10-16 14:41:32 · 320 阅读 · 0 评论 -
莫凡Python--自然语言处理--学习笔记(三)理解词语
理解词语 一、词向量 词向量技术是将词转化成为稠密向量,并且对于相似的词,其对应的词向量也相近 词向量的几种典型应用: 把这些对词语理解的向量通过特定方法组合起来,就可以有对某句话的理解了; 可以在向量空间中找寻同义词,因为同义词表达的意思相近,往往在空间中距离也非常近; 词语的距离换算。 1.1 词向量的表示 主要分为one-hot representation和distribution representation (1)离散表示(one-hot representation) 传统的基于规则或基于统原创 2020-10-09 16:32:32 · 644 阅读 · 1 评论 -
莫凡Python--自然语言处理--学习笔记(二)搜索
搜索 一、如何工作 搜索引擎、垂类搜索 构建索引(在快速数据中) 多模态搜索技术 批量召回–粗排–精排 倒排索引技术索引复用 TF-IDF算法词频–逆文本频率指数 四维空间中,问题离哪一个文章的距离最近 把问句或者是文章,用数字的模式,投射到空间中,都是将问句或文章转变成向量,然后按照向量的模式指向空间中的某个位置 二、TF-IDF TF-IDF:使用词语的重要程度与独特性来代表每篇文章,然后通过对比搜索词与代表的相似性,提供最相似的文章列表。 语言向量化 TF-IDF 的数学表达形式是一个庞大的矩阵,用词原创 2020-09-30 13:58:14 · 231 阅读 · 0 评论 -
莫凡Python--自然语言处理--学习笔记(一)简介
第一章 简介 一、NLP六问 1.1 行业大佬自我介绍 1.2 用NLP做些什么 文本分类、机器翻译 中文文本纠错 商品卖点挖掘 任务型对话系统(导购机器人) 文本语义分析(交流体验,剪辑视频、表情包) 1.3 任务价值 1.4 难点 样本的准备(来源、洗涤、编辑) 应用范围较窄 标注数据的不足 样本中的俚语 1.5 发展 行业与场景的属性 GPT3 脱离字符串匹配 1.6 建议 工程能力:算法与复现、各种系统上的实验、产品化应用 项目 业务导向 具体任务导向 二、自然语言处理是什么 ...原创 2020-09-20 11:47:59 · 541 阅读 · 0 评论 -
神经网络 专项3 LSTM--长短期记忆网络
专项3 LSTM–长短期记忆网络 一、理解LSTM 一种特别形式的RNN,是一种时间递归神经网络,适合于处理和预测时间序列中间隔和延迟相对较长的重要事件。 主线取决于输入和忘记 LSTM区别于RNN的地方,主要就在于它在算法中加入了一个判断信息有用与否的"处理器",这个处理器作用的结构被称为cell。 一个cell当中被放置了三扇门,分别叫做输入门、遗忘门和输出门。一个信息进入LSTM的网络当中,可以根据规则来判断是否有用。只有符合算法认证的信息才会留下,不符的信息则通过遗忘门被遗忘。 门:一个sigmo原创 2020-09-20 11:02:43 · 738 阅读 · 0 评论