
NLP
文章平均质量分 93
故事挺秃然
攻城狮的故事挺秃然!!!
展开
-
NLP--一起学习Word Vector【实践】
在大模型时代,embedding成为一项必不可少的技术,主要是因为它能够有效地将大量高维数据(如文本、图像和音频信息)转换成更低维的、密集的向量表示。这种表示可以捕捉到数据的本质特征,并且在处理和计算上更为高效。通过embedding,模型可以在这些压缩的向量空间中学习数据之间的复杂关系和模式,从而提高了处理速度和准确性。此外,embedding使得模型能够在较小的表示空间中进行操作,减少了计算资源的需求,同时也便于模型的训练和推理,这对于处理现代大规模数据集尤为关键。原创 2024-10-24 17:43:03 · 1229 阅读 · 0 评论 -
NLP--名词概述【笔记】
表中涵盖了自然语言处理(NLP)任务中大量的名词(简称词)以及其释义,该表只为你能简单了解其概念是什么。如:LSH、KLD、ICL等原创 2024-01-11 16:26:49 · 841 阅读 · 0 评论 -
NLP--Transformer概览【笔记】
你可以通俗易懂的了解,Transformer中的编码器、解码器是什么以及他们中间的细节所对应的概念是什么,具体中间是怎么变化的。原创 2024-01-11 11:47:39 · 937 阅读 · 0 评论 -
NLP--ChatGPT的API参数总结【实践】
ChatGPT的在各项任务下的参数进行了总结、实践,对每个参数知其然、知其所以然,也对每个任务下模型的token花费进行总结。原创 2023-05-22 17:51:57 · 3895 阅读 · 0 评论 -
NLP--词频统计和TF-IDF总结【实践】
词频统计以及TF-IDF原理以及代码实现,在TF-IDF中常被问的问题:为什么TF要进行标准化操作?为什么要取对数?为什么IDF分母中要进行+1(IDF如何进行平滑处理的)?为什么要词频 * 逆文档频率(TF-IDF要用乘法)?原创 2023-05-05 16:45:55 · 2045 阅读 · 1 评论 -
NLP--BERT你不知道的小细节【总结】
BERT论文中重读,记录其中额小细节。2阶段 + 2任务 + 3向量 + 11任务原创 2023-04-07 18:12:44 · 187 阅读 · 0 评论 -
NLP--词性标注(POS)、依存句法分析(DP)、语义依存分析(SDP)【实践】
本文主要对词性标注、依存句法分析、语义依存分析这三个任务,进行简单的调用code实现。词性标注(Part-of-speech tagging),依存句法分析(Dependency Parsing, DP) ,语义依存分析 (Semantic Dependency Parsing, SDP)原创 2023-03-15 17:48:37 · 5773 阅读 · 0 评论 -
NLP--Transformer探索(微观)【笔记】
Transformer学习细节,从微观上深入探索transformer,了解其发展与计算。原创 2023-03-15 15:24:46 · 264 阅读 · 0 评论 -
NLP--Transformer探索(宏观)【笔记】
学习transformer,要“知其然,知其所以然”,先从Embedding上来学习,从宏观和微观上来学习,宏观上整体把握Word Embedding->ELMO->BERT->GPT,再从微观上深入了解Transformer,掌握其细节流程。原创 2023-03-15 12:42:45 · 191 阅读 · 0 评论 -
NLP--知识图谱存储与图数据库总结【分析】
本文将从知识图谱的数据模型、存储方式、基于关系/原生的知识图谱存储管理、数据库选型对比等几方面介绍知识存储问题。原创 2022-12-29 17:48:36 · 8730 阅读 · 2 评论 -
Python小技巧--pandas多样化去重【实践】
pandas数据处理之数据去重,pandas.DataFrame.drop_duplicates()与 pandas.DataFrame.duplicated(),多列去重以及互换列去重原创 2022-09-02 14:28:28 · 3886 阅读 · 0 评论 -
NLP--相似度方法总结【原理】
从多角度来分析相似度计算常用方法。原创 2022-08-25 11:31:05 · 3123 阅读 · 0 评论 -
NLP--优化器(Optimizer)总结【分析】
机器学习与深度学习中优化器的分析原创 2022-08-24 18:55:37 · 1114 阅读 · 0 评论