【NLP】
文章平均质量分 66
记录nlp的一些用法
月疯
得到你最想要的东西,最保险的办法,那就是你能配得上你最想要的东西。机会是留给有准备的人,运气是留给有天赋的努力者。
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
如何安装scipy、numpy、matplotlib、scikit-learn(亲测)
关于python的包的安装原创 2025-10-23 10:36:03 · 691 阅读 · 0 评论 -
PyTorch DataLoader 接受的返回值类型
7. 自动批处理规则总结DataLoader 的默认 collate_fn 遵循以下规则:张量: 自动堆叠 (stack) 成批次维度数值类型: 转换为张量后堆叠字符串: 保持为列表,不进行转换字典: 对每个键递归应用批处理列表/元组: 对每个元素递归应用批处理None: 需要特殊处理,默认会报错自定义对象: 需要自定义 collate_fn关键要点最常用: 返回 (input, target) 元组最灵活: 返回字典,便于按名称访问最复杂: 需要自定义 coll原创 2025-09-24 16:17:04 · 392 阅读 · 0 评论 -
多任务数据集的具体使用场景
多任务学习的优势知识共享:相关任务可以共享特征表示,提高学习效率正则化效应:多任务学习起到正则化作用,减少过拟合风险数据效率:对于数据稀缺的任务,可以从相关任务中获取有用信息模型简洁:一个模型解决多个任务,减少部署复杂度性能提升:通过任务间的相互促进,通常能获得比单任务学习更好的性能原创 2025-09-15 15:16:41 · 374 阅读 · 0 评论 -
总结模型之getItem方法
torch.utils.data.Dataset:这是一个抽象类,所以我们需要对其进行派生,从而使用其派生类来创建数据集。最主要的两个函数实现为__Len__和__getitem__。__init__:可以在这里设置加载的data和label。__Len__:获取数据集大小__getitem__:根据索引获取一条训练的数据和标签。原创 2025-09-15 14:20:31 · 461 阅读 · 0 评论 -
LSTM这段代码的简单解释
LSTM训练简单语言模型的流程介绍原创 2025-09-11 15:57:08 · 597 阅读 · 0 评论 -
SelfAttention自注意力机制的网络详解
selfattention自注意力机制的网络的代码详解原创 2025-06-22 18:35:47 · 609 阅读 · 0 评论 -
word2Vec与GloVe的区别
GloVe需预计算整个语料的共现矩阵Word2Vec直接流式处理原始文本GloVe在低频词和全局关系上表现更好Word2Vec更擅长捕捉局部上下文模式GloVe官方提供多种规格(6B/42B/840B tokens)Word2Vec常用Google News预训练模型。原创 2025-04-28 17:48:55 · 920 阅读 · 0 评论 -
对deepseekV3之MOE混合专家模型的解读
MOE混合专家系统的理解原创 2025-03-14 17:02:22 · 472 阅读 · 0 评论 -
残差网络和批归一化的原理
深度学习领域里面俩个重要的思想方法原创 2025-03-14 16:45:56 · 424 阅读 · 0 评论 -
transformer稀疏注意力机制的发展
存在一个问题训练的时候每个字都要训练,每增加一个token,算力需求是平方的往上翻的,输入10000个token,苏姚计算10000*10000=1亿次的注意力分数。2017年谷歌发表史诗级的论文Attention is All you need提出Transformer,一种全新的神经网络。2022年斯坦福大学的团队推出了Flash Attention,与其研究看的范围,不如研究看的方式。做了特别的硬件优化,充分利用GPU的张量和内存访问,NSA在处理长序列时实现了显著的加速效果。2、固定模式全局关注。原创 2025-03-05 15:57:54 · 794 阅读 · 0 评论 -
Word2VEC demo
将三国演义一本书作为训练样本进行训练的结果。原创 2024-03-27 11:45:41 · 387 阅读 · 0 评论 -
电影推荐排名搜索算法
主要是测试过程中faiss.py文件导致问题,删除掉就好了。出现一个bug记录一下。原创 2024-03-26 19:40:06 · 535 阅读 · 0 评论 -
RNN预测正弦时间点
【代码】RNN预测正弦时间点。原创 2024-03-09 18:35:14 · 365 阅读 · 0 评论 -
TransformerEncoder影评测试
【代码】TransformerEncoder影评测试。原创 2024-02-25 20:31:50 · 288 阅读 · 0 评论 -
zh-dataset-inews数据集分类测试
【代码】zh-dataset-inews数据集分类测试。原创 2024-02-25 20:27:35 · 248 阅读 · 0 评论 -
Keras简单情感建模分析
【代码】Keras简单情感建模分析。原创 2024-02-25 20:20:33 · 253 阅读 · 0 评论 -
ChatGLM2-6B模型的win10测试笔记
ChatGLM2-6B 是开源中英双语对话模型ChatGLM-6B的第二代版本,在保留了初代模型对话流畅、部署门槛较低等众多优秀特性的基础之上,ChatGLM2更强大的性能:基于 ChatGLM 初代模型的开发经验,我们全面升级了 ChatGLM2-6B 的基座模型。ChatGLM2-6B 使用了GLM的混合目标函数,经过了 1.4T 中英标识符的预训练与人类偏好对齐训练,评测结果。原创 2024-02-09 04:10:48 · 1486 阅读 · 0 评论 -
transformers之agent
简单来说它在转换器之上提供了一个自然语言 API:定义了一组精选工具并设计了一个代理来解释自然语言并使用这些工具。可以想象 HuggingFace 的工程师会是这样的:在 HuggingFace 上托管了很多令人惊叹的模型,可以将它们与 LLM 整合吗?可以使用 LLM 来决定使用哪个模型、编写代码、运行代码并生成结果吗?从本质上讲,没有人需要再学习所有复杂的特定任务模型。只要给它一个任务,LLMs(代理人)就会为其包办一切。原创 2024-02-06 12:57:53 · 1054 阅读 · 0 评论 -
transformers重要组件(模型与分词器)
除了像之前使用AutoModel根据 checkpoint 自动加载模型以外,我们也可以直接使用模型对应的Model类,例如 BERT 对应的就是BertModel注意,AutoModel这样如果我们想要使用另一个模型(比如把 BERT 换成 RoBERTa),只需修改 checkpoint,其他代码可以保持不变。原创 2024-02-05 19:12:54 · 2471 阅读 · 0 评论 -
Pipeline是如何运行
pipeline 的两个重要组件Models类)和Tokenizers类)的参数以及使用方式。以第一个情感分析 pipeline 为例,我们运行下面的代码。原创 2024-02-05 15:41:57 · 1216 阅读 · 0 评论 -
Transformers 基础函数pipeline()
""""""可以看到,pipeline 自动选择了预训练好的模型来完成任务。与文本生成类似,我们也可以通过max_length或min_length参数来控制返回摘要的长度。原创 2024-02-05 10:49:54 · 2391 阅读 · 0 评论
分享