自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(31)
  • 收藏
  • 关注

原创 Encoder-Decoder实现详解

在序列到序列(Sequence-to-Sequence)任务中,Encoder-Decoder架构是解决机器翻译、文本摘要等问题的经典方案。本文将从核心逻辑到代码实现,层层递进地解析基于RNN的编码器(Encoder)和解码器(Decoder),帮助读者快速理解其设计思路与工作原理。input_size:输入词汇表大小(如源语言有5000个不同单词)。:特征维度(如256),统一词嵌入和RNN的维度,确保数据流通畅。:目标词汇表大小(如目标语言有4345个不同单词)。

2025-09-09 23:25:58 1859

原创 AI、人工智能础: 实体命名!

实体是文本之中承载信息的语义单元,是文本语义理解的基础,像一句话之中的人名地名就是一种实体。实体抽取,又称为命名实体识别(named entity recognition,NER),指的是从文本之中抽取出命名性实体,并把这些实体划分到指定的类别。常见的实体包括七种类别:人名、地名、机构名、时间、日期、货币、百分比。如图所示,“1973年1月19日”是时间实体;“詹姆斯·瓦特”是人名实体;“苏格兰”、“格拉斯哥”、“克莱德河湾”、“格林诺克”是地名实体。

2025-09-06 23:10:11 841

原创 Encoder-Decoder模型核心逻辑与实现详解

在序列到序列(Sequence-to-Sequence)任务中,Encoder-Decoder架构是解决机器翻译、文本摘要等问题的经典方案。本文将从核心逻辑到代码实现,层层递进地解析基于RNN的编码器(Encoder)和解码器(Decoder),帮助读者快速理解其设计思路与工作原理。input_size:输入词汇表大小(如源语言有5000个不同单词)。:特征维度(如256),统一词嵌入和RNN的维度,确保数据流通畅。:目标词汇表大小(如目标语言有4345个不同单词)。

2025-09-03 23:20:27 765

原创 AI、人工智能基础:流行的Transformer 有多牛?横扫 NLP 界的 “流量明星” 架构解密

了解Transformer背景。

2025-09-01 23:19:53 771

原创 AI、人工智能基础:流行的Transformer 有多牛?横扫 NLP 界的 “流量明星” 架构解密

了解Transformer背景。

2025-09-01 23:19:21 1464

原创 Encoder-Decoder逻辑与实现详解

本文详细解析了基于RNN的Encoder-Decoder模型架构,包括编码器和解码器的核心逻辑与实现。编码器通过词嵌入层和GRU将输入序列压缩为固定维度隐藏状态,解码器则基于该状态逐步生成目标序列。文章从参数定义、网络层设计到前向传播流程进行了系统拆解,并提供了清晰的PyTorch代码实现,帮助读者理解序列到序列任务的核心机制。两个模块共享hidden_size确保语义传递连贯性,为机器翻译等任务提供经典解决方案。

2025-08-31 22:45:49 1168

原创 Encoder-Decoder模型核心逻辑与实现详解

在序列到序列(Sequence-to-Sequence)任务中,Encoder-Decoder架构是解决机器翻译、文本摘要等问题的经典方案。本文将从核心逻辑到代码实现,层层递进地解析基于RNN的编码器(Encoder)和解码器(Decoder),帮助读者快速理解其设计思路与工作原理。input_size:输入词汇表大小(如源语言有5000个不同单词)。:特征维度(如256),统一词嵌入和RNN的维度,确保数据流通畅。:目标词汇表大小(如目标语言有4345个不同单词)。

2025-08-31 22:45:15 1686

原创 AI、人工智能基础: 模型剪枝的概念与实践(PyTorch版)

文章摘要 本文介绍了基于PyTorch的模型剪枝技术,通过仿照生物神经网络的稀疏连接特性来压缩和加速深度神经网络。文章详细讲解了模型剪枝的核心概念,包括使用掩码机制实现参数筛选,以及剪枝后的参数变化。通过LeNet示例展示了单模块剪枝、多参数模块剪枝、全局剪枝和自定义剪枝等不同方法的具体实现,并对比了各种剪枝策略的特点和适用场景。PyTorch的torch.nn.utils.prune模块提供了灵活的剪枝工具,支持从局部到全局的多层次剪枝方案。

2025-08-27 16:54:15 3067

原创 (!万字血书!)文本预处理:NLP 版 “给数据洗澡” 指南

干货满满哦~

2025-08-24 22:19:17 858

原创 人工智能、AI基础:Pytorch的基本操作

本文介绍了PyTorch的基本操作,重点讲解了张量的创建、形状调整、索引切片和数学运算。PyTorch凭借动态计算图的灵活性、与Python生态的无缝衔接以及在NLP领域的优势,成为深度学习的重要工具。文章通过代码示例展示了如何创建张量、调整形状、进行数学运算等核心操作,帮助读者快速掌握PyTorch的基础知识。

2025-08-22 00:12:00 1115

原创 NLP 项目开发: 代码编写顺序(参考)

在真实NLP项目开发里,结合该项目架构,推荐按从底层到上层、从基础到业务的顺序编码,保障架构清晰与功能验证顺畅:先编写`utils.py`实现通用工具函数,构建`data`目录的数据加载逻辑;接着在`models/bert.py`定义BERT模型结构;再于`train_eval.py`写训练和评估逻辑,验证模型效果;之后用`run.py/run1.py`封装训练入口、`predict.py`实现推理;最后通过`app.py/demo.py`完成部署或演示,小步迭代,每步验证,减少返工,推动模型从开发到落地。

2025-08-21 10:40:52 1069

原创 从面试官角度看简历合理性(每一位求职者必看!)

从面试官角度看简历合理性, 每一位求职者必看!

2025-08-19 22:38:13 1183

原创 Pycharm快捷键大全

【代码】Pycharm快捷键大全。

2025-08-19 22:04:58 983

原创 Pyhton基础知识总结: 5天速通! 资料已打包, 欢迎自取~

5天! 5天速通python基础! (内含资料包下载)

2025-08-18 23:41:18 964

原创 (!万字血书!)文本预处理:NLP 版 “给数据洗澡” 指南

伊索寓言里,农夫没理顺葡萄藤就猛浇水,藤蔓缠成一团,果子又小又涩。​这像极了做自然语言处理 —— 有开发者直接把爬来的文本喂给模型,结果 “差点没赢” 被认成输,“好得不得了” 成了三个无关词。​原始文本就像乱麻般的葡萄藤:乱码是野草,重复语气词是多余卷须,近义词异写是缠绕枝蔓。不先梳理干净,再聪明的模型也结不出 “准果子”。​本文跟着寓言思路,拆解预处理全流程:​剪除 “野草”(清乱码)​剪掉 “卷须”(去冗余)​理顺 “枝蔓”(统一表述)​。

2025-08-17 00:07:10 2607 1

原创 Python基础知识总结: 7天速通python基础

本文是一篇Python基础入门教程,适合零基础或想系统学习Python的学习者。教程从Python的优势(语法简洁、跨平台、应用广泛)入手,详细介绍了环境搭建、基础语法等内容。重点讲解了第一个Python程序"Hello, World!"的编写与运行,变量定义与命名规则,以及整数、浮点数、字符串、布尔值等常用数据类型及其操作。通过代码示例和错误分析,帮助读者掌握基础语法知识,为后续学习打下坚实基础。教程还提供了配套软件包下载链接,包含开发工具和学习辅助软件,让学习过程更加高效顺畅。

2025-08-16 00:56:29 1205 4

原创 NLP自然语言处理: FastText工具与迁移学习基础详解

最优二叉树:使所有叶子节点的带权路径长度之和(WPL)最小的二叉树带权路径长度(WPL)计算公式:WPL = Σ(叶子节点权值 × 根节点到该节点的路径长度)FastText是迁移学习中的重要工具,兼具词向量训练与文本分类功能层次Softmax通过哈夫曼树将多分类转化为二分类序列,大幅提升计算效率哈夫曼树的带权路径长度最小特性是实现高效计算的核心保障掌握FastText的基线模型用法,可快速开展文本分类项目的初期验证。

2025-08-13 18:33:27 1241

原创 Transformer模型实现与测试梳理

本文梳理了Transformer模型的实现过程,主要包含解码器层、解码器、输出层和模型组装四个核心组件。解码器层通过自注意力、交叉注意力和前馈网络处理输入,解码器堆叠多个解码器层逐步优化输出。输出层将解码结果转换为目标词表概率分布。模型组装整合编码器、解码器、嵌入层和输出层,形成完整Transformer架构。关键点包括:掩码机制处理未来信息和padding、严格的维度一致性要求、模块化设计提高复用性。整个流程遵循"文本→嵌入→编码→解码→预测"的顺序执行,确保注意力机制有效捕捉序列依赖

2025-08-13 15:35:33 1163

原创 AI、人工智能基础:流行的Transformer 有多牛?横扫 NLP 界的 “流量明星” 架构解密

2018 年凭借 BERT 一战成名的 Transformer,凭啥干掉 LSTM 成为 NLP 顶流?本文带你扒一扒这个能并行训练、长文本理解超给力的模型架构,从诞生背景到编码器、解码器的 “五脏六腑” 全解析,看它如何撑起机器翻译、文本生成等 NLP 半壁江山。

2025-08-10 23:43:54 1034 1

原创 (!!血书两万字!!)带你做RNN案例--人名分类器(附完整代码, 手残党狂喜!)

【摘要】本文介绍了一个基于PyTorch的RNN人名分类器案例,通过实现传统RNN、LSTM和GRU三种模型,完成从输入人名预测国籍的任务。案例包含五个步骤:数据预处理(包括字符one-hot编码)、模型构建(RNN/LSTM/GRU实现)、训练函数设计、模型训练及结果分析(通过损失曲线、耗时和准确率对比),最后实现预测功能。实验表明,RNN收敛最快但最终效果较差,GRU综合表现最佳,LSTM耗时最长但效果居中。案例完整展示了文本分类任务的实现流程,为序列模型实践提供了典型范例。

2025-08-10 17:08:35 1384 4

原创 (!呕心沥血!)PyTorch实战基础:Encoder-Decoder(编码器-解码器)模型核心逻辑与实现详解

本文详细解析了基于RNN的Encoder-Decoder模型核心逻辑与实现。Encoder将输入序列压缩为固定维度的隐藏状态(如"我爱中国"→语义向量),Decoder则基于该状态逐步生成目标序列(如"I love China")。文章通过参数定义、网络层设计、前向传播流程的拆解,配合完整代码实现,展示了编码器如何通过词嵌入和GRU处理序列,解码器如何结合历史信息预测下一个单词。该架构适用于机器翻译等序列生成任务,关键点在于保持编码器和解码器的hidden_size一致以确保语义传递的连贯性。

2025-08-09 22:25:24 1004 1

原创 (!万字血书!)文本预处理:NLP 版 “给数据洗澡” 指南

我们依旧用伊索寓言中 “群鸟储食” 的故事来类比:​深秋时节,一群麻雀为过冬储存麦粒。它们约定按 “时间顺序” 接力搬运 ——​第一只麻雀(t=1)发现麦田,叼回麦粒时,在巢穴留下**“发现麦粒的位置 + 数量” 的便签 **即 h₁,隐藏状态​第二只麻雀(t=2)飞来时,先看前一只的便签(h₁,历史记忆),再结合自己新找到的麦粒(x₂,当前输入),更新便签为 “两处麦粒的总储量 + 最优路线”(h₂,新隐藏状态​。

2025-08-09 21:07:40 932 1

原创 torch.tensor () 基础操作:维度、形状及判断方法

本文系统梳理了PyTorch张量的维度与形状概念。维度指张量的嵌套层级,可通过ndim属性或括号嵌套层数判断;形状是描述各维度元素数量的元组,通过shape属性获取。关键规律:括号嵌套层数=维度数=形状元组长度。文章通过1维、2维和3维张量实例,演示了如何判断维度与形状,并解释了在深度学习中的典型应用场景(如batch_size、seq_len等)。掌握这些基础知识对理解模型输入输出结构至关重要。

2025-08-09 16:08:10 800 1

原创 深入 RNN(GRU)模型:输入输出维度变化全解析

本文深入解析了基于GRU的RNN模型中输入输出维度变化过程。首先介绍了编码器结构,包含词嵌入层和GRU层输入数据初始形态为(batch_size, seq_len),经过词嵌入层后变为(batch_size, seq_len, hidden_size)。GRU层处理时,输出output保持相同维度,而hidden状态的维度为(1, batch_size, hidden_size)。文章通过表格清晰对比各环节维度变化,帮助读者理解数据在模型中的流转过程,避免维度不匹配错误。最后作者邀请读者关注AI系列文章,

2025-08-09 13:54:09 961

原创 AI、人工智能基础:构造自定义数据集教程(简单明了,看了包会!)

`MyDataset`这货,堪称PyTorch的“文本翻译机”——专把人类话儿转成模型能啃的张量。出身自带光环:继承`Dataset`名门,会三招绝活:- `__init__`:先把文本对(比如英→法)打包存好,数清楚有多少份;- `__len__`:报个数,让`DataLoader`知道得跑几趟;- `__getitem__`:核心操作!给单词发“数字身份证”(用词表转索引),贴个“结束贴”(EOS),最后搓成模型爱吃的“张量丸子”。有了它,文本秒变模型口粮,还支持批量打包、随机发货——se

2025-08-09 01:33:49 489 1

原创 (!万字血书!)人工智能、AI基础:注意力机制---> 用“查词典”理解AI的“聚焦能力”

把注意力机制比作“查词典”,绝了!步骤超简单:先给词典贴标签(Key/Value),再明确查啥(Query),接着算相关度,最后按权重抓重点。为啥比传统模型牛?就像人翻译时会盯着关键句,它也能“抓大放小”,翻译更准。说白了,这机制就是让AI学会“有重点地看”——够直接,够形象吧?

2025-08-08 00:45:19 655 1

原创 人工智能、AI基础:Pytorch的基本操作

想玩转深度学习和NLP?PyTorch这把"钥匙"得先摸透!本文手把手教你拿捏张量的"诞生秘籍"(列表/NumPy变身术)、"变形魔法"(reshape/unsqueeze玩转动不动),还有索引切片、矩阵乘法这些"必杀技"。别看基础,学好这些才能解锁RNN、LSTM等NLP大招哦~

2025-08-07 16:16:49 1394 1

原创 比 RNN 更能打?LSTM 和 GRU 的门控魔法与维度套路(附完整可运行代码,包会的)

各位观众老爷,想搞定PyTorch里的LSTM和GRU吗?这篇文章手把手教你玩转这俩循环神经网络的API,维度密码轻松拿捏!LSTM靠着输入门、遗忘门、输出门这仨“门卫”,能把长序列里的重要信息牢牢记住,写小说、预测股票都好用;GRU是它的简化版,就俩门控,干活快还省力气,短文本分类、实时语音识别都拿手。关键是维度得对齐!LSTM要俩初始状态h0和c0,GRU有h0就行,输入输出的维度规则跟RNN类似,还能通过batch_first参数调整顺序,序列长度不一样也有办法处理。代码示例给得明明白白,输出

2025-08-07 09:47:27 1094

原创 !!简单实用: 循环神经网络-RNN模型API使用!!(附完整可运行代码,手残党狂喜!包会的,兄弟!)

还在为 RNN 的输入输出维度头秃?输入是 (seq_len, batch) 还是 (batch, seq_len)?h0 的形状总搞错?别慌!这篇文把nn.RNN 扒得明明白白 —— 从 3 个核心参数到 h0、输入数据、输出结果的维度公式,全用代码实例砸给你。不管是序列长度变了咋处理,还是 batch_first=True 该咋用,看完就能跑通代码。毕竟,搞定维度 = 学会 RNN 的 80%,小白也能光速入门~(附完整可运行代码,手残党狂喜!)

2025-08-06 21:02:13 1136 1

原创 RNN模型: 从原理到拿下面试超绝加分!

我们依旧用伊索寓言中 “群鸟储食” 的故事来类比:​深秋时节,一群麻雀为过冬储存麦粒。它们约定按 “时间顺序” 接力搬运 ——​第一只麻雀(t=1)发现麦田,叼回麦粒时,在巢穴留下**“发现麦粒的位置 + 数量” 的便签 **即 h₁,隐藏状态​第二只麻雀(t=2)飞来时,先看前一只的便签(h₁,历史记忆),再结合自己新找到的麦粒(x₂,当前输入),更新便签为 “两处麦粒的总储量 + 最优路线”(h₂,新隐藏状态​。

2025-08-05 14:18:34 629

原创 (!万字血书!)文本预处理:NLP 版 “给数据洗澡” 指南

文本预处理是NLP任务的关键基础,本文系统介绍了从基础到实践的完整流程。首先通过分词、词性标注等基础方法分解文本结构,然后探讨了One-Hot、Word2Vec等文本向量化方法。数据分析环节重点讲解了标签分布、句子长度和词频统计的实用技巧。最后介绍了N-Gram特征提取、数据增强等高级处理方法,帮助提升模型性能。文章采用代码示例+理论解析的方式,为NLP开发者提供了一套实用的文本预处理指南。

2025-08-03 04:59:19 2914 6

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除