Python深度学习
文章平均质量分 88
Gavin_Huangw
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
NLP基础05
本文摘要:文章介绍了RNN模型的搭建与测试过程,内容包括LSTM和GRU的回顾、模型构建代码实现、数据预处理及数据集构建。通过构建NameClassDataset类处理文本数据,使用RNN模型对国家名称进行分类。核心部分展示了RNN类的定义、前向传播过程以及隐藏状态初始化方法。最后通过测试函数验证了模型的结构和维度转换过程,为后续训练和评估奠定了基础。原创 2025-10-08 20:23:21 · 256 阅读 · 0 评论 -
深度学习基础D5-D6
本文摘要介绍了深度学习中的卷积神经网络(CNN)和循环神经网络(RNN)的关键概念与应用。CNN部分涵盖图像处理基础、网络结构(卷积层、池化层、全连接层)、PyTorch实现及图像分类案例(CIFAR10数据集)。RNN部分重点讲解处理序列数据的原理、流程、API实现(输入输出维度关系)以及歌词生成案例,展示了如何通过词嵌入和隐藏状态处理文本数据。整体强调了两类网络在特征提取(CNN)和序列建模(RNN)中的核心作用及实际实现方法。原创 2025-09-08 09:31:00 · 151 阅读 · 0 评论 -
深度学习笔记(润色)
多层感知机通过非线性激活函数打破了线性模型的局限,能有效处理复杂数据。激活函数将数据映射到高维空间,实现线性可分。多层结构(输入层、隐藏层、输出层)允许特征抽象。激活函数的选择影响训练效率和性能(如避免梯度消失)。原创 2025-08-05 16:23:05 · 891 阅读 · 0 评论 -
深度学习基础D1-D2
深度学习是从人工智能和机器学习发展而来的技术分支,它通过构建神经网络自动学习特征,省去了传统机器学习中人工特征工程的步骤。深度学习经历了三次发展浪潮,从早期的国际象棋程序到2012年AlexNet的突破,再到2022年ChatGPT的问世。神经网络由输入层、隐藏层和输出层组成,通过激活函数引入非线性因素。常用的激活函数包括Sigmoid和Tanh:Sigmoid将输入映射到(0,1)区间,适合作为概率输出,但存在梯度消失问题;Tanh输出范围(-1,1),收敛速度更快,但仍存在梯度消失风险。目前深度学习主要原创 2025-08-14 23:45:10 · 261 阅读 · 0 评论 -
深度神经网络(简略笔记)
多层感知机通过非线性激活函数打破了线性模型的局限,能有效处理复杂数据。激活函数将数据映射到高维空间,实现线性可分。多层结构(输入层、隐藏层、输出层)允许特征抽象。激活函数的选择影响训练效率和性能(如避免梯度消失)。原创 2025-08-05 16:22:22 · 715 阅读 · 0 评论 -
01线性回归案例b
本文介绍了一个基于PyTorch的线性回归模型实现过程。首先使用make_regression生成包含噪声的线性数据集,包含100个样本点。然后通过TensorDataset和DataLoader将数据转换为PyTorch张量并进行批量处理。模型采用简单的线性层y=wx+b,使用均方误差作为损失函数和SGD优化器进行训练。训练过程包括前向传播、损失计算、反向传播和参数更新四个步骤。最后通过可视化损失曲线和对比真实直线与预测直线来评估模型效果。完整代码展示了从数据生成到模型训练的全流程,包括随机种子设置、设备原创 2025-08-28 15:06:08 · 517 阅读 · 0 评论 -
01线性回归的案例a
本文介绍了使用PyTorch实现线性回归的完整流程。首先通过sklearn.make_regression生成模拟数据,包括100个样本点,添加高斯噪声和偏置项。然后将数据转换为PyTorch张量,构建DataLoader实现分批训练。模型采用简单的线性层torch.nn.Linear,训练过程使用均方误差损失函数和SGD优化器,通过10个epoch的迭代更新参数。关键步骤包括:前向传播计算预测值、反向传播计算梯度、优化器更新参数,以及每个epoch的损失记录。原创 2025-08-27 18:40:18 · 459 阅读 · 0 评论
分享