
深度学习入门
文章平均质量分 77
学习深度学习的入门知识,并通过学习一些经典的深度学习的项目来达到到对深度学习充分理解的效果。
Noval Tone
这个作者很懒,什么都没留下…
展开
-
使用bert模型用于文字处理
函数实现了深度学习模型的训练和验证过程,包括:每个 epoch 的训练、验证过程,记录损失和准确率,动态调整学习率,保存模型,最后绘制训练和验证损失及准确率的曲线图。这段代码整合了模型训练所需的各种步骤,包括设置随机种子、导入必要模块、定义超参数、初始化模型和优化器、加载数据以及调用训练函数进行训练。这段代码定义了一个自定义的 BERT 模型类,加载预训练模型和 tokenizer,构建了一个简单的文本分类模型,并实现了前向传播的逻辑。利用bert模型对数据进行训练,用验证集来判断模型训练的效果。原创 2025-01-28 11:52:16 · 461 阅读 · 0 评论 -
使用神经网络实现图片分类
*:这个函数用于设置随机数种子,确保实验的可重复性。它包括 PyTorch 和 NumPy 的随机种子设置,以及 Python 内部 hash 的种子设置。去验证30*11的验证集,即每类图片30张的准确率情况。根据已有的训练集去训练模型,再在验证集上验证模型的结果,用准确率来判断模型的好坏。:定义验证时的处理流程,仅包括转换为张量,因为验证数据不需要增强。将数据集封装成可迭代的加载器,设置批次大小为 16,并打乱数据。方法,定义输入数据如何通过网络传播,从输入到输出的过程。**:读取指定路径中的数据。原创 2025-01-18 14:20:13 · 1600 阅读 · 0 评论 -
卷积神经网络的实现
卷积的作用在于改变特征图的维度以及进行特征提取,使用卷积核来对原始的特征图进行筛选得到新的特征图,为了减少参数的量可以选择池化,即保留部分参数。如输入3*224*224,卷积核为11,padding=2,stride=4,卷积核的数量为64,问输出为多少?其特点是运用了更小的卷积核,并且加深了网络,达到了更好的效果,用更小的卷积核代替更大的卷积核。卷积+池化------>全连接------>拉直-------->计算交叉熵损失。归一化:防止数据受量的大小影响,找到相对的大小,更加关注数据的分布。原创 2025-01-15 15:54:32 · 1406 阅读 · 0 评论 -
一个简单的神经网络的项目实现过程
该项目为kaggle上的一个项目,项目的诉求在于根据已有的前两天的新冠阳性人数以及社会特征以及第三天的社会特征来预测第三天的新冠感染人数,即根据前93列的数据来预测第94列的数据。是一个典型的回归预测项目。训练包括训练集和验证集两个部分,epoch表示训练的轮数,通过验证集上的loss来判断模型的效果,用折线图呈现训练的过程中loss的变化,包括train_loss以及val_loss的变化。可见随着训练轮数的增加,loss的值越来越小,模型的效果越来越好,且在val_dataset上的效果也不错。原创 2025-01-11 12:56:54 · 1295 阅读 · 0 评论 -
深度学习--线性回归实战
先生成500条原始的数据,再设计一个模型,任意确定一个w_0以及b_0,再设计一个损失函数loss,通过反向传播和梯度下降来对模型进行训练。这里通过create_data这个生成函数来得到X,Y的散点图,这里取X的第二列来进行画图。3.将生成的数据分组来计算损失的值,创建函数data_provider来定义分组的方式。该项目旨在探究恋爱次数与(颜值,身高,财富,内涵)之间的关系,探究其各自的线性关系。这里的w_0,b_0是随机生成的,学习率的大小可以根据训练的结果进行调整。1.引入python包。原创 2025-01-07 23:59:58 · 236 阅读 · 0 评论