深度学习
文章平均质量分 92
WeiJingYu.
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
S7.1YOLO
YOLO系列目标检测算法发展综述 本文系统梳理了YOLO系列目标检测算法的发展历程和技术演进。从YOLO v1将检测问题转化为回归问题的创新设计,到v2引入BatchNorm和Multi-Scale训练提升性能,再到v3采用多尺度特征融合和Logistic分类器改进小物体检测。YOLO v4通过数据增强、DropBlock正则化、损失函数优化(CIoU)和网络结构改进(CSPNet、注意力机制)等技术创新显著提升检测精度。最新YOLO v5则侧重工程实践优化。文章详细分析了各版本网络架构、损失函数设计特点,原创 2025-11-22 21:52:05 · 692 阅读 · 0 评论 -
S·6.1模型的部署
模型部署是将训练好的机器学习模型投入实际应用的过程,主要包括导出模型、部署到生产环境、测试验证和持续监控等步骤。常见的部署方式包括云端API服务、嵌入式设备、边缘计算、移动端以及FPGA/GPU硬件加速等,需根据场景需求选择合适方案。此外,文章对比了Python三大Web框架Django(功能全面但复杂)、Pyramid(灵活高性能但社区小)和Flask(轻量易用但功能有限)的特点,为开发者提供技术选型参考。原创 2025-11-21 23:18:52 · 767 阅读 · 0 评论 -
S 3.5深度学习--卷积神经网络--代码
本文介绍了使用迁移学习实现食物分类的代码实现。通过加载预训练的ResNet18模型,冻结底层参数并替换全连接层,构建了一个新的分类模型。然后定义了数据预处理流程、数据集类和数据加载器,并设置了训练和测试过程。代码展示了如何利用迁移学习技术,通过微调预训练模型来适应新任务,显著减少训练时间和计算资源需求。最后进行模型训练和测试,记录准确率和损失值来评估模型性能。原创 2025-09-07 20:58:26 · 418 阅读 · 0 评论 -
S 4.1深度学习--自然语言处理NLP--理论
本文介绍了统计语言模型和神经语言模型的区别与联系。统计语言模型存在维度灾难和忽略词间联系的缺陷,而神经语言模型通过词嵌入技术将高维词表示压缩为低维向量(如300维),有效解决了这些问题。重点讲解了Word2Vec的两种模型:CBOW(通过上下文预测当前词)和Skip-Gram(通过当前词预测上下文),并提供了CBOW模型的PyTorch实现代码,包括数据预处理、模型构建、训练过程和词向量保存方法。通过神经网络训练得到的词向量能够捕捉词语间的语义关系,为自然语言处理任务提供更有效的特征表示。原创 2025-09-07 20:54:21 · 1272 阅读 · 0 评论 -
S 3.4深度学习--卷积神经网络--代码
本文介绍了深度学习中三种关键技术:学习率调整、迁移学习和ResNet网络。1. 学习率调整部分详细讲解了PyTorch提供的多种学习率调整策略,包括有序调整(StepLR、MultiStepLR等)、自适应调整(ReduceLROnPlateau)和自定义调整(LambdaLR),并提供了代码实现示例。2. 迁移学习部分阐述了其概念和步骤,包括预训练模型选择、参数冻结、新层训练和微调等过程。3. ResNet网络部分解释了其残差结构设计原理,解决了深层网络中的梯度消失和退化问题,给出了网络实现代码。全文通过原创 2025-09-04 23:29:43 · 896 阅读 · 0 评论 -
S 3.3深度学习--卷积神经网络--代码
本文介绍了基于PyTorch的食品图像分类模型实现过程,主要包括三个部分:1) 数据预处理模块,通过自定义Dataset类实现图像路径读取和标签处理;2) 数据增强模块,使用transforms构建包含随机旋转、翻转、颜色变换等操作的预处理流程;3) 模型构建与训练模块,实现了一个包含三层卷积和全连接层的CNN网络,并定义了训练和测试函数。整体流程采用数据增强提升模型泛化能力,通过Adam优化器进行参数优化,最终在测试集上评估模型性能。代码结构清晰,详细注释了各模块功能,为图像分类任务提供了完整的实现方案。原创 2025-09-04 08:49:03 · 911 阅读 · 0 评论 -
S 3.2深度学习--卷积神经网络--代码
本文介绍了一个基于PyTorch的卷积神经网络(CNN)实现,用于MNIST手写数字分类任务。主要内容包括: 数据准备:使用torchvision加载MNIST数据集,包括60000个训练样本和10000个测试样本,每个样本为28×28的灰度图像,并进行批处理(64样本/批)。 模型架构:构建了一个3层CNN网络,包含卷积层、ReLU激活和池化操作,最后接全连接层输出10个类别。输入图像经过多次特征提取和尺寸缩减,最终展平后进行分类。 训练过程:使用交叉熵损失函数和Adam优化器(学习率0.0005),在1原创 2025-08-28 15:29:42 · 842 阅读 · 0 评论 -
S 3.1深度学习--卷积神经网络
卷积神经网络(CNN)通过卷积层、池化层和全连接层实现图像识别。卷积层使用滤波器提取特征,池化层降采样压缩数据,全连接层完成分类。典型CNN模型包括LeNet、AlexNet、VGGNet等。李飞飞创建的ImageNet数据集为CNN发展奠定基础。CNN模拟人眼视觉原理,具有平移不变性,能有效处理RGB图像,通过多个卷积核提取不同层次特征,最终实现图像分类。原创 2025-08-27 15:37:14 · 1036 阅读 · 0 评论 -
S 2.2深度学习--PyTorch代码框架
本文展示了使用PyTorch实现MNIST手写数字识别的完整流程。主要内容包括:1)数据准备,使用torchvision加载MNIST数据集并转换为张量;2)构建神经网络模型,包含两个隐藏层和ReLU激活函数;3)训练过程,采用交叉熵损失和SGD优化器进行参数更新;4)测试评估,计算准确率等指标。文章还讨论了改进方案,如使用Adam优化器替代SGD、分析不同激活函数特性等。代码实现了数据加载、模型定义、训练测试等核心功能模块,并提供了详细的注释说明各步骤原理。原创 2025-08-26 08:44:55 · 1055 阅读 · 0 评论 -
S 2.1深度学习--PyTorch原理框架
本文介绍了PyTorch深度学习框架的基本使用流程。首先对比了CPU和GPU的架构差异,重点讲解了GPU显存参数的意义。接着详细说明了PyTorch安装步骤,包括CUDA环境配置和版本选择。然后以MNIST手写数字识别为例,演示了数据集的下载、加载和可视化方法,解释了DataLoader的分批处理机制。最后介绍了神经网络模型的搭建过程,展示了一个包含输入层、隐藏层和输出层的全连接网络实现,并说明了前向传播流程和激活函数的使用。全文涵盖了PyTorch从环境配置到模型构建的完整实践流程,适合深度学习初学者参考原创 2025-08-24 18:12:36 · 1035 阅读 · 0 评论 -
S 1.1深度学习——理论
神经网络的本质:通过参数与激活函数来拟合特征与目标之间的真实函数关系。但在一个神经网络的程序中,不需要神经元和线,本质上是矩阵的运算,实现一个神经网络最需要的是线性代数库。深度学习 (DL, Deep Learning) 是机器学习 (ML, Machine Learning) 领域中一个新的研究方向。神经网络:是由大量的节点(或称 “神经元”)和之间相互的联接构成。每两个节点间的联接都代表一个对于通过该连接信号的加权值,称之为。每个节点代表一种特定的输出函数,称为。绿色的圈是隐含层,化简得到下面的式子。原创 2025-08-22 21:13:31 · 999 阅读 · 0 评论
分享