- 博客(73)
- 收藏
- 关注
原创 使用EXCEL进行数据清洗
Excel数据处理实用技巧摘要:本文总结了12种Excel数据处理方法,包括:1)删除重复项和缺失值;2)文本分列与数字提取;3)空格处理与文本转换;4)批量替换与大小写转换;5)特殊字符处理与字符串连接;6)VLOOKUP查询函数应用;7)数据透视表统计分析。重点介绍了处理异常数据、格式转换、文本操作等实用技巧,如使用TRIM函数去空格、VALUE函数转换文本数字、CONCAT函数连接字符串等,并提供了VLOOKUP精确匹配和数据透视表统计的典型应用示例。这些方法能有效提升Excel数据处理效率。
2025-12-11 17:26:31
183
原创 第三章 线型神经网络
本文介绍了线性回归和softmax回归的基本原理与实现方法。线性回归部分包括模型构建、损失函数定义(均方误差)、优化算法(小批量随机梯度下降)及矢量化加速技巧。softmax回归则适用于分类问题,使用交叉熵损失函数,通过softmax运算输出概率分布。文章详细展示了两种模型从零实现和简洁实现的过程,包括数据加载、模型定义、参数初始化、训练循环等步骤,并使用Fashion-MNIST数据集进行图像分类实践。最后强调了深度学习框架在数值稳定性方面的重要作用,简化了模型实现过程。
2025-10-16 16:57:39
224
原创 第七章 完整的模型训练
本文介绍了使用PyTorch框架构建和训练卷积神经网络(CNN)模型的完整流程。主要内容包括:1) 构建一个三层的CNN模型(Myx类),包含卷积、池化和全连接层;2) 使用CIFAR10数据集进行训练和测试,包括数据加载、损失函数(交叉熵)和优化器(SGD)设置;3) 两种GPU训练方法(.cuda()和torch.device());4) 训练过程中的评估指标计算和模型保存;5) 训练完成后使用demo进行单张图片测试。整个过程涵盖了从模型构建、训练优化到实际应用测试的完整深度学习开发流程。
2025-10-14 15:43:32
250
原创 第六章 现有网络模型的使用、修改、保存和加载
本文介绍了PyTorch中VGG16模型的使用、修改及保存方法。主要内容包括:1)如何使用预训练权重加载VGG16模型;2)通过添加线性层或直接修改输出层来适配CIFAR10数据集(10分类);3)两种模型保存方式(完整模型结构和仅参数)及对应的加载方法。特别指出,仅保存参数的方式更节省空间,但加载时需要重新构建模型结构。这些操作为迁移学习中的模型调整提供了实用参考。
2025-10-14 14:49:06
415
原创 第五章 神经网络的优化
本文介绍了PyTorch中损失函数和优化器的使用方法。损失函数用于计算预测值与真实值之间的差距,文中演示了L1Loss和MSELoss两种损失函数的实现。优化器则用于调整神经网络参数以最小化损失值,示例展示了SGD和Adam优化器的应用。随后通过CIFAR-10数据集实例,详细说明了如何搭建包含卷积层、池化层和全连接层的完整CNN模型,并展示了使用Sequential简化模型构建的方法。最后给出了完整的训练流程,包括数据加载、损失计算、反向传播和参数优化,验证了模型的有效性。
2025-10-14 14:03:17
339
原创 第四章 神经网络的基本组件
本文介绍了PyTorch中神经网络的基本组件和实现方式。主要内容包括:1)nn.Module作为神经网络基类,需继承实现forward方法;2)卷积层(Conv2d)的原理和使用,包括参数设置和特征提取作用;3)池化层(MaxPool2d)的降维功能;4)非线性激活层(ReLU/Sigmoid)的作用;5)线性层(Linear)的全连接映射功能;6)其他层如归一化层、循环层等。通过具体代码示例展示了各层在图像处理中的应用,如CIFAR10数据集上的特征变换过程,并解释了各组件在神经网络中的作用机制。
2025-10-11 18:33:24
855
原创 第三章 transforms的使用
摘要:本文介绍了PyTorch中torchvision.transforms模块的主要功能和使用方法。该模块提供多种图像预处理工具,包括ToTensor(PIL/ndarray转tensor)、Normalize(标准化)、Resize(调整尺寸)、RandomCrop(随机裁剪)等。通过Compose类可以组合多个操作顺序执行,并演示了在CIFAR10数据集上的应用。文章还介绍了__call__魔术方法使对象可调用,以及使用TensorBoard可视化图像数据的方法。
2025-10-10 15:53:51
708
原创 第二章 tensorboard的使用
摘要:本文介绍了Tensorboard中SummaryWriter类的使用方法,主要包括add_scalar()和add_image()两个关键函数。add_scalar()用于绘制训练过程中的标量数据(如loss值),通过指定标签名、y值和x值生成坐标图。add_image()用于可视化图像数据,需将PIL图像转换为numpy数组格式。文章还提供了CIFAR10数据集的实际应用示例,展示了如何将批量图像数据写入Tensorboard日志。最后,通过终端命令tensorboard --dirlog=logs
2025-10-10 14:44:33
313
原创 第一章 数据集的构建和批处理
本文介绍了PyTorch中处理图片数据的常用方法。使用os.listdir读取目录下所有图片路径,PIL.Image处理单张图片。重点讲解了自定义Dataset类的实现方式,包括初始化路径、获取数据和标签、返回数据集长度等核心功能。通过继承Dataset类可以创建针对特定数据集的加载器。最后介绍了DataLoader的用法,它能将Dataset数据打包成batch,支持设置batch大小、随机打乱等参数。这些方法为神经网络训练提供了完整的数据加载流程,从单张图片处理到批量数据准备。
2025-10-10 14:30:43
389
原创 第二章 预备知识(微积分、自动微分、概率、查阅文档)
本文摘要了PyTorch中的关键数学概念和自动微分实现。主要内容包括:导数和梯度的数学定义(2.4节);自动微分原理及PyTorch实现,展示如何通过requires_grad、backward()和grad属性计算梯度(2.5节);概率论基础概念如联合概率和贝叶斯定理(2.6节);以及PyTorch文档查阅方法,包括dir()和help()函数的使用(2.7节)。文中通过代码示例演示了梯度计算流程,并强调了梯度清零(.grad.zero_())的重要性。这些内容为深度学习中的数学计算和PyTorch实践提
2025-10-10 12:06:38
312
原创 第二章 预备知识(线性代数)
本文介绍了PyTorch中张量的基本概念和操作:1)标量是单元素张量;2)向量是一维张量,可通过索引访问元素;3)矩阵是二维张量,支持转置等操作;4)张量是n维数组。还讲解了张量的基本运算性质,包括按元素运算、降维求和(可指定轴)、点积和矩阵乘法。最后介绍了范数计算,包括向量的L1、L2范数和矩阵的Frobenius范数。这些操作在保持或改变张量形状的同时,实现了各种线性代数运算。
2025-10-08 21:41:45
432
原创 第二章 预备知识(数据操作、数据预处理)
摘要:本文介绍了PyTorch中的张量数据类型操作及数据预处理方法。主要内容包括:1)张量的创建、形状操作和数学运算;2)使用广播机制进行元素运算;3)数据索引和类型转换;4)数据预处理中的缺失值处理(插值法和独热编码)以及数据格式转换。通过示例代码展示了如何将pandas数据转换为PyTorch张量,为深度学习任务准备数据。
2025-10-07 17:33:47
513
原创 第一章 引言
本文概述了机器学习的主要方法和特点。主要内容包括:离线学习与监督学习(回归、分类问题),无监督学习(聚类、主成分分析),以及强化学习的交互机制。重点介绍了深度学习的特点:层次化表示、端到端训练、自动特征提取,相比传统机器学习减少了特征工程的工作量。文章系统性地总结了各类机器学习方法的核心概念和应用场景,特别是深度学习在模型构建和特征处理方面的优势。
2025-10-07 11:36:31
279
原创 第八章 深度学习
本文概述了深度学习网络的特点与优化方法。网络特点包括使用3×3卷积核、ReLU激活函数、Dropout层、Adam优化器和He初始值。提高识别精度可采用集成学习、学习率衰减和数据扩充(如旋转、平移、裁剪等)。加深网络层能减少参数量、提高表现力并优化学习效率。介绍了VGG、GoogLeNet(Inception结构)和ResNet(含快捷结构)等经典网络架构。还探讨了深度学习加速技术(GPU、分布式学习等)及在多模态处理、RNN、无监督学习(DCGAN)和强化学习等领域的应用。
2025-10-02 20:50:42
844
原创 第七章 卷积神经网络(CNN)
本文介绍了卷积网络(CNN)的基本结构和工作原理。重点阐述了卷积层的运算机制,包括三维数据的卷积处理、批处理实现方式,以及使用im2col方法优化计算效率。同时说明了池化层的作用和实现方法。文章还对比了LeNet和AlexNet两种经典CNN架构的差异,指出AlexNet在激活函数、Dropout等技术上的创新。整体而言,文章系统性地介绍了CNN的核心组件及其实现细节,为理解现代卷积神经网络提供了基础认知。
2025-10-02 20:09:24
782
原创 第六章 与学习相关的技巧
本文介绍了神经网络训练中的关键概念和方法。主要包括:1)参数优化方法(SGD、Momentum、Adagrad、Adam)及其特点;2)权重初始值的重要性及选择原则(Xavier、He初始值);3)Batch Normalization的原理和优势;4)正则化技术(权值衰减、Dropout)在防止过拟合中的作用;5)超参数验证的必要性和优化步骤。文章分析了梯度消失现象的原因,并针对不同激活函数推荐了相应的权重初始化策略。
2025-10-02 17:47:47
708
原创 第五章 误差反向传播
反向传播通过计算图实现神经网络参数优化。正向传播计算输出值,反向传播利用链式法则计算各层导数。ReLU、Sigmoid等激活函数层和Affine层(矩阵乘积运算)在反向传播时需保存正向传播的输入值。Softmax-with-Loss层的误差反向传播结果恰好是预测值与标签值的差,交叉熵损失函数的设计使误差计算更高效。不同损失函数会得到不同的反向传播结果,如平方和误差配合恒等函数时也能产生简洁的误差项。反向传播机制有效支持了神经网络的训练过程。
2025-09-30 16:40:01
506
原创 第四章 神经网络的学习
本文摘要: 深度学习通过划分训练数据和测试数据评估模型泛化能力。损失函数(如均方误差和交叉熵误差)用于衡量模型性能,其梯度指示参数更新方向。学习率等超参数需人工设定。随机梯度下降法用于参数优化,需警惕过拟合现象。一个epoch表示完整遍历训练数据一次。神经网络的核心是以损失函数为指标,通过调整权重参数来提升模型在未见数据上的表现。
2025-09-30 13:08:32
402
原创 第三章 神经网络
本文介绍了神经网络的基本结构及其与感知机的差异,重点分析了激活函数的作用和类型。感知机使用阶跃函数,而神经网络采用平滑的sigmoid函数或ReLU函数作为激活函数,其中ReLU在输入大于0时直接输出,否则输出0。输出层激活函数的选择取决于问题类型:回归问题用恒等函数,分类问题用softmax函数(输出可解释为概率)。此外,批处理能提升计算效率。sigmoid多用于二分类,softmax适用于多标签分类任务。
2025-09-30 12:41:35
387
原创 第二章 感知机
感知机通过权重和偏置实现逻辑运算,其中与门、与非门和或门通过 conjuntos 不同参数实现。异或门则通过叠加多层感知机构建,展示了感知机的进行非线性处理的能力。参数调整影响神经元激活难,多层叠加理论上可模拟计算机操作。
2025-09-30 11:12:50
165
原创 第一章 Python入门
本文介绍了Python中Numpy和Matplotlib库的基本用法。Numpy部分主要讲解多维数组操作,包括广播功能(处理不同形状数组间的运算)和数组生成方法(如numpy.arrange)。Matplotlib部分则涵盖图像处理功能,包括使用plt.plot()绘制图表(可设置坐标轴、线型和标签等参数),plt.show()显示图像,以及通过imread()读取图像、imshow()显示图像等操作。这些功能为科学计算和数据可视化提供了基础支持。
2025-09-30 11:00:25
122
原创 C++ Primer Plus 编程练习题 第六章 分支语句和逻辑运算符
C++ Primer Plus 编程练习题 第六章 分支语句和逻辑运算符
2025-04-09 00:07:37
270
原创 Python 编程题 第八节:字符串变形、压缩字符串、三个数的最大乘积、判定字符是否唯一、IP地址转换
字符串变形、压缩字符串、三个数的最大乘积、判定字符是否唯一、IP地址转换
2025-03-10 23:28:49
250
原创 Python 编程题 第五节:落体反弹问题、求指定数列之和、求阶乘的和、年龄急转弯、判断回文数、判断星期几、矩阵主对角线元素之和
落体反弹问题、求指定数列之和、求阶乘的和、年龄急转弯、判断回文数、判断星期几、矩阵主对角线元素之和
2025-03-01 15:43:18
396
原创 Python 编程题 第二节:组合数字、乘法口诀表、水仙花数、反向输出四位数、判断三角形
组合数字、乘法口诀表、水仙花数、反向输出四位数、判断三角形
2025-02-26 21:32:46
275
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅