轻筠
一个SZTU的自动化本科毕业生、MUST的智能技术在读研究生,致力于人工智能领域。
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
PyTorch 张量初始化方法详解
本文详细介绍了PyTorch中张量的多种初始化方法。张量作为PyTorch的基本数据结构,可以通过列表转换、全零/全一填充、随机数生成等方式创建。重点讲解了从列表创建、特殊张量初始化(全零、全一、随机整数、均匀/正态分布随机数)以及NumPy数组转换等方法,并提供了相应的代码示例。文章还给出了实际应用建议,强调合理选择初始化方法对模型训练的重要性。这些基础操作是构建神经网络模型的关键步骤,为深度学习开发奠定基础。原创 2025-10-19 21:44:42 · 115 阅读 · 0 评论 -
在PyTorch中实现自定义损失函数
本文介绍了在PyTorch中实现自定义损失函数的方法。主要内容包括:为什么要自定义损失函数(处理特殊数据、加入领域知识等),如何准备数据并构建简单的神经网络模型,以及实现自定义均方误差损失函数的详细步骤。文章还演示了验证自定义损失函数正确性的方法,比较了其与内置损失函数的差异,并提供了加权损失、正则化损失等进阶应用示例。最后,介绍了在训练循环中使用自定义损失函数的方法和调试技巧,为特定任务定制损失函数提供了实用指导。原创 2025-10-19 21:40:19 · 79 阅读 · 0 评论 -
如何获取PyTorch中间层的值:两种实用方法详解
如何获取PyTorch中间层的值:两种实用方法详解原创 2025-10-19 21:33:46 · 119 阅读 · 0 评论 -
手把手教你用PyTorch搭建第一个神经网络
本文通过一个简单的PyTorch实例,详细演示了如何搭建和训练一个神经网络模型。作者使用两个数字相加的回归任务,从数据准备、模型构建、损失函数选择、优化器配置到训练过程,完整展示了神经网络的工作流程。文章特别强调了关键细节如梯度清零、自动求导和学习率设置等,并提供了测试新数据、实用技巧和常见问题解决方法。这个基础案例虽然简单,但涵盖了PyTorch的核心概念,适合初学者理解神经网络的基本原理和实现过程。作者建议从这样的小例子入手打好基础,再逐步过渡到更复杂的模型。原创 2025-10-19 21:25:50 · 328 阅读 · 0 评论 -
PyTorch自动梯度实战:让张量自己学会求导
本文介绍了PyTorch的自动梯度计算功能,通过实际案例演示了如何利用autograd实现自动求导。文章首先从一个简单的张量平方和求导开始,逐步深入到神经网络中的梯度计算,详细解释了前向传播、反向传播和参数更新的全过程。同时分享了自动微分的工作原理和实际开发中的注意事项,包括梯度累积问题、梯度检查技巧以及个人经验总结。PyTorch的自动梯度功能大大简化了深度学习中的求导过程,显著提升了开发效率。原创 2025-10-19 21:13:41 · 218 阅读 · 0 评论 -
学习率如何影响模型训练:一次梯度下降的探索之旅
本文通过实验探索了学习率对线性回归模型训练的影响。作者使用简单的线性数据,比较了0.01、0.1和1三种不同学习率下的训练表现:小学习率(0.01)稳定收敛但速度慢,中等学习率(0.1)在速度与稳定性间取得平衡,大学习率(1)导致震荡但趋势正确。实验揭示了学习率与损失函数曲率的关系,并提出了实用建议:从0.01-0.1开始,监控训练曲线,考虑使用学习率预热或自适应优化器。作者还分享了学习率范围测试方法,强调学习率是平衡收敛速度与稳定性的关键因素。原创 2025-10-18 20:44:50 · 555 阅读 · 0 评论 -
梯度下降算法:深度学习优化的核心引擎
梯度下降算法:深度学习优化的核心引擎 梯度下降是深度学习中最基础的优化算法,通过计算损失函数的梯度方向来迭代更新模型参数。本文从基本原理出发,详细解析了梯度下降的数学本质和实现细节。原创 2025-10-17 15:31:50 · 706 阅读 · 0 评论 -
前向传播算法:神经网络信息传递的核心机制
前向传播是神经网络的核心信息处理机制,通过分层线性变换和非线性激活实现数据的高维映射。本文介绍了其数学本质(复合函数)、Python实现步骤(输入变换、sigmoid激活、输出预测和损失计算),以及权重矩阵的维度关系。通过具体实例演示了计算过程,并阐述了前向传播在模型表达能力、计算图构建和实际推理中的关键作用。理解前向传播是掌握深度学习的基础,它搭建了从输入到输出的信息桥梁,为后续的反向传播和参数优化奠定基础。原创 2025-10-17 15:25:02 · 589 阅读 · 0 评论 -
链式法则在神经网络中的应用:原理与实现详解
本文深入解析了链式法则在神经网络中的关键应用。通过数学推导和代码实现,展示了链式法则如何系统地将复杂网络梯度分解为简单导数乘积。文章详细介绍了数值微分和链式法则两种梯度计算方法,并对比验证其一致性。核心内容包括:前向传播计算、各层权重梯度计算(输入层到隐藏层、隐藏层到输出层)、偏置项梯度计算等关键环节,通过具体公式和Python代码示例,帮助读者直观理解链式法则在反向传播中的重要作用。原创 2025-10-16 17:12:33 · 221 阅读 · 0 评论 -
深入理解反向传播算法:从理论到实践
本文深入解析了神经网络中的核心算法——反向传播,从基本原理到实践实现。通过梯度计算和链式法则,反向传播将输出误差逐层分解,调整网络权重。文章提供完整的Python实现示例,包括前向传播、权重更新和训练监控,并探讨了梯度消失、局部最优等实际挑战及优化策略。理解这一算法对深度学习模型调试和优化至关重要,是现代神经网络训练的基础。原创 2025-10-16 17:05:08 · 278 阅读 · 0 评论 -
DeepID人脸识别原理
这篇文章提出使用深度学习去学习到一个高级的特征表达集合DeepID用于人脸验证。DeepID特征是从深度卷积神经网络的最后一个隐含层神经元激励提取到的。并且这些特征是从人脸的不同区域中提取的,用来形成一个互补的过完备的人脸特征表达。原创 2022-11-13 09:13:51 · 1044 阅读 · 0 评论 -
基于facenet的人脸匹配
基于facenet的人脸匹配原创 2022-11-11 21:26:57 · 765 阅读 · 2 评论 -
使用 Keras 在 Python 中使用 LSTM 递归神经网络进行时间序列预测
使用 Keras 在 Python 中使用 LSTM 递归神经网络进行时间序列预测原创 2022-08-04 15:34:47 · 3348 阅读 · 1 评论
分享