code8
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
27、深度学习模型训练与逻辑回归从零实现
本文介绍了深度学习模型的训练过程与逻辑回归的从零实现。首先构建了一个三层神经网络,探讨了激活函数选择、小批量训练振荡及数据噪声对训练的影响,并使用TensorFlow实现了模型训练。随后,利用numpy从头实现了逻辑回归模型,详细解析了其数学原理与代码实现。最后,通过MNIST数据集中数字1和2的二分类任务,完成了数据准备、模型训练与测试,展示了完整的机器学习流程。文章旨在加深对模型内部机制的理解,并对比框架与手动实现的差异。原创 2025-11-08 06:17:12 · 26 阅读 · 0 评论 -
26、基于神经网络的氧气浓度预测:数学模型与数据集构建
本文介绍了基于神经网络的氧气浓度预测方法,涵盖数学模型建立、回归问题示例、数据集准备、模型训练与评估全过程。通过分析相位与氧气浓度的关系模型,利用Python和TensorFlow构建并训练神经网络,探讨了数据分布、过拟合及模型优化策略,展示了从实验数据处理到模型部署的关键步骤,为科研中的传感器应用提供了可行方案。原创 2025-11-07 10:20:52 · 15 阅读 · 0 评论 -
25、卷积、循环神经网络与氧浓度测量研究
本文介绍了卷积神经网络(CNN)和循环神经网络(RNN)的基本原理及其在不同任务中的应用,包括图像分类、序列建模与计数任务。通过具体代码示例展示了RNN在处理顺序数据上的优势,并对比了其与传统全连接网络的差异。随后,文章转向一个实际研究项目:利用深度学习从发光猝灭现象中提取氧气浓度。该方法基于相移测量,结合温度、调制频率等变量,使用神经网络直接从数据中学习复杂非线性关系,避免构建理论模型。整个流程涵盖数据准备、模型构建、训练与实际应用,展示了深度学习在传感领域中的强大潜力。原创 2025-11-06 13:02:47 · 14 阅读 · 0 评论 -
24、卷积神经网络(CNN)详解:从基础操作到网络构建
本文详细介绍了卷积神经网络(CNN)的核心操作与网络构建方法,涵盖池化、填充等基础概念,并深入解析卷积层、池化层和全连接层的结构与作用。通过一个基于Zalando数据集的完整CNN示例,展示了从数据预处理到模型训练的全过程,并提供代码实现与关键点解读。文章还总结了CNN在图像分类、目标检测和语义分割等领域的优势与应用场景,帮助读者系统掌握CNN原理与实践方法。原创 2025-11-05 16:00:18 · 17 阅读 · 0 评论 -
23、深度学习中的超参数调优与卷积神经网络基础
本文深入探讨了深度学习中的超参数调优策略与卷积神经网络(CNN)的基础知识。在超参数调优部分,强调结合经验避免无效尝试,并分析了径向基函数中参数l的影响。在CNN部分,详细介绍了卷积核、卷积操作原理、步长概念及Python实现方法,通过边缘检测示例展示了不同滤波器的作用。文章还提供了应用建议和整体流程,帮助读者系统理解并实践深度学习中的关键技术。原创 2025-11-04 13:52:38 · 13 阅读 · 0 评论 -
22、超参数调优:方法、示例与实践
本文深入探讨了超参数调优中的关键方法与实践技巧,涵盖上置信界(UCB)获取函数的两种变体及其适用场景,通过复杂三角函数优化示例展示代理模型的构建与更新过程。针对传统采样方法在大范围参数搜索中的不足,提出对数尺度采样的解决方案,并以Zalando时尚数据集为例,对比单层网络的网格搜索与四层网络的随机搜索效果,验证了高效调优策略在提升模型准确率和训练速度上的优势。文章还系统总结了超参数调优流程、不同方法的优劣及实际应用中的注意事项,为机器学习模型优化提供了全面的指导。原创 2025-11-03 12:44:02 · 16 阅读 · 0 评论 -
21、超参数调优方法详解
本文详细介绍了超参数调优中的三种主要方法:随机搜索、粗到细优化和贝叶斯优化。对比了各类方法的优缺点及适用场景,结合数学原理与Python代码示例,深入解析了贝叶斯优化中的高斯过程、核函数与采集函数机制。并通过神经网络超参数优化的案例展示了各方法的实际应用,最后展望了自动化调优、元学习与分布式优化等未来发展趋势,为机器学习模型性能提升提供全面指导。原创 2025-11-02 12:29:42 · 17 阅读 · 0 评论 -
20、超参数调优:黑盒优化方法解析
本文深入解析了超参数调优中的黑盒优化方法,介绍了黑盒优化的基本概念及其在机器学习、资源勘探等领域的应用。重点对比了网格搜索、随机搜索和贝叶斯优化三种典型方法,分析了它们的适用场景与优缺点。针对深度学习中常见的昂贵黑盒函数,强调贝叶斯优化的高效性,并提供了超参数调优的完整流程建议,帮助读者在有限计算资源下更智能地寻找最优超参数组合。原创 2025-11-01 12:43:01 · 15 阅读 · 0 评论 -
19、机器学习中的数据处理与评估技巧
本文深入探讨了机器学习中的关键数据处理与模型评估技术。重点介绍了如何通过手动误差分析和调整训练集分布来解决数据不匹配问题,并详细实现了k折交叉验证方法,以提升小数据集下的模型评估可靠性。通过简化MNIST数据集上的单神经元逻辑回归实验,展示了交叉验证的全过程及结果分析,揭示了模型在训练集与开发集上的性能差异。同时,结合手动指标分析,帮助理解模型的学习机制与特征识别逻辑。文章还介绍了使用sklearn等工具简化实现的方法,并提供了关于模型泛化能力和准确率分布的深入洞察,为机器学习实践者提供了实用的技术指导和优原创 2025-10-31 11:39:02 · 14 阅读 · 0 评论 -
18、机器学习中的数据集问题及应对策略
本文探讨了机器学习中常见的两类数据集问题:不平衡类分布和不同分布数据集,并提供了相应的应对策略。针对不平衡类分布,介绍了更改评估指标、欠采样、过采样等方法;对于数据分布差异问题,通过MNIST示例展示了模型泛化能力的局限性,并提出使用扩展MAD图检测分布不匹配。文章强调在实际应用中应合理选择评估指标和调整模型策略,以提升性能与泛化能力。原创 2025-10-30 16:22:13 · 20 阅读 · 0 评论 -
17、机器学习模型评估与优化:从指标分析到数据集划分
本文深入探讨了机器学习模型的评估与优化方法,涵盖人类水平性能(ϵhlp)作为贝叶斯误差代理的概念,并通过ImageNet和MNIST实例说明其实际意义。文章详细介绍了偏差与过拟合的检测与处理策略,提出了基于训练集、开发集和测试集的误差分析框架,并定义了关键指标ΔϵBias、Δϵoverfitting train和Δϵoverfitting dev。同时强调了合理划分数据集的重要性,确保分布一致性以避免数据泄露。结合MAD图与mermaid流程图,系统展示了从数据划分到模型优化的完整流程,为提升模型泛化能力提原创 2025-10-29 10:14:04 · 13 阅读 · 0 评论 -
16、深度学习中的正则化、评估指标与应对过拟合策略
本文深入探讨了深度学习中应对过拟合的多种策略,包括L2正则化、Dropout和早停法,并通过理论推导与实验验证说明其有效性。文章指出权重在L2正则化下呈指数衰减趋近于零,Dropout通过随机丢弃节点提升泛化能力,而早停法虽有效但存在局限。此外,强调了指标分析在识别数据问题和模型性能瓶颈中的关键作用,并引入人类水平性能与贝叶斯误差的概念来指导模型优化方向。最后,结合实际案例展示了从数据划分、模型训练到误差分析的完整流程,提出应综合运用正则化、数据增强和多维度评估来提升模型泛化能力。原创 2025-10-28 16:43:28 · 13 阅读 · 0 评论 -
15、深度学习中的正则化方法:ℓ1与ℓ2正则化解析
本文深入解析了深度学习中的两种重要正则化方法——ℓ1与ℓ2正则化。文章首先介绍了网络复杂度的直观概念,随后详细阐述了ℓp范数、ℓ2和ℓ1正则化的数学原理及其在防止过拟合中的作用。通过TensorFlow实现示例和实验结果分析,展示了正则化对权重分布和模型复杂度的影响,并对比了两种方法在稀疏性、计算复杂度等方面的异同。最后提供了基于数据特征和模型需求选择正则化方法的实用建议,帮助提升模型泛化性能。原创 2025-10-27 13:46:16 · 20 阅读 · 0 评论 -
14、自定义优化器示例与正则化方法详解
本文详细介绍了如何在TensorFlow中自定义优化器,并深入探讨了深度学习中的常见正则化方法,包括ℓ1、ℓ2正则化、Dropout和早停法。通过MNIST和波士顿房价两个数据集的实例,展示了模型构建、训练过程以及过拟合问题的分析与解决。文章还对比了不同正则化方法的原理、优缺点及其对模型泛化能力的影响,帮助读者选择合适的正则化策略以提升模型性能。原创 2025-10-26 11:06:55 · 14 阅读 · 0 评论 -
13、神经网络优化器全解析:从原理到实战应用
本文深入解析了神经网络中常用的优化器,包括Momentum、RMSProp和Adam,从原理出发详细介绍了它们的更新机制与优势。文章对比了不同优化器在多种数据集(如Zalando、MNIST、CIFAR-10)上的表现,并结合可视化路径分析其收敛特性。同时探讨了动态学习率衰减、初始学习率选择等关键策略,提供了针对不同数据规模、模型复杂度和泛化需求的优化器选择建议。结果显示,Adam通常具备较快的收敛速度,但在特定场景下仍需结合实际测试进行优选。原创 2025-10-25 16:21:06 · 24 阅读 · 0 评论 -
12、动态学习率衰减方法详解
本文详细介绍了神经网络训练中常用的动态学习率衰减方法,包括步长衰减、逆时间衰减、指数衰减和自然指数衰减,分析了各自的数学公式、超参数设置及对模型收敛的影响。文章还展示了这些方法在TensorFlow中的实现代码,并通过Zalando数据集的实验对比了不同策略的效果。最后提供了方法选择建议和优化策略,帮助读者根据数据集特点选择合适的学习率调整方案,提升模型训练效率与性能。原创 2025-10-24 10:26:06 · 15 阅读 · 0 评论 -
11、神经网络构建与训练全解析
本文深入解析了神经网络的构建与训练全过程,涵盖多层隐藏层的优势、不同网络架构的参数比较、合理选择网络结构的建议,以及训练过程中面临的挑战与应对策略。重点介绍了动态学习率衰减方法(如阶梯衰减)和主流优化器(如Adam、RMSProp、Momentum)的应用,并提供了训练过程中的监控与调整技巧,帮助读者高效构建性能优越的神经网络模型。原创 2025-10-23 11:06:06 · 19 阅读 · 0 评论 -
10、前馈神经网络中梯度下降变体及相关技术详解
本文详细介绍了前馈神经网络中常用的梯度下降变体,包括随机梯度下降(SGD)、小批量梯度下降和批量梯度下降的原理、优缺点及性能对比。同时探讨了权重初始化策略(如He初始化和Xavier初始化)、高效构建多层网络的方法,并分析了不同模型结构对训练效果的影响。文章还提供了代码示例与超参数调优建议,帮助读者在实际应用中提升模型的收敛速度与性能表现。原创 2025-10-22 13:07:03 · 14 阅读 · 0 评论 -
9、基于TensorFlow构建前馈神经网络及梯度下降算法解析
本文详细介绍了如何使用TensorFlow构建前馈神经网络,涵盖数据预处理、网络架构设计、标签独热编码、模型训练与评估等关键步骤。深入解析了批量梯度下降、随机梯度下降和小批量梯度下降三种优化算法的原理与实现,并比较其在收敛速度、内存使用和稳定性方面的差异。同时提供了学习率调整、正则化和激活函数选择等优化技巧,帮助提升模型性能。适合希望掌握神经网络构建与训练过程的读者参考。原创 2025-10-21 09:22:03 · 11 阅读 · 0 评论 -
8、深度学习中的概率分类、过拟合与数据集处理
本文深入探讨了深度学习中的关键概念,包括基于Softmax函数的概率分类机制、过拟合问题及其成因,并通过多项式拟合实例直观展示了不同模型复杂度对训练效果的影响。文章详细解释了偏差与方差的权衡,并介绍了如何通过划分训练集与开发集进行基本误差分析。以Zalando Fashion-MNIST数据集为例,展示了数据加载、预处理(如归一化)和模型优化流程,强调了合理选择模型复杂度和超参数调整的重要性。最后总结了在实际应用中提升模型泛化能力的实践建议,为深度学习项目提供了系统性的指导。原创 2025-10-20 10:54:13 · 14 阅读 · 0 评论 -
7、深度学习:从单神经元到前馈神经网络
本文深入探讨了从单神经元逻辑回归到前馈神经网络的深度学习核心概念。首先介绍了TensorFlow中实现单神经元逻辑回归的方法及常见问题(如nan损失值)的解决方案,随后系统讲解了前馈神经网络的结构、数学表达、激活函数与softmax多分类机制。文章进一步分析了网络训练中的挑战,包括学习速度、超参数调整和权重初始化问题,并提出了相应的应对策略。最后通过构建和训练一个实际的前馈神经网络模型,展示了数据准备、网络搭建、训练流程与模型评估的完整过程,为读者掌握深度学习基础提供了全面指导。原创 2025-10-19 12:09:56 · 14 阅读 · 0 评论 -
6、机器学习中的线性回归与逻辑回归实战
本文详细介绍了机器学习中线性回归与逻辑回归的实战应用。通过使用波士顿房价数据集进行线性回归建模,预测房屋中位数价格;并利用MNIST手写数字数据集构建逻辑回归模型,实现二分类任务。文章涵盖了数据预处理、特征归一化、模型构建、成本函数定义、优化器选择及模型评估等关键步骤,结合TensorFlow代码实现,帮助读者深入理解两种经典算法的原理与实际操作流程。同时对比了线性回归与逻辑回归在应用场景、激活函数、成本函数和评估指标上的差异,为初学者提供了清晰的学习路径。原创 2025-10-18 10:49:50 · 16 阅读 · 0 评论 -
5、深度学习中的激活函数、学习率与线性回归
本文深入探讨了深度学习中的关键要素,包括激活函数的选择(如ReLU、Leaky ReLU和Swish)、学习率对模型收敛的影响、梯度下降法的实现原理以及线性回归模型在TensorFlow中的构建与训练过程。通过具体代码示例和数学推导,展示了如何优化模型参数、评估模型性能,并强调了代码优化与超参数调优的重要性,帮助读者更好地理解和应用深度学习核心技术。原创 2025-10-17 10:31:47 · 11 阅读 · 0 评论 -
4、深入理解单个神经元:结构、计算与激活函数
本文深入探讨了单个神经元的结构与计算原理,涵盖输入输出机制、线性组合与激活函数的应用,并介绍了恒等函数、Sigmoid、Tanh和ReLU等常见激活函数的特点及适用场景。文章还强调了使用NumPy进行高效向量化计算的重要性,提供了单个神经元实现线性回归的完整Python示例,帮助读者理解神经网络的基本构建模块及其在实际问题中的应用。原创 2025-10-16 13:13:33 · 16 阅读 · 0 评论 -
3、TensorFlow 计算图与张量使用指南
本文详细介绍了 TensorFlow 中计算图与张量的核心概念及使用方法,涵盖 tf.constant、tf.Variable 和 tf.placeholder 三种张量类型的特性与应用场景,讲解了计算图的构建与评估流程、节点依赖关系处理、会话管理技巧以及性能优化建议。通过实例代码和流程图,帮助读者掌握 TensorFlow 基础架构,提升模型构建效率与代码可维护性。原创 2025-10-15 10:40:30 · 13 阅读 · 0 评论 -
2、深度学习环境搭建与TensorFlow基础入门
本文介绍了深度学习环境的搭建过程,包括Anaconda和Jupyter notebooks的安装与配置,TensorFlow的安装方法,并通过实例讲解了计算图的基本概念及其在TensorFlow中的构建与评估。同时,深入解析了单神经元神经网络的计算逻辑与图表示,帮助读者掌握深度学习的基础知识,为后续学习复杂模型打下坚实基础。原创 2025-10-14 15:56:51 · 17 阅读 · 0 评论 -
1、深度学习入门:从环境搭建到模型实战
本文系统介绍了深度学习的入门知识,涵盖从Python环境搭建到TensorFlow基础应用的全过程。内容包括虚拟环境配置、Jupyter Notebook使用、计算图与张量概念、会话管理技巧,并深入讲解了单神经元结构、激活函数、成本函数与梯度下降算法。通过线性回归和逻辑回归实例帮助理解模型训练流程,进一步拓展至前馈神经网络、多分类问题处理及过拟合防治策略,为读者打下坚实的深度学习理论与实践基础。原创 2025-10-13 13:29:29 · 11 阅读 · 0 评论
分享