red88
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
100、深度神经网络量化与验证:多目标实现指南
本文详细介绍了深度神经网络的量化与验证过程,重点解析了`validate`函数的使用方法,并通过多个示例展示了如何在不同目标(如GPU、FPGA、CPU)下对神经网络进行量化和性能验证。文章涵盖量化流程、关键步骤、结果分析、常见问题解决方案以及未来发展趋势,为深度学习模型的高效部署提供了全面指导。原创 2025-09-06 06:10:17 · 63 阅读 · 0 评论 -
99、深度学习中的训练信息更新与网络剪枝技术
本文详细介绍了深度学习中三个关键函数:`updateInfo` 用于在自定义训练循环中更新训练信息并实时监控训练过程;`updatePrunables` 用于根据泰勒重要性得分移除卷积层中的低重要性滤波器,实现模型压缩;`updateScore` 用于计算和累积滤波器的重要性得分,为剪枝提供依据。文章通过示例、流程图和操作步骤帮助读者全面理解这些函数的使用方法、技术细节以及在模型优化中的应用。原创 2025-09-05 14:40:24 · 41 阅读 · 0 评论 -
98、深度学习中的参数解冻与模型推理
本文详细介绍了深度学习中的参数解冻与模型推理相关技术,重点讲解了`unfreezeParameters`函数、`TFLiteModel`对象和`updateInfo`函数的使用方法。通过具体的示例代码和实际应用案例,展示了如何使用这些工具进行模型微调、推理和实验管理。此外,还分析了常见问题及解决方案,帮助读者更好地应对实际应用中可能遇到的挑战。原创 2025-09-04 14:21:14 · 44 阅读 · 0 评论 -
97、转置卷积层:2D与3D详解
本文详细介绍了深度学习中的2D和3D转置卷积层,包括其定义、创建方法、属性设置、参数初始化、算法原理以及输入输出格式。对比了2D与3D转置卷积层在属性、应用场景和计算复杂度上的差异,并提供了使用示例和操作步骤,帮助读者更好地理解和应用转置卷积层进行特征图上采样。原创 2025-09-03 16:54:44 · 96 阅读 · 0 评论 -
96、深度学习中的转置卷积层:3D与1D的详细解析
本文详细解析了深度学习中的3D和1D转置卷积层,包括其语法、参数设置、算法原理、输入输出格式以及实际应用。通过示例代码和使用建议,帮助读者更好地理解和应用转置卷积层进行特征图上采样操作。同时结合图像超分辨率和时间序列预测等实际案例,展示了转置卷积层的实用性。原创 2025-09-02 12:31:49 · 67 阅读 · 0 评论 -
95、一维和二维转置卷积层详解
本文详细解析了一维和二维转置卷积层的原理、语法、参数设置及其在深度学习中的应用。转置卷积层常用于对输入数据进行上采样,广泛应用于时间序列预测、语音合成、图像超分辨率和语义分割等任务。文章通过示例代码展示了如何在 MATLAB 中使用 transposedConv1dLayer 和 transposedConv2dLayer 构建模型,并探讨了它们的算法原理和输入输出格式。最后,对比了一维和二维转置卷积层的异同,并展望了其未来的发展方向。原创 2025-09-01 10:19:43 · 40 阅读 · 0 评论 -
94、深度学习训练进度监控与网络训练指南
本文详细介绍了在深度学习中使用 `TrainingProgressMonitor` 对象监控训练进度的方法,以及 `trainNetwork` 函数训练神经网络的多种应用场景。涵盖了自定义训练循环的指标监控、提前停止训练、进度跟踪,以及图像分类、序列分类、图像回归等多种任务的网络训练示例。同时讨论了数据格式要求、训练选项设置、检查点保存与恢复训练、浮点运算与可重复性等扩展功能,并提供了常见问题的解决方法。通过本文,可以提升深度学习模型训练的效率和管理能力。原创 2025-08-31 11:07:14 · 64 阅读 · 0 评论 -
93、随机梯度下降动量法训练选项详解
本博文详细介绍了随机梯度下降动量法(SGDM)在神经网络训练中的应用及其相关训练选项的设置方法。内容涵盖SGDM的基本原理、TrainingOptionsSGDM对象的创建、各项训练参数的详解以及算法原理。此外,还提供了示例代码和版本历史说明,帮助用户优化训练过程,提高模型性能。原创 2025-08-30 15:27:20 · 116 阅读 · 0 评论 -
92、RMSProp优化器训练选项详解
本文详细介绍了RMSProp优化器在神经网络训练中的应用,包括其算法原理和多种训练选项的设置方法。内容涵盖了学习率调度、正则化、批量大小、验证机制、梯度裁剪等关键技术,并提供了实际应用中的调参建议和常见问题的解决方法。通过合理配置这些选项,可以有效提升模型训练的效率和稳定性。原创 2025-08-29 13:23:09 · 42 阅读 · 0 评论 -
91、Adam优化器训练选项详解
本文详细介绍了Adam优化器的训练选项及其在深度学习中的应用,涵盖创建训练选项对象、各个选项的含义与作用、算法原理以及实际应用建议。通过合理设置这些训练选项,可以有效提升神经网络的训练效果和效率。原创 2025-08-28 16:51:00 · 113 阅读 · 0 评论 -
90、深度学习神经网络训练选项详解
本文详细介绍了深度学习神经网络中训练选项的设置和使用方法,涵盖了求解器选择、学习率调度、正则化、梯度裁剪等关键参数的作用和调整方法。通过具体示例和算法原理说明,帮助读者更好地理解和应用训练选项以提升模型性能。原创 2025-08-27 09:29:06 · 40 阅读 · 0 评论 -
89、深度学习中的常用函数与网络操作详解
本文详细介绍了深度学习中常用的函数与网络操作,包括去除dlarray维度标签的stripdims函数、打印网络摘要的summary函数、Swish和双曲正切激活层(swishLayer和tanhLayer),以及基于一阶泰勒近似实现卷积滤波器剪枝的taylorPrunableNetwork。这些操作在深度学习模型的构建、训练和优化中起到了重要作用,帮助用户更好地提升模型性能并压缩模型规模。原创 2025-08-26 13:18:47 · 64 阅读 · 0 评论 -
88、MATLAB 中混淆矩阵类排序与 SqueezeNet 网络的使用
本文详细介绍了 MATLAB 中两个强大工具的使用:`sortClasses` 函数和 SqueezeNet 卷积神经网络。`sortClasses` 函数用于对混淆矩阵图中的类进行排序,以帮助分析分类模型的性能;而 SqueezeNet 网络可用于图像分类、迁移学习和特征提取等任务。文中通过语法说明、示例代码、流程图和注意事项,全面展示了这些工具的功能与应用场景,为深度学习和机器学习项目的实践提供了实用指导。原创 2025-08-25 12:37:10 · 36 阅读 · 0 评论 -
87、深度学习中的数据处理与网络模型
本文详细介绍了深度学习中的关键函数和网络模型,包括shuffle、shufflenet、sigmoid、softmax等,以及它们在数据处理和模型构建中的应用。通过示例代码和具体场景分析,帮助读者更好地理解和应用这些工具,以提高模型的性能和泛化能力。原创 2025-08-24 11:38:22 · 32 阅读 · 0 评论 -
86、深度学习中的学习率因子设置与参数更新
本文详细介绍了深度学习中两个关键函数 `setLearnRateFactor` 和 `sgdmupdate` 的使用方法与实际应用。`setLearnRateFactor` 可用于灵活设置网络层中可学习参数的学习率因子,从而调整不同参数的学习速率;`sgdmupdate` 则用于在自定义训练循环中使用随机梯度下降带动量(SGDM)算法更新网络参数。文章通过多个示例展示了这两个函数的具体用法,并提供了实际训练案例与流程总结,帮助用户更好地控制模型训练过程,提高模型性能。原创 2025-08-23 15:12:31 · 32 阅读 · 0 评论 -
85、深度学习中的序列展开层、串联网络与 L2 正则化因子设置
本文详细介绍了深度学习中的三个关键技术:序列展开层、串联网络和L2正则化因子的设置方法与应用场景。序列展开层用于恢复序列数据的结构,适用于视频分类等任务;串联网络提供了一种简单直观的神经网络构建方式,支持预训练模型加载和自定义组装;L2正则化因子则用于控制模型复杂度,防止过拟合。文章通过代码示例和流程图深入解析了这些技术的实现细节,并讨论了实际应用中的注意事项。原创 2025-08-22 12:33:09 · 55 阅读 · 0 评论 -
84、序列输入层:深入解析与应用
本文深入解析了序列输入层的概念、创建方法及其属性,并结合多种应用场景如语音识别、自然语言处理和视频分类,详细介绍了其实际应用。同时,还探讨了在使用序列输入层时的注意事项,包括最小序列长度、归一化设置以及代码生成限制。通过丰富的示例和流程图,帮助读者全面掌握序列输入层的使用方法,并展望其未来在深度学习领域的发展潜力。原创 2025-08-21 09:30:23 · 81 阅读 · 0 评论 -
83、深度学习中的自注意力层与序列折叠层
本博客详细介绍了深度学习中的自注意力层和序列折叠层。自注意力层通过查询、键和值的交互,用于捕捉输入数据的长距离依赖关系,广泛应用于自然语言处理和图像生成等领域。序列折叠层则用于处理图像序列,将序列转换为一批图像,便于独立地对每个时间步进行卷积操作,特别适合视频分类等任务。文章还对比了两种层的功能和应用场景,并讨论了实际应用中的注意事项以及未来发展趋势。原创 2025-08-20 12:49:05 · 57 阅读 · 0 评论 -
82、利用 rocmetrics 评估分类模型性能
本文介绍了如何使用 MATLAB 中的 rocmetrics 工具评估二元和多类分类模型的性能。内容包括创建 rocmetrics 对象、计算 ROC 曲线及其下面积(AUC)、计算额外的性能指标(如准确率、精确率、召回率等)、绘制 ROC 曲线、以及计算和显示置信区间。此外,还详细说明了输入参数、名称-值对参数、模型操作点、置信区间计算方法等,并提供了完整的操作步骤和注意事项,帮助用户全面了解和使用 rocmetrics 进行分类模型性能评估。原创 2025-08-19 09:17:14 · 41 阅读 · 0 评论 -
81、3D 残差网络与 ROC 曲线属性详解
本文详细介绍了3D残差网络的创建与使用技巧,包括resnet3dLayers函数的基本语法、输入参数、名称-值参数以及示例代码。同时,还深入解析了ROC曲线属性及其在模型评估中的应用,涵盖ROC曲线的外观设置、数据属性、交互性属性以及实际应用场景。此外,文章还涉及3D残差网络的GPU代码生成方法及其与其他深度学习函数和模型的关系,帮助读者更好地构建和评估深度学习模型。原创 2025-08-18 12:24:54 · 73 阅读 · 0 评论 -
80、深度解析ResNet系列卷积神经网络及其应用
本文深入解析了ResNet系列卷积神经网络,包括ResNet-18、ResNet-50和ResNet-101的架构特点与应用场景,并介绍了如何使用`resnetLayers`函数创建自定义的二维残差网络。文章涵盖网络结构、残差连接原理、迁移学习实现方法及在图像分类、医学图像分析等领域的实际应用案例,同时对不同ResNet架构的性能进行了对比总结,为读者提供全面的ResNet网络理解和应用指导。原创 2025-08-17 14:32:34 · 139 阅读 · 0 评论 -
79、深度学习中的ReLU、层操作与参数管理
本文详细介绍了深度学习中的ReLU激活函数、ReLU层、移除层、移除参数和替换层等操作,结合MATLAB代码示例展示了其具体应用。通过综合案例说明了如何灵活运用这些操作来构建和优化神经网络模型,同时探讨了注意事项、常见问题以及未来发展趋势。适合希望提升深度学习模型性能的开发者和研究人员参考。原创 2025-08-16 09:50:51 · 47 阅读 · 0 评论 -
78、深度学习中的几个重要函数及操作详解
本文详细解析了深度学习中的几个重要函数,包括reset、quantizationDetails、resetState和rmspropupdate。reset函数用于重置小批量队列,方便多次遍历数据;quantizationDetails函数用于查看神经网络的量化细节;resetState函数用于重置循环神经网络的状态参数;rmspropupdate函数则在自定义训练循环中使用RMSProp算法更新网络参数。通过这些函数的详细介绍和示例,帮助开发者更好地理解和应用它们进行深度学习模型的训练与优化。原创 2025-08-15 10:01:16 · 84 阅读 · 0 评论 -
77、深度学习中的数据读取、指标记录与回归层应用
本文详细介绍了深度学习中的三个关键方面:从增强图像数据存储中读取数据的方法,包括使用`read`和`readByIndex`函数;训练过程中指标值的记录,涵盖`recordMetrics`函数的使用方法和最佳实践;以及回归输出层的应用,包括`regressionLayer`函数和回归层的属性。此外,还讨论了回归任务的损失函数、指标记录的注意事项以及数据读取的性能优化策略。通过这些内容,帮助开发者更好地构建和监控深度学习模型。原创 2025-08-14 15:58:54 · 29 阅读 · 0 评论 -
76、使用循环神经网络进行预测并更新网络状态
本文详细介绍了在Matlab中使用`predictAndUpdateState`函数基于训练好的循环神经网络(如LSTM)进行序列预测并动态更新网络状态的方法。内容涵盖函数语法、输入输出参数、名称-值对参数、示例代码、注意事项以及实际应用场景,适用于序列分类、时间序列预测等任务。原创 2025-08-13 10:11:58 · 34 阅读 · 0 评论 -
75、使用深度学习神经网络进行预测
本文详细介绍了如何使用深度学习神经网络在MATLAB中进行预测任务,重点解析了`predict`函数的多种语法形式及其适用场景,包括图像、序列和特征数据的处理方法。文章还提供了使用示例、输入输出参数说明、性能优化建议以及常见问题的解决方案,帮助读者全面掌握使用训练好的网络进行高效预测的技巧。原创 2025-08-12 09:15:23 · 48 阅读 · 0 评论 -
74、深度学习中的数据分区、层替换与性能曲线绘制
本文介绍了深度学习中的几个关键功能,包括使用 `partitionByIndex` 对增强图像数据存储进行分区,使用 `PlaceholderLayer` 处理不支持的 Keras 或 ONNX 层,以及使用 `plot` 函数绘制神经网络架构和性能曲线(如 ROC 曲线、精确-召回曲线和 DET 图)。通过详细的代码示例和参数说明,展示了这些功能在 MATLAB 中的具体应用方法和实际效果。原创 2025-08-11 09:31:33 · 37 阅读 · 0 评论 -
73、深度学习中的序列数据处理与ONNX参数管理
本文介绍了深度学习中处理序列数据的padsequences函数和partition函数,以及管理ONNX网络参数的ONNXParameters对象。padsequences函数可以将序列数据填充或截断为相同长度,方便进行批量处理;partition函数可以将minibatchqueue对象划分为多个部分,便于并行处理;ONNXParameters对象可以存储和管理导入的ONNX网络参数,支持迁移学习等任务。通过示例代码,展示了这些函数和对象的具体使用方法,帮助提高深度学习模型的训练效率和性能。原创 2025-08-10 15:15:25 · 28 阅读 · 0 评论 -
72、深度学习中的分布判别与标签编码解码技术
本文深入介绍了深度学习中的分布判别与标签编码解码技术。重点讲解了ODIN分布判别器的工作原理及其在区分分布内(ID)和分布外(OOD)数据中的应用,同时详细说明了基于softmax和基于密度的OOD检测方法。此外,还介绍了onehotencode和onehotdecode函数在分类任务中的使用,帮助开发者更好地处理标签数据。文章结合示例代码和流程图,展示了这些技术的实际应用方法和效果,为提升模型的可靠性和处理能力提供了实用指导。原创 2025-08-09 14:19:05 · 30 阅读 · 0 评论 -
71、深度学习中的神经元主成分分析与遮挡敏感性分析
本文介绍了深度学习中的神经元主成分分析(neuronPCA)和遮挡敏感性分析(occlusionSensitivity)技术。神经元主成分分析通过识别可学习参数的子空间来优化网络压缩,提高模型效率;遮挡敏感性分析则通过遮挡输入数据的不同部分,帮助理解网络预测的关键区域。文章提供了详细的函数使用方法、示例代码及应用场景,适用于希望提升深度学习模型性能与可解释性的开发者和研究人员。原创 2025-08-08 12:35:23 · 69 阅读 · 0 评论 -
70、深度学习中的数据布局与分布判别器
本文介绍了深度学习中的两个重要概念:网络数据布局(networkDataLayout)和分布判别器(networkDistributionDiscriminator)。数据布局用于描述输入数据的结构和格式,支持网络参数的初始化和自定义层的构建;分布判别器则用于区分分布内(ID)和分布外(OOD)数据,提升模型预测的置信度。文章详细说明了其创建方式、属性、使用方法及不同场景下的配置策略,并提供了多种检测方法(如 baseline、ODIN、energy 和 HBOS)的原理与适用情况。原创 2025-08-07 16:38:14 · 30 阅读 · 0 评论 -
69、深度学习模型与函数解析
本文详细介绍了多种深度学习模型和函数,包括MobileNet-v2、NASNet-Large和NASNet-Mobile卷积神经网络,以及半均方误差(mse)和乘法层(multiplicationLayer)的功能与使用方法。这些模型均在ImageNet数据集上进行了预训练,可用于图像分类和迁移学习任务。同时,文章还介绍了相关扩展功能,如C/C++代码生成和GPU代码生成,以提高计算效率。原创 2025-08-06 10:21:06 · 36 阅读 · 0 评论 -
68、深度学习中的最大反池化与小批量队列处理
本文介绍了深度学习中的最大反池化操作和小批量队列处理技术。最大反池化通过 `maxunpool` 函数和 `maxUnpooling2dLayer` 层恢复池化操作中丢失的信息,适用于图像分割和生成对抗网络(GAN)等场景。小批量队列通过 `minibatchqueue` 对象高效管理和预处理训练数据,支持自定义训练循环和大规模数据集训练。文中详细讲解了它们的语法、使用方法、操作流程、注意事项及应用场景,并提供了丰富的代码示例和功能扩展说明。原创 2025-08-05 15:18:50 · 24 阅读 · 0 评论 -
67、深度学习中的二维与三维最大池化层详解
本文详细解析了深度学习中的二维最大池化层(maxPooling2dLayer)和三维最大池化层(maxPooling3dLayer),包括它们的功能、创建方法、参数设置及使用示例。文章涵盖池化层的核心作用、输入输出格式、属性配置以及在卷积神经网络中的应用,同时对比了二维与三维池化层的异同,并探讨了实际使用中的注意事项和未来发展方向。通过图文示例和代码片段,帮助读者更好地理解和运用池化层,以构建高效准确的深度学习模型。原创 2025-08-04 13:05:47 · 80 阅读 · 0 评论 -
66、深度学习中的最大池化:maxpool与maxPooling1dLayer详解
本文详细介绍了深度学习中的最大池化技术,重点解析了maxpool函数和maxPooling1dLayer层的使用方法、参数设置及相关示例。最大池化是一种常用的下采样操作,能够减少数据量、保留重要特征并增强模型的鲁棒性。文章还探讨了最大池化的应用场景、注意事项以及未来发展趋势,为读者提供了全面的理论知识和实践指导。原创 2025-08-03 16:23:11 · 139 阅读 · 0 评论 -
65、长短期记忆投影层(LSTM Projected Layer)详解
本文详细介绍了长短期记忆投影层(LSTM Projected Layer)的原理和应用。LSTM投影层通过引入可学习的投影矩阵,有效减少可学习参数数量,实现深度学习网络的压缩,同时保持模型的预测精度。文章涵盖LSTM投影层的创建方法、属性设置、算法原理、输入输出格式、实际应用场景以及优化建议等内容,帮助读者全面理解和使用该技术。原创 2025-08-02 13:31:54 · 54 阅读 · 0 评论 -
64、深度学习中的 TensorFlow Lite 模型加载与 LSTM 相关技术
本文详细介绍了深度学习中 TensorFlow Lite 模型的加载方法以及长短期记忆(LSTM)网络的相关技术。通过 `loadTFLiteModel` 函数可以便捷地加载和使用 TensorFlow Lite 模型进行推理,而 LSTM 操作和 LSTM 层则用于处理时间序列和序列数据,能够有效学习数据中的长期依赖关系。文章结合示例代码展示了如何在 MATLAB 中使用这些技术,并探讨了它们在序列分类、回归等任务中的应用。同时,还提到了代码生成和性能优化的注意事项,为开发者提供了实用的指导和参考。原创 2025-08-01 10:50:00 · 48 阅读 · 0 评论 -
63、深入理解L-BFGS算法:lbfgsState与lbfgsupdate详解
本文深入介绍了L-BFGS优化算法中的核心组件lbfgsState和lbfgsupdate,详细说明了它们的创建、属性、使用方法以及背后的算法原理。文章还探讨了L-BFGS在神经网络训练中的适用场景、注意事项及性能优化建议,并提供了实际代码示例和常见问题的解决方案。适合希望深入了解L-BFGS算法及其在深度学习中应用的读者。原创 2025-07-31 16:55:52 · 77 阅读 · 0 评论 -
62、深度学习中的层归一化与Leaky ReLU激活函数
本文详细介绍了深度学习中的层归一化层(Layer Normalization Layer)和Leaky ReLU激活函数(层)的基本概念、创建方法、属性设置、算法原理及输入输出格式。文章结合实例代码展示了如何在卷积神经网络(CNN)中使用这些层,并提供了训练网络的完整流程和性能优化建议,如调整学习率、批量大小、数据增强和网络结构调整等。通过合理使用层归一化和Leaky ReLU,可以有效加速训练过程、提高模型稳定性并避免神经元死亡问题,从而构建更高效、更强大的深度学习模型。原创 2025-07-30 09:14:16 · 44 阅读 · 0 评论 -
61、深度学习中的网络层与图结构
本文详细介绍了深度学习中网络层与图结构的构建与应用,涵盖顺序连接网络与有向无环图(DAG)网络的设计方法。内容包括如何在 MATLAB 中创建和管理层数组、使用 LayerGraph 对象构建复杂网络结构,以及层归一化(layernorm)的原理与应用。此外,还总结了网络构建流程、不同方式的对比、常见问题解决方案等,为构建高效、准确的深度学习模型提供了全面指导。原创 2025-07-29 09:30:31 · 40 阅读 · 0 评论
分享