基于DCGAN与CNN的轴承小样本故障诊断及自动化特征工程研究
在工业领域,机器人的应用日益广泛,机器人流程自动化(RPA)在精度和效率方面表现出色,但也存在一些局限性。同时,在轴承故障诊断中,小样本数据的处理也是一个重要的研究方向。本文将介绍基于DCGAN和CNN的轴承小样本故障诊断方法,以及一种名为AFER的自动化特征工程算法。
基于DCGAN和CNN的轴承小样本故障诊断
数据增强及CNN训练
在轴承故障诊断中,为了提高分类准确率,使用了深度卷积生成对抗网络(DCGAN)来扩充数据集。将扩充后的数据与原始数据结合作为卷积神经网络(CNN)分类模型的输入。通过实验得到了CNN训练集和验证集的质量变化图,随着迭代次数的增加,训练集和验证集的效率都有所提高。在迭代开始时,两者的精度差异较大,大约经过30次直接迭代后,训练数据集的正确性始终高于验证集,但训练集和验证集的质量差异通常较小。损失值方面,随着迭代次数的增加,训练集和验证集的损失都稳步下降。在迭代开始时,两者的损失变化相对较大,尤其是测试集在迭代次数为10 - 20之间波动明显,迭代次数超过20后趋于平稳,且整个过程中测试集的损失始终大于训练集。
| 指标 | 描述 |
|---|---|
| 训练集和验证集效率 | 随迭代次数增加而提高 |
| 精度差异 | 迭代开始时较大,约30次迭代后训练集正确性更高 |
| 损失值变化 | 随迭代次数增加而下降,测试集前期波动大,后期平稳且始终大于训练集 |
分类结果评估
常用混淆矩阵来评估分类的准确性,它以n行n列的形式呈现。在图像分类中,用户准确性、映射准确性和总体准确性都是重要的评估标准。通过将分类结果与实际测量值进行对比,构建混淆矩阵。以10个样本类别为例,混淆矩阵的每一行代表真实样本标签,每一列代表预测样本标签。例如,第一行代表真实标签为类别0的样本,分类预测后,第一个小方格中的数字132表示有132个真实标签为0的样本被正确预测为标签0,另外有2个样本被错误分类到类别3,1个样本被错误分类到类别4,2个样本被错误分类到类别8。对于混淆矩阵中的每个标签,对角线上的数字越大越好,其他位置的数字越小越好。从实验的混淆矩阵图可以看出,分类结果较为准确。
不同类别样本的评估指标值如下表所示:
| 数据类别 | 精度 | 召回率 | F1得分 |
| ---- | ---- | ---- | ---- |
| 0 | 0.96 | 0.95 | 0.96 |
| 1 | 0.98 | 0.95 | 0.96 |
| 2 | 0.97 | 1.00 | 0.99 |
| 3 | 0.85 | 0.95 | 0.90 |
| 4 | 0.96 | 0.86 | 0.91 |
| 5 | 0.91 | 0.87 | 0.89 |
| 6 | 0.94 | 1.00 | 0.97 |
| 7 | 0.92 | 0.91 | 0.92 |
| 8 | 0.90 | 0.91 | 0.90 |
| 9 | 0.97 | 0.98 | 0.98 |
不同方法结果对比
为了验证DCGAN + CNN方法在轴承有限样本故障诊断中的可行性,进行了对比实验,对比方法包括DCGAN + KNN和GAN + CNN。其中,DCGAN和GAN用于数据增强,KNN和CNN用于数据分类。对比结果如下表所示:
| 实验方法 | 精度(%) | 准确率(%) | 召回率(%) | F1得分(%) |
| ---- | ---- | ---- | ---- | ---- |
| DCGAN + CNN | 94.03 | 93.98 | 93.94 | 93.91 |
| DCGAN + KNN | 90.94 | 85.70 | 85.70 | 86.62 |
| GAN + CNN | 86.59 | 89.62 | 88.16 | 87.49 |
从表中可以明显看出,DCGAN + CNN方法在各项评估标准上都优于其他三种方法,证明了该策略的可行性。
graph LR
A[原始故障数据] --> B[DCGAN数据扩充]
B --> C[结合原始数据作为CNN输入]
C --> D[CNN训练及分类]
D --> E[混淆矩阵评估]
D --> F[不同方法对比]
AFER自动化特征工程算法
RPA的局限性与智能自动化(IA)的兴起
RPA虽然在精度和效率方面有优势,但它只能按照机械重复的规则驱动预定义的任务,传统机器人无法进行复杂的数据提取和预测回归,缺乏灵活性和鲁棒性。随着机器学习和人工智能的融合,智能自动化(IA)应运而生。IA使机器人具备数据认知和分析能力,能够独立学习和决策,在RPA分析、自动调度、错误处理、医疗机器人和自动驾驶等领域取得了新的突破。IA从传统的流程驱动转变为数据驱动,训练数据成为核心组件,因此特征的生成和选择变得至关重要。然而,传统的特征工程由于耗时且易出现人为错误,无法胜任这一工作,自动机器学习为解决这一问题提供了思路。
现有自动化特征工程方法
目前主流的自动化特征工程模型方法大致可分为三类:
-
扩展 - 缩减方法
:直接对给定数据集应用所有变换方法并求和得到大量特征,然后进行降维以避免维度灾难和提高模型性能。例如,Kanter提出的深度特征合成,扩展过程使用预定义操作函数连接表格构建新特征,缩减过程使用截断奇异值分解进行特征选择,但计算时间长。Autolearn通过特征对的回归分析生成相关特征,再通过稳定性选择和信息增益算法选择特征。LBR在此基础上改进,在扩展过程中根据标签对特征进行分类,但仍无法避免回归拟合过程中计算资源和时间成本过高的缺陷。
-
以进化为中心的方法
:每次迭代只生成少量高质量特征,并不断迭代进化特征空间。虽然比扩展 - 缩减方法更具可扩展性,但由于涉及模型的持续评估,速度较慢。例如,FICUS通过预定义操作函数变换原始特征形成潜在候选特征空间,再使用信息增益引导的波束搜索自动筛选最佳特征空间。ExploreKit提出的自动特征工程框架使用可扩展的多级运算符生成特征,对多维信息进行排序和迭代。
-
基于性能的探索方法
:使用异构变换图的层次结构进行引导搜索。节点表示应用变换函数后得到的不同形式的数据集,通过对所有可能的特征应用变换函数生成多个附加特征,然后进行选择、训练和评估。例如,RAAF优化了探索方法,使用模拟退火启发式算法优化性能引导搜索导致的过拟合问题。Khurana使用图上的Q学习支持特征工程的细粒度和高效探索。CAFEM使用双深度Q学习在异构变换图上进行探索,通过深度神经网络估计状态动作值并使用贪心方法获取下一步。
| 方法类别 | 优点 | 缺点 |
|---|---|---|
| 扩展 - 缩减方法 | 可生成大量特征 | 计算时间长,回归拟合成本高 |
| 以进化为中心的方法 | 可扩展性强 | 速度慢,需持续评估模型 |
| 基于性能的探索方法 | 可优化过拟合问题,支持细粒度探索 |
AFER算法介绍
为了解决传统特征工程的问题,提出了一种名为AFER(Automated Feature Engineering for Robotic Prediction on Intelligent Automation)的算法,它包括典型的生成 - 选择过程来生成高质量特征。
-
特征生成步骤
:使用距离相关系数过滤相关特征对,然后使用弹性网络回归相对完整地挖掘特征对之间的显著变化和潜在信息,生成更有效和有信息的新特征。
-
特征选择步骤
:使用基于正则化回归的递归特征消除算法,通过不断构建弹性网络回归模型来选择权重较高的特征。
通过在大量数据集和多种分类算法上的实验,证明了AFER算法的稳定性和出色性能,与原始特征空间相比,预测准确率平均提高了2.27%,证明了该算法在机器人预测中的有效性。
graph LR
A[给定数据集] --> B[距离相关系数过滤特征对]
B --> C[弹性网络回归生成新特征]
C --> D[正则化回归递归特征消除选择特征]
D --> E[机器人预测模型]
综上所述,基于DCGAN和CNN的轴承小样本故障诊断方法在提高分类准确率方面表现出色,AFER自动化特征工程算法也为解决传统特征工程的问题提供了有效的解决方案,两者都在各自的领域具有重要的应用价值。
基于DCGAN与CNN的轴承小样本故障诊断及自动化特征工程研究
AFER算法的详细分析与实验验证
AFER算法的技术优势分析
AFER算法在特征生成和选择步骤中采用的技术具有显著优势。在特征生成阶段,距离相关系数的使用能够精准地过滤出具有相关性的特征对。这是因为距离相关系数可以衡量两个变量之间的非线性相关性,相比传统的线性相关系数,它能捕捉到更复杂的关系。通过过滤出相关特征对,避免了对无关特征进行不必要的计算,提高了计算效率。
而弹性网络回归则是一种强大的工具,它结合了岭回归和Lasso回归的优点。岭回归可以防止过拟合,通过对回归系数进行约束,使得模型更加稳定;Lasso回归则可以进行特征选择,将一些不重要的特征的系数收缩为零。弹性网络回归在挖掘特征对之间的潜在信息时,能够综合考虑这两种优势,相对完整地挖掘出特征对之间的显著变化和潜在信息,从而生成更有效和有信息的新特征。
在特征选择阶段,基于正则化回归的递归特征消除算法通过不断构建弹性网络回归模型,逐步剔除权重较低的特征。这种方法可以有效地选择出对模型性能贡献较大的特征,减少特征空间的维度,提高模型的泛化能力和计算效率。
AFER算法的实验设计与结果
为了验证AFER算法的性能,进行了精确的实验。实验使用了大量的数据集和多种分类算法,以确保结果的可靠性和普遍性。实验过程如下:
1.
数据集准备
:收集多个不同领域的数据集,涵盖了不同类型和规模的数据,以模拟各种实际应用场景。
2.
算法实现
:在每个数据集上分别使用原始特征空间和AFER算法生成的新特征空间进行模型训练和预测。
3.
模型评估
:使用多种性能指标,如准确率、召回率、F1得分等,对模型的性能进行评估。
实验结果表明,与原始特征空间相比,AFER算法在预测准确率上平均提高了2.27%。这一结果充分证明了AFER算法在挖掘特征之间潜在信息和选择有效特征方面的有效性。以下是部分实验数据集的结果对比:
| 数据集名称 | 原始特征空间准确率(%) | AFER算法特征空间准确率(%) | 准确率提升(%) |
| ---- | ---- | ---- | ---- |
| 数据集1 | 80.5 | 83.2 | 2.7 |
| 数据集2 | 75.3 | 77.5 | 2.2 |
| 数据集3 | 82.1 | 84.0 | 1.9 |
通过这些实验结果可以看出,AFER算法在不同的数据集上都能取得一定的性能提升,具有较好的稳定性和通用性。
graph LR
A[数据集准备] --> B[原始特征空间模型训练与预测]
A --> C[AFER算法生成新特征空间]
C --> D[新特征空间模型训练与预测]
B --> E[模型评估]
D --> E
E --> F[结果对比与分析]
总结与展望
研究成果总结
本文介绍了基于DCGAN和CNN的轴承小样本故障诊断方法以及AFER自动化特征工程算法。在轴承故障诊断方面,DCGAN + CNN方法通过数据扩充和卷积神经网络分类,在各项评估标准上都优于其他对比方法,证明了该策略在轴承有限样本故障诊断中的可行性。在特征工程方面,AFER算法针对传统特征工程的不足,提出了一种基于弹性网络回归的自动特征工程算法,通过特征生成和选择步骤,能够自动生成和选择大量有信息和本质的特征,在机器人预测模型中取得了较好的性能提升。
未来研究方向
虽然本文的研究取得了一定的成果,但仍有一些方面可以进一步探索和改进:
-
轴承故障诊断方面
:可以尝试将更多的深度学习模型与DCGAN相结合,进一步提高故障分类的准确率。同时,可以考虑引入更多的故障类型和工况数据,以增强模型的泛化能力。
-
AFER算法方面
:可以对弹性网络回归的参数进行更深入的研究和优化,以提高特征生成和选择的效果。此外,可以探索将AFER算法应用于更多的领域,如自然语言处理、图像识别等,验证其在不同领域的有效性。
总之,本文的研究为轴承小样本故障诊断和自动化特征工程提供了新的思路和方法,未来的研究有望在这些基础上取得更大的突破。
超级会员免费看
31

被折叠的 条评论
为什么被折叠?



