基于S变换和混合核ELM的复合电能质量扰动检测与分类方法
1. 离散S变换与特征提取
离散S变换是一种重要的信号处理方法,其公式为:
当 (n = 0, 1 \cdots n -1) ,利用相关条件并令 (\tau \to jT) 和 (f \to \frac{n}{NT}) ,离散S变换表示为
[
s\left(jT, \frac{n}{NT}\right) = \sum_{m = 0}^{N - 1} X\left(m + \frac{n}{NT}\right) \exp(-2\pi^2m^2n^2) \exp(j\frac{2\pi mi}{N})
]
其中 (j = 0, 1, 2 \cdots N -1) , (n = 0, 1, 2 \cdots N -1) 。S变换的结果是一个复时频矩阵,定义 (STA(kT, f) = |S [jT, n/NT]|) 为S变换幅度矩阵,该矩阵的每一行表示同一频率下随时间变化的S变换幅度,每一列表示同一时间下随频率变化的S变换幅度。
通过S变换可以对复合电能质量扰动(CPQDs)进行特征提取,S变换能在时域和频域完整地展示信号。其输出是一个复元素矩阵,行对应频率,列对应时间。通过找出列和行中的最大元素,可分别得到幅度和频率轮廓,计算每列中幅度最大元素的对应相位可得到相位轮廓。利用S变换分析可提取十个特征:
- 特征1:幅度轮廓的标准差。
- 特征2:幅度轮廓的能量。
- 特征3:频率轮廓的标准差。
- 特征4:相位轮廓的标准差。
- 特征5:频率轮廓的能量。
- 特征6 - 10:轮廓级别1 - 5的能量。
2. HKEML算法详解
2.1 ELM算法
ELM(极限学习机)是由Huang提出的一种用于标准单隐藏层前馈神经网络(SLFNs)的学习算法。与传统基于梯度的神经网络不同,ELM由于随机分配隐藏节点参数和采用最小二乘法确定输出权重,能实现极快的学习速度。
给定 (N) 个任意不同的样本 ((x_i, y_i) \in R^n \times R^m) ,具有 (L) 个隐藏神经元和激活函数 (g(x)) 的ELM可表示为:
[
f_L (x_j) = \sum_{i = 1}^{L} \beta_i g (w_i \cdot x_j + b_i), j = 1, \cdots, N
]
其中 (w_i = [w_{i1}, w_{i2} \cdots w_{in}]^T) 和 (\beta_i = [\beta_{i1}, \beta_{i2} \cdots \beta_{in}]^T) 分别是连接第 (i) 个隐藏神经元与输入神经元、第 (i) 个隐藏神经元与输出神经元的权重向量, (b_i) 是第 (i) 个隐藏神经元的偏置。上述公式可紧凑表示为 (\Psi\beta = Y) ,其中
[
\Psi =
\begin{bmatrix}
g (w_1x_1 + b_1) & \cdots & g (w_Lx_1 + b_L) \
\vdots & \ddots & \vdots \
g (w_1x_N + b_1) & \cdots & g (w_Lx_N + b_L)
\end{bmatrix}
]
[
\beta = [\beta_1^T \cdots \beta_L^T]^T, Y = [y_1^T \cdots y_L^T]^T
]
输出权重 (\beta) 根据以下线性方程的最小二乘法进行调整:
[
\min |\beta| |\Psi\beta - Y|
]
其解为 (\hat{\beta} = \Psi^{\dagger}Y) ,其中 (\Psi^{\dagger}) 是隐藏层输出矩阵 (\Psi) 的Moore - Penrose广义逆。Huang提出 (\hat{\beta}) 可解析得到:
当 (N < L) 时,
[
\hat{\beta} = \Psi^T \left(\frac{I}{C} + \Psi\Psi^T\right)^{-1} Y
]
当 (N > L) 时,
[
\hat{\beta} = \left(\frac{I}{C} + \Psi^T \Psi\right)^{-1} \Psi^T Y
]
其中 (I) 是单位矩阵,其维度与 (\Psi\Psi^T) 或 (\Psi^T \Psi) 一致。在 (\Psi\Psi^T) 或 (\Psi^T \Psi) 的对角线上添加正值 (\frac{1}{C}) ,以获得更稳定的解和更好的泛化性能。
如果特征映射 (\psi(x)) 未知,Huang等人提出使用核函数,其表示为
[
\chi_{ELM} = \Psi\Psi^T : \chi_{ELM_{i,j}} = \psi(x_i) \cdot \psi(x_j) = K(x_i, x_j)
]
相应的输出函数变为
[
f(x) =
\begin{bmatrix}
K(x, x_1) \
\vdots \
K(x, x_N)
\end{bmatrix}^T
\left(\frac{I}{C} + \chi_{ELM}\right)^{-1} Y
]
2.2 ELM - ML算法
ELM因其简单的实现和出色的学习性能,已成功应用于解决回归、聚类、二分类和多分类问题。ELM - ML算法将ELM扩展到多标签(ML)应用,分两个阶段进行:
1. 训练一个多输出节点的多类ELM模型,将输入特征向量映射到一个实值向量,该向量的维度为类的数量。
2. 根据目标集,基于实值向量计算相应实例的阈值。
3. 通过添加一列预测阈值来重构训练集,并训练一个单输出节点的ELM模型,以学习阈值函数。
4. 对于未知实例,使用回归模型学习到的阈值对多类ELM模型给出的得分向量进行二分,并输出相关的标签子集。
2.3 HKEML算法
HKEML算法的实现包括以下两个关键部分:
1.
基于混合核函数的多类ELM
:多类ELM的特性可显著提升ELM - ML的性能。对于查询实例,多类模型为每个标签输出一个数值得分,阈值学习模型的训练集由得分向量和基于这些向量计算的阈值组成。因此,数值得分与其与未标记实例的相关性对后续的阈值训练过程有很大影响。应用核函数可增强多类ELM模型的泛化性,与基本ELM相比,核ELM更稳健,对线性不可分样本表现更好。常用的核函数有线性核函数、多项式核函数、径向基函数(RBF)和小波核函数,这些核函数具有不同的特性。为了充分利用不同核函数的优势,提出将基本核函数组合应用于多类ELM。
常用核函数可分为局部核和全局核两类。局部核具有强大的学习能力,因为相邻数据对核值的影响比远距离数据更强;全局核具有更好的泛化性。为了结合两者的优势,提出使用多项式核和RBF核构建混合核函数,它们分别是典型的全局和局部核函数,且在计算成本方面具有优势。RBF核和多项式核的数学公式如下:
[
K_{RBF} (x, x_i) = \exp\left(-\frac{|x - x_i|^2}{2\sigma^2}\right)
]
[
K_{POLY} (x, x_i) = (\langle x \cdot x_i\rangle + 1)^d
]
其中RBF核的参数是宽度 (\sigma) ,多项式核的参数是多项式的次数 (d) 。通过引入系数 (\lambda) ,采用凸组合的方法得到混合核函数:
[
K_H = \lambda K_{RBF} + (1 - \lambda) K_{POLY}, \lambda \in (0, 1)
]
- 基于核ELM的阈值函数学习 :多标签学习的目标是输出一个包含有限相关标签的集合,以指示未知实例,因此从多类ELM模型给出的得分向量中获得一致的二分结果对于成功的多标签分类至关重要。
给定一个未标记实例 (x_i) 和一组标签 (D = {d_1, d_2, \cdots, d_q}) ,基于混合核函数的ELM输出相应的数值得分向量 (O (x_i) = {O_1 (x_i), \cdots, O_q (x_i)}) 用于标签排序。查询实例 (x_i) 的相关标签集由阈值函数 (Thd (x_i)) 确定,即 (L_i = {d_j|O_j (x_i) > Thd (x_i), d_j \in D}) 。传统的阈值技术通常将 (Thd (x)) 设为零常数函数,而本研究采用一种考虑阈值应随实例变化的新方法,通过基于RBF核的ELM构建回归模型来从实例中学习阈值,核技巧增强了回归模型的泛化性。
训练回归模型的一个关键预处理步骤是计算 (Thd (x_i)) ,进一步构建训练集 (T (x_i, Thd (x_i))) 。在根据预定义的目标二进制向量训练得到 (Tr (x_i)) 和 (T_{ir} (x_i)) 后,选择该区间的中间值作为自然解的泛化, (Thd (x_i)) 的计算公式为:
[
Thd (x_i) = \frac{\max (T_{ir} (x_i)) + \min (Tr (x_i))}{2}
]
下面用mermaid流程图展示HKEML算法的整体流程:
graph LR
A[输入数据] --> B[基于混合核函数的多类ELM]
B --> C[输出数值得分向量]
C --> D[基于核ELM的阈值函数学习]
D --> E[计算阈值]
E --> F[二分得分向量]
F --> G[输出相关标签子集]
3. 实验部分
为了验证HKEML的有效性和效率,将其性能与三种最先进的多标签分类方法(RankWSVM、MLKNN、MLNB)以及ELM - ML进行比较,实验基于两个CPQD数据集,一个由Matlab合成,另一个从标准源采样。
在进行性能比较之前,预先估计了能实现最佳泛化性能的分类器参数:
-
HKEML
:通过十折交叉验证嵌入PSO获得最优参数组合 ((\gamma, d, C, \lambda, \gamma_{th}, C_{th})) ,对于Matlab合成数据集,参数设置为 ((2^{-6}, 6, 1, 0.25, 2^{14}, 2^{-3})) ;对于标准源采样数据集,参数设置为 ((2^{-11}, 5, 2^8, 0.04, 2^{20}, 2^6)) 。
-
ELM - ML
:结构参数采用推荐值,两层的隐藏节点数均设为1000,选择Sigmoid激活函数。
-
RankWSVM
:使用Morlet小波核,通过网格搜索方法从 ([2^{-20}, 2^{-19}, \cdots, 2^{19}, 2^{20}]) 范围内找到核参数 (\gamma) 和成本参数 (C) 的最优组合。对于Matlab数据集, ((C, \gamma)) 设为 ((2^0, 2^5)) ;对于硬件数据集, ((C, \gamma)) 设为 ((2^{-1}, 2^6)) 。
-
MLNB
:主成分分析和平滑后剩余特征的比例分别设为1和1。
-
MLKNN
:采用先前研究报告的最佳参数,Laplacian估计器 (s = 1) , (k = 10) ,迭代次数固定为100。
所有算法都进行十折交叉验证,以获得10次运行的平均指标值。实验在Matlab R2015b环境下进行,系统配置为Intel core i7 - 5930K,3.5 GHz CPU,32 GB内存。
3.1 Matlab合成数据集性能比较
为了使方法具有最大的泛化性,CPQD数据集应涵盖尽可能多的电能质量(PQ)事件。采用特定的数据集构建方案,包括七种单扰动、十七种双扰动、十七种三扰动和六种四扰动。七种基本单扰动(电压暂降、电压暂升、中断、脉冲暂态、振荡暂态、谐波和闪变)分为四组,如下表所示:
| 组1 | 组2 | 组3 | 组4 |
| ---- | ---- | ---- | ---- |
| 电压暂降 | 电压暂升 | 中断 | 脉冲暂态 |
| 振荡暂态 | 谐波 | 闪变 | |
按照数学模型生成数据集,该数据集与实际数据非常相似。PQ事件(包括CPQDs)的数值框架表示为
[
V_{PQE} = [Mul (t)] {\sin (t) + [Add (t)]}
]
其中 (\sin(t)) 是用于模拟电力系统波形的正弦函数, (Mul(t)) 是如电压暂降、电压暂升、中断和闪变等乘法型PQ事件函数, (Add(t)) 是如暂态、谐波和噪声等加法型PQ事件函数。每种类型的CPQDs生成200个样本,PQ事件波形的参数变化符合IEEE 1159标准。模拟周期设为10个周期,每个周期取128个点。将零均值、信噪比(SNR)从50 dB到20 dB的随机白噪声混入合成数据,以评估所提出识别方法的鲁棒性。
下表展示了不同信噪比下HKEML与ELM - ML的性能提升情况:
| SNR | 汉明损失/% | 排序损失/% | 单误差/% | 覆盖度/% | 平均精度/% |
| ---- | ---- | ---- | ---- | ---- | ---- |
| 20 dB | -21.13 | -10.45 | -11.24 | -3.67 | 6.39 |
| 30 dB | -24.96 | -26.76 | -41.14 | -8.68 | 7.97 |
| 40 dB | -23.47 | -24.87 | -37.22 | -8.39 | 8.54 |
| 50 dB | -15.43 | -17.47 | -29.51 | -6.08 | 6.36 |
| 平均 | -21.25 | -19.89 | -29.78 | -6.71 | 7.32 |
从表中可以看出,由于引入了混合核函数,HKEML的学习能力和泛化性显著增强,平均汉明损失、排序损失和单误差分别比ELM - ML低21.25%、19.89%和29.78%,在覆盖度和平均精度方面也表现稍好。
此外,还比较了HKEML与Rank - WSVM、MLKNN和MLNB的性能,结果以均值 ± 标准差的形式总结在下表中,每个评估标准中,“↓” 表示值越小越好,“↑” 表示值越大越好:
| SNR | 评估标准 | HKEML | Rank - WSVM | MLKNN | MLNB |
| ---- | ---- | ---- | ---- | ---- | ---- |
| 20 dB | 汉明损失↓ | 0.1795 ± 0.0037 | 0.2059 ± 0.0048 | 0.2042 ± 0.0055 | 0.2281 ± 0.0023 |
| | 排序损失↓ | 0.1003 ± 0.0052 | 0.1138 ± 0.0046 | 0.1209 ± 0.0055 | 0.1365 ± 0.0033 |
| | 单误差↓ | 0.1279 ± 0.0150 | 0.1498 ± 0.0123 | 0.1493 ± 0.0110 | 0.1884 ± 0.0085 |
| | 覆盖度↓ | 2.2390 ± 0.0369 | 2.3047 ± 0.0286 | 2.3535 ± 0.0374 | 2.5238 ± 0.0257 |
| | 平均精度↑ | 0.8781 ± 0.0068 | 0.8636 ± 0.0067 | 0.8588 ± 0.0063 | 0.8279 ± 0.0037 |
| 30 dB | 汉明损失↓ | 0.1599 ± 0.0057 | 0.2052 ± 0.0015 | 0.1990 ± 0.0037 | 0.2396 ± 0.0032 |
| | 排序损失↓ | 0.0832 ± 0.0051 | 0.1131 ± 0.0026 | 0.1203 ± 0.0043 | 0.1528 ± 0.0059 |
| | 单误差↓ | 0.0880 ± 0.0103 | 0.1274 ± 0.0076 | 0.1412 ± 0.0059 | 0.1932 ± 0.0107 |
| | 覆盖度↓ | 2.1293 ± 0.0378 | 2.3229 ± 0.0276 | 2.3446 ± 0.0310 | 2.6151 ± 0.0452 |
| | 平均精度↑ | 0.9037 ± 0.0057 | 0.8716 ± 0.0030 | 0.8640 ± 0.0026 | 0.8143 ± 0.0059 |
| 40 dB | 汉明损失↓ | 0.1624 ± 0.0058 | 0.2061 ± 0.0039 | 0.1966 ± 0.0055 | 0.2471 ± 0.0052 |
| | 排序损失↓ | 0.0840 ± 0.0045 | 0.1155 ± 0.0053 | 0.1187 ± 0.0044 | 0.1649 ± 0.0067 |
| | 单误差↓ | 0.0921 ± 0.0092 | 0.1313 ± 0.0140 | 0.1390 ± 0.0104 | 0.2040 ± 0.0125 |
| | 覆盖度↓ | 2.1283 ± 0.0334 | 2.3424 ± 0.0317 | 2.3532 ± 0.0346 | 2.7194 ± 0.0484 |
| | 平均精度↑ | 0.9041 ± 0.0056 | 0.8686 ± 0.0063 | 0.8655 ± 0.0055 | 0.8042 ± 0.0065 |
| 50 dB | 汉明损失↓ | 0.1694 ± 0.0035 | 0.2047 ± 0.0043 | 0.1967 ± 0.0039 | 0.2509 ± 0.0042 |
| | 排序损失↓ | 0.0921 ± 0.0033 | 0.1151 ± 0.0042 | 0.1147 ± 0.0043 | 0.1747 ± 0.0048 |
| | 单误差↓ | 0.1013 ± 0.0088 | 0.1310 ± 0.0102 | 0.1276 ± 0.0083 | 0.2117 ± 0.0186 |
| | 覆盖度↓ | 2.1780 ± 0.0250 | 2.3538 ± 0.0243 | 2.3330 ± 0.0333 | 2.7911 ± 0.0315 |
| | 平均精度↑ | 0.8943 ± 0.0037 | 0.8690 ± 0.0046 | 0.8712 ± 0.0039 | 0.7934 ± 0.0064 |
算法效率也是重要的评估标准,下表比较了在添加20 dB高斯噪声时各ML学习算法的计算时间:
| 计算时间 (s) | HKEML | Rank - WSVM | MLKNN | MLNB |
| ---- | ---- | ---- | ---- | ---- |
| 训练时间 | 9.8987 ± 0.0575 | 3223.0922 ± 25.4273 | 93.2370 ± 0.4610 | 6863.3045 ± 1984.6011 |
| 测试时间 | 1.0582 ± 0.0183 | 2.7948 ± 0.0114 | 13.7011 ± 0.0301 | 0.5369 ± 0.0071 |
从表中可以看出,HKEML在训练时间上表现最佳,平均不到10秒,其次是MLKNN,Rank - WSVM和MLNB都是耗时的算法,训练时间是HKEML的百倍。在测试时间方面,HKEML也表现较好,仅略逊于MLNB。环境噪声从30 dB到50 dB的计算效率实验也得到了类似的结果。
3.2 硬件数据集性能比较
为了在实际情况下验证该方法,采用了一个硬件测试平台,包括便携式三相标准源DK - 51B、数据采集系统和PC。由于DK - 51B源的限制,生成了15种PQD,包括五种单PQD(电压暂降、电压暂升、中断、谐波和闪变)、七种双PQD和三种三PQD,每种类型随机生成100次。
硬件测试平台的实验设置中,数据采集系统基于ARM Cortex - M4架构的微控制器STM32F429,核心时钟频率最高可达180 MHz,具有64 MB RAM和2 GB Flash,满足要求。电压信号通过电力变压器采样后,发送到16位八通道AD7606的模数转换器,AD7606系统的数据速率设置为51.2 KHZ,即每圈1024个点。
不同算法在硬件数据集上的性能比较如下表所示:
| 算法 | 汉明损失↓ | 排序损失↓ | 单误差↓ | 覆盖度↓ | 平均精度↑ |
| ---- | ---- | ---- | ---- | ---- | ---- |
| HKEML | 0.0899 ± 0.0177 | 0.0509 ± 0.0113 | 0.0580 ± 0.0154 | 1.0880 ± 0.0454 | 0.9511 ± 0.0107 |
| ELM - ML | 0.1208 ± 0.0203 | 0.0705 ± 0.0045 | 0.0814 ± 0.0127 | 1.1314 ± 0.0250 | 0.9237 ± 0.0069 |
| Rank - WSVM | 0.1475 ± 0.0097 | 0.0791 ± 0.0108 | 0.1233 ± 0.0197 | 1.1827 ± 0.0550 | 0.9196 ± 0.0119 |
| MLKNN | 0.1511 ± 0.053 | 0.0773 ± 0.0105 | 0.0947 ± 0.0208 | 1.2093 ± 0.0572 | 0.9198 ± 0.0087 |
| MLNB | 0.2147 ± 0.0098 | 0.1272 ± 0.0156 | 0.2133 ± 0.0141 | 1.4333 ± 0.0812 | 0.8476 ± 0.0132 |
从表中可以明显看出,HKEML在所有评估指标上都优于其他算法,特别是在汉明损失、单误差和平均精度方面有很大的提升。
4. 结论
综上所述,提出了一种将信号分解方法S变换与流行的ELM神经网络相结合的新颖方法,用于检测和分类CPQDs。特别是在多类ELM中引入混合核函数,通过在用于多标签分类的两层ELM神经网络中应用核技巧,大大提高了性能。基于Matlab合成的广泛数据集和从三相标准源采样的信号进行的实验验证,HKEML比几种最先进的多标签算法具有更好的分类性能,且计算成本(训练时间)远低于它们。由于上述优点,该方法是CPQDs监测系统中有前景的替代方案。
基于S变换和混合核ELM的复合电能质量扰动检测与分类方法
1. 离散S变换与特征提取(续)
在离散S变换的基础上,我们进一步探讨其在特征提取方面的应用。通过S变换得到的时频矩阵,我们可以从多个维度提取特征,这些特征对于后续的电能质量扰动分类至关重要。
前面提到的十个特征,从不同角度描述了电能质量扰动的特性。例如,幅度轮廓的标准差(特征1)可以反映扰动幅度的波动情况;能量相关的特征(特征2、特征5、特征6 - 10)则体现了扰动在不同频率和轮廓级别上的能量分布。这些特征的综合利用,能够更全面地刻画电能质量扰动的特征,为准确分类提供有力支持。
2. HKEML算法详解(续)
2.1 基于混合核函数的多类ELM(续)
在构建混合核函数时,我们选择了多项式核和RBF核。这两种核函数的组合,充分发挥了全局核和局部核的优势。具体操作步骤如下:
1. 确定多项式核和RBF核的参数:对于多项式核 (K_{POLY} (x, x_i) = (\langle x \cdot x_i\rangle + 1)^d) ,需要确定多项式的次数 (d) ;对于RBF核 (K_{RBF} (x, x_i) = \exp\left(-\frac{|x - x_i|^2}{2\sigma^2}\right)) ,需要确定宽度 (\sigma) 。
2. 引入系数 (\lambda) :通过凸组合的方式,将多项式核和RBF核组合成混合核函数 (K_H = \lambda K_{RBF} + (1 - \lambda) K_{POLY}, \lambda \in (0, 1)) 。在实际应用中,需要通过实验或优化算法来确定 (\lambda) 的最优值,以达到最佳的分类性能。
下面是一个简单的代码示例,展示如何在Python中实现混合核函数:
import numpy as np
def poly_kernel(x1, x2, d):
return (np.dot(x1, x2) + 1) ** d
def rbf_kernel(x1, x2, sigma):
return np.exp(-np.linalg.norm(x1 - x2) ** 2 / (2 * sigma ** 2))
def hybrid_kernel(x1, x2, d, sigma, lambda_):
poly = poly_kernel(x1, x2, d)
rbf = rbf_kernel(x1, x2, sigma)
return lambda_ * rbf + (1 - lambda_) * poly
2.2 基于核ELM的阈值函数学习(续)
在计算阈值 (Thd (x_i)) 时,我们需要先根据训练的目标二进制向量得到 (Tr (x_i)) 和 (T_{ir} (x_i)) ,然后按照公式 (Thd (x_i) = \frac{\max (T_{ir} (x_i)) + \min (Tr (x_i))}{2}) 进行计算。具体操作步骤如下:
1. 训练目标二进制向量:根据训练数据,确定每个实例对应的目标二进制向量。
2. 计算 (Tr (x_i)) 和 (T_{ir} (x_i)) :根据训练结果,得到 (Tr (x_i)) 和 (T_{ir} (x_i)) 的值。
3. 计算阈值 (Thd (x_i)) :将 (Tr (x_i)) 和 (T_{ir} (x_i)) 的最大值和最小值代入公式,计算阈值。
下面是一个简单的代码示例,展示如何在Python中实现阈值计算:
def calculate_threshold(Tr, Tir):
return (max(Tir) + min(Tr)) / 2
3. 实验部分(续)
3.1 Matlab合成数据集性能比较(续)
在Matlab合成数据集的实验中,我们已经看到了HKEML在不同信噪比下的性能表现。为了更直观地展示HKEML与其他算法的性能差异,我们可以绘制折线图。以下是使用Python的Matplotlib库绘制折线图的代码示例:
import matplotlib.pyplot as plt
import numpy as np
# 汉明损失数据
snr = [20, 30, 40, 50]
hkeml_hamming = [0.1795, 0.1599, 0.1624, 0.1694]
elm_ml_hamming = [0.2059, 0.2052, 0.2061, 0.2047]
plt.plot(snr, hkeml_hamming, label='HKEML')
plt.plot(snr, elm_ml_hamming, label='ELM - ML')
plt.xlabel('SNR (dB)')
plt.ylabel('Hamming Loss')
plt.title('Hamming Loss Comparison')
plt.legend()
plt.show()
通过折线图,我们可以更清晰地看到HKEML在汉明损失方面的优势,随着信噪比的变化,HKEML的汉明损失始终低于ELM - ML。
3.2 硬件数据集性能比较(续)
在硬件数据集的实验中,HKEML在所有评估指标上都表现出色。为了进一步分析其性能优势,我们可以计算不同算法在各指标上的提升百分比。以下是计算提升百分比的公式和代码示例:
提升百分比公式:(\text{提升百分比} = \frac{\text{对比算法指标值} - \text{HKEML指标值}}{\text{对比算法指标值}} \times 100\%)
# 以汉明损失为例
algorithms = ['ELM - ML', 'Rank - WSVM', 'MLKNN', 'MLNB']
hamming_loss = [0.1208, 0.1475, 0.1511, 0.2147]
hkeml_hamming_loss = 0.0899
for i in range(len(algorithms)):
improvement = ((hamming_loss[i] - hkeml_hamming_loss) / hamming_loss[i]) * 100
print(f'{algorithms[i]}在汉明损失上的提升百分比: {improvement:.2f}%')
通过计算提升百分比,我们可以更直观地看到HKEML在硬件数据集上相对于其他算法的性能优势。
4. 总结与展望
本文提出的基于S变换和混合核ELM的方法,在复合电能质量扰动检测与分类方面表现出了显著的优势。通过实验验证,HKEML算法在分类性能和计算效率上都优于几种最先进的多标签算法。
在未来的研究中,我们可以进一步优化混合核函数的参数选择,以提高算法的性能。此外,可以考虑将该方法应用于更复杂的电能质量监测场景,如分布式能源系统中的电能质量监测。同时,结合深度学习等其他技术,进一步提升电能质量扰动分类的准确性和鲁棒性。
以下是一个mermaid流程图,展示未来研究的可能方向:
graph LR
A[现有方法] --> B[优化混合核函数参数]
A --> C[应用于复杂场景]
A --> D[结合深度学习技术]
B --> E[提高算法性能]
C --> F[适应复杂监测需求]
D --> G[提升分类准确性和鲁棒性]
通过不断的研究和改进,我们相信该方法将在电能质量监测领域发挥更大的作用,为电力系统的稳定运行提供有力保障。
S变换与混合核ELM的电能质量分类
超级会员免费看
1006

被折叠的 条评论
为什么被折叠?



