带ELM层的SNN用于鲁棒语音数字识别
1. 输出层训练:通过熵最小化
在训练过程的每次迭代中,将所有以脉冲编码的训练发音输入到SNN中。通过固定随机层ELL对这些脉冲进行投影,使得下一层的权重更新可以通过迭代过程完成。当呈现一个发音时,它会在层I的神经元输出处产生一系列脉冲 $(S_i[n])$。这些脉冲序列 $(S_i[n])$ 会在传播延迟中分布,然后进入输出层J的神经元。以下是相关公式:
- 公式(6):$u_j[n] = \sum_{i=1}^{M} \sum_{k=1}^{K} W_{i,j}^{k} \sum_{\tau=0}^{\infty} S_i[n] h[n - \tau - d_k]$
- 公式(7):$u_j[n] = \sum_{i=1}^{M} \sum_{k=1}^{K} W_{i,j}^{k} R_{i,k}[n]$
其中,$R_{i,k}[n] = \sum_{\tau=0}^{\infty} S_i[n] h[n - \tau - d_k]$ 是输出层中任何神经元对层I中第i个神经元以第k个延迟发出的脉冲序列的无权重响应。对于训练词集W中的每个数字w,第二层的输入数据由 $M \times K$ 个响应 $R_{i,k}^{w}[n]$ 组成,这些响应将用于描述权重更新函数。端点 $n^ $ 定义为数字w在层I中产生最后一个脉冲的时刻,即:
- 公式(8):$n^ = \max {n | S_i[n] = 1}$
考虑端点 $n^ $,可以定义 $R_{i,k}^{w}[n^ ] = R_{i,k}^{w}$。接下来,仅考虑每个数字w发音的端点进行训练。对于每个数字,仅使用输出神
超级会员免费看
订阅专栏 解锁全文
1551

被折叠的 条评论
为什么被折叠?



