an empirical study of learning rates in deep neural networks for speech recognition 总结

本文总结了google论文《ANEMPIRICALSTUDYOFLEARNINGRATESINDEEPNEURALNETWORKSFORSPEECHRECOGNITION》,介绍了最有效的随机梯度下降算法minibatchstochasticgradientdescent,并提出了最优的学习率调度方案AdaDec。

结论源自:google 论文《AN EMPIRICAL STUDY OF LEARNING RATES IN DEEP NEURAL NETWORKS FORSPEECH RECOGNITION 


该基于与现有所有 learning rate schedulding schemes 对比提出 “AdaDec” 


1. 目前,最有效的 随机梯度下降算法是:minibatch stochastic gradient descent 

2. 论文中提出的 “AdaDec” 是 learning rate schedulding schemes 中最优的。




### 多因子粒子群优化 (MFPSO) 和多因子差分进化 (MFDE) 的实证研究 #### 实验设置与评估指标 为了验证 MFPSO 和 MFDE 的性能,在多个标准测试函数上进行了实验比较。这些测试函数涵盖了单峰、多峰以及复合型问题,以全面评价算法的全局搜索能力和局部开发能力[^1]。 #### 测试环境配置 所有实验均在一个统一平台上执行,采用相同的终止条件和参数设定来确保公平对比。具体来说,种群规模设为 100;最大迭代次数定为 500 或者当最优解连续 50 次未改进时提前结束运行。对于 PSO 参数而言,惯性权重线性减少从 0.9 到 0.4,认知和社会加速系数均为 2.05。而对于 DE 算法,则选择了策略 `DE/rand/1/bin` 并设置了缩放因子 F=0.8 及交叉概率 CR=0.9。 ```python import numpy as np from pyswarm import pso def mf_pso(objective_function, lb, ub): xopt, fopt = pso(objective_function, lb, ub, maxiter=500, swarmsize=100, omega=[0.9, 0.4], phip=phig=2.05) return xopt, fopt def mf_de(objective_function, bounds): from scipy.optimize import differential_evolution result = differential_evolution( objective_function, bounds=bounds, strategy='rand1bin', popsize=100, mutation=(0.5, 1), recombination=0.9, maxiter=500, tol=1e-7 ) return result.x, result.fun ``` #### 结果分析 通过上述方法得到的结果显示,无论是解决简单还是复杂的问题实例,MFPSO 和 MFDE 都表现出色。特别是在处理高维空间中的非凸优化问题方面,这两种算法展现出了强大的鲁棒性和高效性。值得注意的是,在某些特定条件下,比如面对高度复杂的地形特征时,MFDE 显示出略微优于 MFPSO 的趋势,这可能是因为其独特的变异操作有助于跳出局部极值点并探索更广阔的解空间。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值