公元2015年11月24日。雨。

这两天在测试一个项目的性能。

现在还是入门级别地使用LoadRunner。

这个项目其实没有很大的特别之处,从app端传数据给sever端。

测试的是接口之处。

算是一个练手。

但是进度被停滞了。

一方面是因为相关联的系统服务器uat环境比较差,一个cpu,内存3G,应该造不成什么压力的场景,服务器就已经撑不住了。

另一方面是用LR压测的时候,有两个现象:单用户迭代25次的时候,一开始就报错;响应时间也不正常的长。


前者我有点知道是怎么回事。一开始就报错,报的是Step download timeout。

在脚本编写的时候有几个version字段,这几个字段是分别判断版本,如果请求中的版本不等于当前版本,那么就会自动下载新版本,应该是由此引起的。

将version字段修改成当前的版本,即可。


至于响应时间,我不确定生产环境是怎么样的,询问了一下开发他们也是没有做过调研,怀疑是本身响应时间就会那么长导致的。具体的还在查。


关于压测环境,有条件的话还是要和生产环境差不多,相差太多,测试出来的数据并不能体现真实的吞吐水平。

但是公司好的服务器基本都分配给了大项目,(╯▽╰ )我们也无可奈何。

想到的唯一方案是性能测试组自己去申请好的服务器,让项目组过来部署。(在我写这篇的文章的时候,这个方案已经被枪决了。)

服务器好差真的很重要。

之前有一个项目,在uat上测试,服务器是新申请的,8核16G应该算是不错了。

正好也巧,生产服务器需要搬迁,可以在搬迁前测试一下新的服务器,生产环境最差的配置就是12核16G,并且是memcache单独一台,HAproxy一台,还有3-5台不低于前面的配置。

测试出来可想而知了。差距太大了。╮( ̄▽ ̄")╭ 


感觉当前的性能测试意义不大。

好像是各个步骤都做了,但是改进的东西很少或者即使有问题,也不改,呵呵。

不过也是因为自己刚开始,无法让开发信服。还需要继续努力。


内容概要:本文介绍了基于贝叶斯优化的CNN-LSTM混合神经网络在时间序列预测中的应用,并提供了完整的Matlab代码实现。该模型结合了卷积神经网络(CNN)在特征提取方面的优势与长短期记忆网络(LSTM)在处理时序依赖问题上的强大能力,形成一种高效的混合预测架构。通过贝叶斯优化算法自动调参,提升了模型的预测精度与泛化能力,适用于风电、光伏、负荷、交通流等多种复杂非线性系统的预测任务。文中还展示了模型训练流程、参数优化机制及实际预测效果分析,突出其在科研与工程应用中的实用性。; 适合人群:具备一定机器学习基基于贝叶斯优化CNN-LSTM混合神经网络预测(Matlab代码实现)础和Matlab编程经验的高校研究生、科研人员及从事预测建模的工程技术人员,尤其适合关注深度学习与智能优化算法结合应用的研究者。; 使用场景及目标:①解决各类时间序列预测问题,如能源出力预测、电力负荷预测、环境数据预测等;②学习如何将CNN-LSTM模型与贝叶斯优化相结合,提升模型性能;③掌握Matlab环境下深度学习模型搭建与超参数自动优化的技术路线。; 阅读建议:建议读者结合提供的Matlab代码进行实践操作,重点关注贝叶斯优化模块与混合神经网络结构的设计逻辑,通过调整数据集和参数加深对模型工作机制的理解,同时可将其框架迁移至其他预测场景中验证效果。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值