上一节介绍了吞吐和延时这两个评价神经网络模型性能的指标。
这一节利用这两个参数,来实际评测一下我们自己手写的模型的性能到底如何?
注:因为代码是跑在自己的电脑上,大家基本也都是CPU环境,即使是相同的代码,在不同的电脑上运行得出的性能指标也会有较大差异。差异主要来源于电脑配置以及运行负载。建议自己测试性能时,将其他无关程序都关闭,最大程度上保证自己性能测试的环境一致性。
吞吐和延时的计算公式
延时 Latency:预测一张图片花费的时间,单位(ms),因此,延时计算公式为:
Latency = total_time / N
其中, N 为预测的图片张数,total_time 为预测 N 张图片的总时间,单位为 ms。
吞吐 Throughput: 单位时间内(1秒钟)可以处理的图片数。因此,吞吐的计算公式为:
Throughput = (1000 / Latency)
注:吞吐和延时的详细关系,查看上一节内容,在我们的这个推理的例子里,两者可以利用上面的公式来计算。
预测下我们手写的模型性能
我在 python/infer.py 文件中,增加了计算吞吐和延时的逻辑,如下图红框标注所示。
本文通过吞吐和延时两个关键指标,评估自定义Python神经网络模型的性能。介绍了计算公式,并建议在纯净环境下进行性能测试。文中提到未优化模型可能耗时数十分钟至数小时,而优化后的模型推理时间控制在1分钟以内,后续章节将重点讨论性能优化。
订阅专栏 解锁全文

被折叠的 条评论
为什么被折叠?



