使用Hummingbird加速Prophet时间序列预测模型

使用Hummingbird加速Prophet时间序列预测模型

hummingbird Hummingbird compiles trained ML models into tensor computation for faster inference. hummingbird 项目地址: https://gitcode.com/gh_mirrors/hu/hummingbird

引言

时间序列预测是数据分析中的重要任务,Prophet是Facebook开发的一款流行的时间序列预测工具。然而,随着数据量的增长和实时预测需求的提升,传统Python实现的Prophet模型可能面临性能瓶颈。本文将介绍如何利用Hummingbird项目将Prophet模型转换为高性能的PyTorch或ONNX模型,显著提升预测速度。

Hummingbird简介

Hummingbird是一个将传统机器学习模型转换为张量计算框架(如PyTorch、ONNX等)的工具。它能够将scikit-learn、XGBoost等传统ML模型转换为基于张量计算的实现,从而:

  1. 利用GPU加速计算
  2. 获得更高效的预测性能
  3. 实现模型在不同平台间的无缝部署

环境准备

首先需要安装必要的库:

import pandas as pd
import numpy as np
from prophet import Prophet
import hummingbird.ml

构建Prophet模型

我们使用Prophet提供的示例数据集进行演示:

# 读取数据并训练Prophet模型
DATA = "example_wp_log_peyton_manning.csv"
df = pd.read_csv(DATA)

model = Prophet()
model.fit(df)

这里Prophet会自动处理时间序列数据,构建预测模型。默认情况下,Prophet会禁用日季节性,除非显式设置daily_seasonality=True

使用Hummingbird转换模型

将训练好的Prophet模型转换为PyTorch模型非常简单:

# 转换为PyTorch模型
hb_model = hummingbird.ml.convert(model, "torch")

这一转换过程保留了原始模型的所有预测能力,但底层实现变为了基于PyTorch的张量计算。

预测性能对比

生成未来时间数据

# 生成未来365天的日期数据
future = model.make_future_dataframe(periods=365)

原始Prophet预测

prophet_trend = model.predict(future)["trend"]

Hummingbird转换后预测

hb_trend = hb_model.predict(future)

验证预测一致性

np.testing.assert_allclose(prophet_trend, hb_trend, rtol=1e-06, atol=1e-06)

这个断言验证了Hummingbird转换后的模型与原始Prophet模型的预测结果在数值上是等效的。

性能基准测试

我们对两种实现进行了性能测试:

原始Prophet模型预测时间:

6.26 ms ± 61.9 µs per loop

Hummingbird转换后预测时间:

5.77 ms ± 70.6 µs per loop

可以看到,即使是CPU上的PyTorch实现,Hummingbird转换后的模型也有轻微的性能提升。

ONNX模型转换

Hummingbird还支持将模型转换为ONNX格式,便于跨平台部署:

# 将日期转换为数值格式
future_np = (future.values - np.datetime64("1970-01-01T00:00:00.000000000")).astype(np.int64) / 1000000000

# 转换为ONNX模型
hb_onnx_model = hummingbird.ml.convert(model, "onnx", future_np)

ONNX模型的预测性能:

10.7 ms ± 72.9 µs per loop

GPU加速

Hummingbird转换后的PyTorch模型可以直接部署到GPU上:

# 将模型移至GPU
hb_model.to('cuda')

GPU上的预测性能:

11.7 ms ± 72.6 µs per loop

在这个简单示例中,GPU加速效果不明显,但对于更复杂的模型和更大的数据集,GPU通常会带来显著的性能提升。

实际应用建议

  1. 数据规模:对于小型数据集,原始Prophet可能足够快;对于大型数据集或需要实时预测的场景,Hummingbird转换更有价值。

  2. 部署环境:如果需要跨平台部署或与现有深度学习管道集成,ONNX格式是更好的选择。

  3. 硬件利用:如果有GPU资源,转换后的模型可以充分利用硬件加速。

  4. 模型复杂度:对于包含复杂季节性模式和节假日效应的Prophet模型,Hummingbird的性能优势会更明显。

结论

通过Hummingbird将Prophet模型转换为PyTorch或ONNX实现,我们获得了:

  1. 与原始模型等效的预测能力
  2. 轻微但一致的CPU性能提升
  3. GPU加速的可能性
  4. 更好的模型部署灵活性

这种方法特别适合需要高频预测或处理大规模时间序列数据的应用场景。虽然本文以Prophet为例,但Hummingbird同样适用于其他传统机器学习模型的加速和部署优化。

hummingbird Hummingbird compiles trained ML models into tensor computation for faster inference. hummingbird 项目地址: https://gitcode.com/gh_mirrors/hu/hummingbird

创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

滑姗珊

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值