PyTorch Serve: 用于生产环境中优化和扩展PyTorch模型的开源工具

PyTorch Serve: 用于生产环境中优化和扩展PyTorch模型的开源工具

【免费下载链接】serve Serve, optimize and scale PyTorch models in production 【免费下载链接】serve 项目地址: https://gitcode.com/gh_mirrors/serv/serve

PyTorch Serve 是一个由 PyTorch 团队开发的开源项目,旨在帮助开发者们在生产环境中优化和扩展 PyTorch 模型。该项目主要使用 Python 编程语言,并提供了对 CUDA 的支持以利用 GPU 加速。

核心功能

PyTorch Serve 的核心功能包括:

  • 模型服务:将 PyTorch 模型部署为 REST 或 gRPC API,方便在生产环境中进行推理。
  • 模型管理:支持多模型管理,优化工作节点到模型的分配。
  • 性能优化:提供内置的支持来优化、基准测试和剖析 PyTorch 和 TorchServe 的性能。
  • 灵活的扩展性:支持在 CPU 和 GPU 上进行推理,并兼容 AWS Inf1/Inf2/Trn1、Google Cloud TPUs 和 Nvidia MPS 等硬件。
  • 监控与自动化:支持使用 Prometheus 进行系统级监控,并可通过 Grafana 进行可视化。

最近更新的功能

根据项目最近的更新,以下是一些新加入的功能和改进:

  • 安全性增强:默认启用 Token 授权并禁用模型 API 控制,以防止未授权的 API 调用和潜在的恶意代码引入。
  • LLM 引擎支持:增加了对大型语言模型的支持,例如 Meta Llama 模型,并提供了相应的部署指南。
  • 性能优化:通过连续批处理和流式响应等机制提高了模型推理的性能。
  • 更好的集成:与 HuggingFace Transformers 的集成更加紧密,支持更好的转换器模型和注意力机制。

通过这些更新,PyTorch Serve 进一步提升了其在生产环境中部署 PyTorch 模型的便利性和性能。

【免费下载链接】serve Serve, optimize and scale PyTorch models in production 【免费下载链接】serve 项目地址: https://gitcode.com/gh_mirrors/serv/serve

创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值