- 博客(10)
- 收藏
- 关注
原创 45分钟从零搭建私有MaaS平台和生产级的Qwen3模型服务
在 45 分钟内搭建 GPUStack 模型服务平台并运行生产级的 Qwen3 模型服务。
2025-04-29 16:54:31
684
原创 GPUStack v0.6超重磅更新:vLLM多机分布式、昇腾MindIE、模型兼容性检测、模型故障自动恢复,上百项增强打造最好用的模型推理平台
打造业界最好用的模型推理平台。
2025-04-28 10:05:26
1280
原创 GPUStack v0.5:模型Catalog、图生图功能上线,多维优化全面提升产品能力与使用体验
模型管理、调度优化、扩展集成,全方位提升GPUStack的产品功能、使用体验与集成能力。
2025-01-24 12:01:05
1880
1
原创 GPUStack v0.4:文生图模型、语音模型、推理引擎版本管理、离线支持和部署本地模型
千呼万唤,GPUStack 迄今最受用户关注、超多新功能的版本重磅发布!
2024-12-09 09:39:52
1384
原创 配置NVIDIA Container Runtime和容器运行GPUStack教程
配置 NVIDIA 容器运行时环境并使用容器方式运行 GPUStack 的操作教程
2024-11-19 10:46:41
1717
原创 RAG三件套运行的新选择 - GPUStack
安装 GPUStack 和 Dify,并使用 Dify 来对接 GPUStack 部署的对话模型、Embedding 模型和 Reranker 模型。
2024-11-12 09:53:30
1125
原创 制作并量化GGUF模型上传到HuggingFace和ModelScope
使用 llama.cpp 制作并量化 GGUF 模型,并将模型上传到 HuggingFace 和 ModelScope 模型仓库
2024-11-07 09:25:49
1110
原创 在昇腾Ascend 910B上运行Qwen2.5推理
使用 GPUStack 在昇腾 Ascend 910B 上运行 Qwen2.5 全系列的推理性能表现
2024-11-04 09:53:04
1601
原创 GPUStack 0.2:开箱即用的分布式推理、CPU推理和调度策略
单机多卡分布式推理、跨主机分布式推理、CPU 推理、各种调度策略,你想要的全都有
2024-09-19 09:44:18
1544
1
原创 GPUStack正式发布: 为大模型而生的开源GPU集群管理器
GPUStack 正式发布并开源,一个用于运行 LLM(大型语言模型)的开源 GPU 集群管理器。
2024-07-26 15:05:26
3156
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人