大模型
文章平均质量分 93
Won9yIFan
一个正在慢慢变厉害的小程序猿:)
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
「模型部署系列」ubuntu 使用vllm部署MiniCPM-o-2_6多模态模型
ubuntu 使用vllm部署MiniCPM-o-2_6多模态模型原创 2025-05-07 19:42:27 · 2770 阅读 · 0 评论 -
「模型部署系列」ubuntu 使用vllm部署Qwen3-8B模型
解决这个问题的方法正如错误信息中所提示的,需要在命令行中显式地设置。下载单个文件到指定本地文件夹(以下载README.md到当前路径下“dir”目录为例)解决:这表明你正在使用的 Tesla T4 GPU 的计算能力为 7.5,而。,用于获取更详细的 NCCL 调试信息,当所有其他问题排除,可尝试增加。1、下载vllm v0.8.5(此处已经下好了,去仓库拉资源)在下载前,请先通过如下命令安装ModelScope。,这一错误最终致使引擎进程启动失败。更多更丰富的命令行下载选项,可参见。原创 2025-05-06 22:07:07 · 4567 阅读 · 0 评论
分享