这个问题我在vllm上部署deepseek时就遇到过,解决办法一样,找到模型文件目录中的tokenizer_config.json,把里面think删掉就可以了
修改前:

修改后:

效果:

这个问题我在vllm上部署deepseek时就遇到过,解决办法一样,找到模型文件目录中的tokenizer_config.json,把里面think删掉就可以了
修改前:

修改后:

效果:

您可能感兴趣的与本文相关的镜像
Vllm-v0.11.0
vLLM是伯克利大学LMSYS组织开源的大语言模型高速推理框架,旨在极大地提升实时场景下的语言模型服务的吞吐与内存使用效率。vLLM是一个快速且易于使用的库,用于 LLM 推理和服务,可以和HuggingFace 无缝集成。vLLM利用了全新的注意力算法「PagedAttention」,有效地管理注意力键和值
2354

被折叠的 条评论
为什么被折叠?