7月28日,智谱AI发布新一代旗舰模型 GLM-4.5,昇思MindSpore通过提供主流生态接口,依托MindSpore Transformers套件和MindSpore-vLLM插件,小时级完成模型无缝迁移,并将版本上传至开源社区,欢迎广大开发者下载体验!
MindSpore Transformers代码仓:https://gitee.com/mindspore/mindformers
MindSpore-vLLM代码仓:
https://gitee.com/mindspore/vllm-mindspore
链接地址:
魔乐社区
魔乐社区(Modelers.cn)是一个中立、公益的人工智能社区,提供人工智能工具、模型、数据的托管、展示与应用协同服务,为人工智能开发及爱好者搭建开放的学习交流平台。社区通过理事会方式运作,由全产业链共同建设、共同运营、共同享有,推动国产AI生态繁荣发展。
魔乐社区
魔乐社区(Modelers.cn)是一个中立、公益的人工智能社区,提供人工智能工具、模型、数据的托管、展示与应用协同服务,为人工智能开发及爱好者搭建开放的学习交流平台。社区通过理事会方式运作,由全产业链共同建设、共同运营、共同享有,推动国产AI生态繁荣发展。
衡量 AGI 的第一性原理,是在不损失原有能力的前提下融合更多通用智能能力,GLM-4.5 是对此理念的首次完整呈现,并有幸取得技术突破。GLM-4.5 首次在单个模型中实现将推理、编码和智能体能力原生融合,以满足智能体应用的复杂需求。
为综合衡量模型的通用能力,智谱选择了最具有代表性的 12 个评测基准,包括 MMLU Pro、AIME 24、MATH 500、SciCode、GPQA 、HLE、LiveCodeBench、SWE-Bench Verified、Terminal-Bench、TAU-Bench、BFCL v3 和 BrowseComp。综合平均分,GLM-4.5 取得了全球模型第三、国产模型第一,开源模型第一。
GLM-4.5 和 GLM-4.5-Air 使用了相似的训练流程:首先在 15 万亿 token 的通用数据上进行了预训练,此后在代码、推理、智能体等领域的 8 万亿 token 数据上进行针对性训练,最后通过强化学习进一步增强模型推理、代码与智能体能力。
# 01
GLM-4.5 vllm-mindspore 推理指南
1、下载链接
魔乐社区:魔乐社区
2、模型分别下载到2台服务器,存放路径保持一致。
执行以下命令为2台服务器上的自定义下载路径 /mnt/data/GLM-4.5 添加白名单:
export HUB_WHITE_LIST_PATHS=/mnt/data/GLM-4.5
执行以下命令从魔乐社区下载GLM-4.5权重文件至指定路径 /mnt/data/GLM-4.5。2台服务器分别下载,都需要占用约 740GB 的磁盘空间:
pip install openmind_hub
from openmind_hub import snapshot_download
snapshot_download(
repo_id="MindSpore-Lab/GLM-4.5",
local_dir="/mnt/data/GLM-4.5",
local_dir_use_symlinks=False
)
exit()
注意事项:
- /mnt/data/GLM-4.5 可修改为自定义路径,确保2台服务器的该路径有足够的磁盘空间。
- 下载时间可能因网络环境而异,建议在稳定的网络环境下操作。
3、快速开始
GLM-4.5推理需要2台(16卡)Atlas 800T/800I A2(64G)服务器服务器(基于BF16权重)。 两台服务器需要提前配置好组网环境,两台设备的卡与卡之间能够互相ping通。 昇思MindSpore提供了GLM-4.5推理可用的Docker容器镜像,供开发者快速体验。
3.1 2台服务器分别停止其他进程,避免服务器中其他进程影响
pkill -9 python
pkill -9 mindie
pkill -9 ray
3.2 2台服务器分别下载昇思 MindSpore 推理容器镜像
执行以下 Shell 命令,拉取昇思 MindSpore GLM-4.5推理容器镜像:
docker pull swr.cn-central-221.ovaijisuan.com/mindformers/glm4.5moe-infer:20250728
3.3 启动容器
2台服务器分别执行以下命令创建并启动容器(/mnt/data/GLM-4.5用于存放权重路径,若没有/mnt盘则要修改)。
2台服务器执行命令的区别在于,hostname需要不同。
docker run -it \
--privileged \
--name=GLM-4.5 \
--net=host \
--cap-add=SYS_PTRACE \
--security-opt seccomp=unconfined \
--hostname=worker2 \
--device=/dev/davinci0 \
--device=/dev/davinci1 \
--device=/dev/davinci2 \
--device=/dev/davinci3 \
--device=/dev/davinci4 \
--device=/dev/davinci5 \
--device=/dev/davinci6 \
--device=/dev/davinci7 \
--device=/dev/davinci_manager \
--device=/dev/hisi_hdc \
--device=/dev/devmm_svm \
--device=/dev/davinci_manager \
-v /usr/local/Ascend/add-ons/:/usr/local/Ascend/add-ons/ \
-v /usr/local/Ascend/driver/:/usr/local/Ascend/driver/ \
-v /usr/local/sbin:/usr/local/sbin \
-v /etc/hccn.conf:/etc/hccn.conf \
-v /mnt/data/GLM-4.5/:/mnt/data/GLM-4.5/ \
swr.cn-central-221.ovaijisuan.com/mindformers/glm4.5moe-infer:20250728 \
/bin/bash
注意事项:
- 后续操作,除了发起推理请求可以在容器外进行,其余操作均在容器内进行。
4、服务化部署
4.1 添加环境变量
在2台服务器中都添加如下环境变量:
export vLLM_MODEL_BACKEND=MindFormers export ASCEND_TOTAL_MEMORY_GB=64
4.2 2台设备设置主机和辅机,通过ray进程关联
选择一台设备作为主节点,执行如下命令 ray stop ray start --head --port=6380。
另一台设备作为辅节点,依次执行如下命令 ray stop ray start --address=主节点IP:6380。
4.3 拉起服务
在主节点容器中拉起服务。355b至少需要16张卡,所以tensor_parallel_size=16
python3 -m vllm_mindspore.entrypoints vllm.entrypoints.openai.api_server --model "/mnt/data/GLM-4.5" --trust_remote_code --tensor_parallel_size=16 --max-num-seqs=192 --max_model_len=32768 --max-num-batched-tokens=16384 --block-size=32 --gpu-memory-utilization=0.93 --distributed-executor-backend=ray
4.4 执行推理请求测试
打开新的窗口,执行以下命令发送推理请求测试。
curl http://localhost:8000/v1/chat/completions -H "Content-Type: application/json" -d '{
"model": "/mnt/data/GLM-4.5",
"messages": [
{"role": "user", "content": "介绍一下北京"}
],
"temperature": 0.6,
"top_p": 0.95,
"top_k": 20,
"min_p": 0,
"max_tokens": 8192,
"presence_penalty": 1.05,
"chat_template_kwargs": {"enable_thinking": true}
}'
# 02
GLM-4.5-Air vllm-mindspore 推理指南
1、下载链接
魔乐社区:魔乐社区
2、模型分别下载到2台服务器,存放路径保持一致。
执行以下命令为自定义下载路径 /mnt/data/GLM-4.5-Air 添加白名单:
export HUB_WHITE_LIST_PATHS=/mnt/data/GLM-4.5-Air
执行以下命令从魔乐社区下载GLM-4.5-Air权重文件至指定路径 /mnt/data/GLM-4.5-Air 。2台服务器分别下载,都需要占用约 220GB 的磁盘空间:
pip install openmind_hub
from openmind_hub import snapshot_download
snapshot_download(
repo_id="MindSpore-Lab/GLM-4.5-Air",
local_dir="/mnt/data/GLM-4.5-Air",
local_dir_use_symlinks=False
)
exit()
注意事项:
- /mnt/data/GLM-4.5-Air 可修改为自定义路径,确保该路径有足够的磁盘空间。
- 下载时间可能因网络环境而异,建议在稳定的网络环境下操作。
3、快速开始
GLM-4.5-Air推理需要1台(8卡)Atlas 800T/800I A2(64G)服务器服务器(基于BF16权重)。昇思MindSpore提供了GLM-4.5-Air推理可用的Docker容器镜像,供开发者快速体验。
3.1 停止其他进程,避免服务器中其他进程影响
pkill -9 python
pkill -9 mindie
pkill -9 ray
3.2 下载昇思 MindSpore 推理容器镜像
执行以下 Shell 命令,拉取昇思 MindSpore GLM-4.5-Air推理容器镜像:
docker pull swr.cn-central-221.ovaijisuan.com/mindformers/glm4.5moe-infer:20250728
3.3 启动容器
执行以下命令创建并启动容器(/mnt/data/GLM-4.5-Air用于存放权重路径,若没有/mnt盘则要修改):
docker run -it \
--privileged \
--name=GLM-4.5-Air \
--net=host \
--cap-add=SYS_PTRACE \
--security-opt seccomp=unconfined \
--device=/dev/davinci0 \
--device=/dev/davinci1 \
--device=/dev/davinci2 \
--device=/dev/davinci3 \
--device=/dev/davinci4 \
--device=/dev/davinci5 \
--device=/dev/davinci6 \
--device=/dev/davinci7 \
--device=/dev/davinci_manager \
--device=/dev/hisi_hdc \
--device=/dev/devmm_svm \
--device=/dev/davinci_manager \
-v /usr/local/Ascend/add-ons/:/usr/local/Ascend/add-ons/ \
-v /usr/local/Ascend/driver/:/usr/local/Ascend/driver/ \
-v /usr/local/sbin:/usr/local/sbin \
-v /etc/hccn.conf:/etc/hccn.conf \
-v /mnt/data/GLM-4.5-Air/:/mnt/data/GLM-4.5-Air/ \
swr.cn-central-221.ovaijisuan.com/mindformers/glm4.5moe-infer:20250728 \
/bin/bash
注意事项:
- 后续操作,除了发起推理请求可以在容器外进行,其余操作均在容器内进行。
4、服务化部署
4.1 添加环境变量
在服务器中都添加如下环境变量:
export vLLM_MODEL_BACKEND=MindFormers export ASCEND_TOTAL_MEMORY_GB=64
4.2 拉起服务
执行以下命令拉起服务:
python3 -m vllm_mindspore.entrypoints vllm.entrypoints.openai.api_server --model "/mnt/data/GLM-4.5-Air" --trust_remote_code --tensor_parallel_size=8 --max-num-seqs=192 --max_model_len=32768 --max-num-batched-tokens=16384 --block-size=32 --gpu-memory-utilization=0.93
4.3 执行推理请求测试
打开新的窗口,执行以下命令发送推理请求测试。
curl http://localhost:8000/v1/chat/completions -H "Content-Type: application/json" -d '{
"model": "/mnt/data/GLM-4.5-Air",
"messages": [
{"role": "user", "content": "介绍一下北京"}
],
"temperature": 0.6,
"top_p": 0.95,
"top_k": 20,
"min_p": 0,
"max_tokens": 8192,
"presence_penalty": 1.05,
"chat_template_kwargs": {"enable_thinking": true}
}'