昇思MindSpore开源社区上线智谱GLM-4.5与GLM-4.5-Air大模型

7月28日,智谱AI发布新一代旗舰模型 GLM-4.5,昇思MindSpore通过提供主流生态接口,依托MindSpore Transformers套件和MindSpore-vLLM插件,小时级完成模型无缝迁移,并将版本上传至开源社区,欢迎广大开发者下载体验!

MindSpore Transformers代码仓:https://gitee.com/mindspore/mindformers

MindSpore-vLLM代码仓:

https://gitee.com/mindspore/vllm-mindspore

链接地址:

modelers.cn

魔乐社区

魔乐社区(Modelers.cn)是一个中立、公益的人工智能社区,提供人工智能工具、模型、数据的托管、展示与应用协同服务,为人工智能开发及爱好者搭建开放的学习交流平台。社区通过理事会方式运作,由全产业链共同建设、共同运营、共同享有,推动国产AI生态繁荣发展。

modelers.cn

魔乐社区

魔乐社区(Modelers.cn)是一个中立、公益的人工智能社区,提供人工智能工具、模型、数据的托管、展示与应用协同服务,为人工智能开发及爱好者搭建开放的学习交流平台。社区通过理事会方式运作,由全产业链共同建设、共同运营、共同享有,推动国产AI生态繁荣发展。

衡量 AGI 的第一性原理,是在不损失原有能力的前提下融合更多通用智能能力,GLM-4.5 是对此理念的首次完整呈现,并有幸取得技术突破。GLM-4.5 首次在单个模型中实现将推理、编码和智能体能力原生融合,以满足智能体应用的复杂需求。

为综合衡量模型的通用能力,智谱选择了最具有代表性的 12 个评测基准,包括 MMLU Pro、AIME 24、MATH 500、SciCode、GPQA 、HLE、LiveCodeBench、SWE-Bench Verified、Terminal-Bench、TAU-Bench、BFCL v3 和 BrowseComp。综合平均分,GLM-4.5 取得了全球模型第三、国产模型第一,开源模型第一。

GLM-4.5 和 GLM-4.5-Air 使用了相似的训练流程:首先在 15 万亿 token 的通用数据上进行了预训练,此后在代码、推理、智能体等领域的 8 万亿 token 数据上进行针对性训练,最后通过强化学习进一步增强模型推理、代码与智能体能力。

# 01

GLM-4.5 vllm-mindspore 推理指南

1、下载链接

魔乐社区:魔乐社区

2、模型分别下载到2台服务器,存放路径保持一致。

执行以下命令为2台服务器上的自定义下载路径 /mnt/data/GLM-4.5 添加白名单:

export HUB_WHITE_LIST_PATHS=/mnt/data/GLM-4.5

执行以下命令从魔乐社区下载GLM-4.5权重文件至指定路径 /mnt/data/GLM-4.5。2台服务器分别下载,都需要占用约 740GB 的磁盘空间:

pip install openmind_hub

from openmind_hub import snapshot_download

snapshot_download(
    repo_id="MindSpore-Lab/GLM-4.5",
    local_dir="/mnt/data/GLM-4.5",
    local_dir_use_symlinks=False
)
exit()

注意事项:

  • /mnt/data/GLM-4.5 可修改为自定义路径,确保2台服务器的该路径有足够的磁盘空间。
  • 下载时间可能因网络环境而异,建议在稳定的网络环境下操作。

3、快速开始

GLM-4.5推理需要2台(16卡)Atlas 800T/800I A2(64G)服务器服务器(基于BF16权重)。 两台服务器需要提前配置好组网环境,两台设备的卡与卡之间能够互相ping通。 昇思MindSpore提供了GLM-4.5推理可用的Docker容器镜像,供开发者快速体验。

3.1 2台服务器分别停止其他进程,避免服务器中其他进程影响

pkill -9 python

pkill -9 mindie

pkill -9 ray

3.2 2台服务器分别下载昇思 MindSpore 推理容器镜像

执行以下 Shell 命令,拉取昇思 MindSpore GLM-4.5推理容器镜像:

docker pull swr.cn-central-221.ovaijisuan.com/mindformers/glm4.5moe-infer:20250728

3.3 启动容器

2台服务器分别执行以下命令创建并启动容器(/mnt/data/GLM-4.5用于存放权重路径,若没有/mnt盘则要修改)。

2台服务器执行命令的区别在于,hostname需要不同。

docker run -it \
--privileged \
--name=GLM-4.5 \
--net=host \
--cap-add=SYS_PTRACE \
--security-opt seccomp=unconfined \
--hostname=worker2 \
--device=/dev/davinci0 \
--device=/dev/davinci1 \
--device=/dev/davinci2 \
--device=/dev/davinci3 \
--device=/dev/davinci4 \
--device=/dev/davinci5 \
--device=/dev/davinci6 \
--device=/dev/davinci7 \
--device=/dev/davinci_manager \
--device=/dev/hisi_hdc \
--device=/dev/devmm_svm \
--device=/dev/davinci_manager \
-v /usr/local/Ascend/add-ons/:/usr/local/Ascend/add-ons/ \
-v /usr/local/Ascend/driver/:/usr/local/Ascend/driver/ \
-v /usr/local/sbin:/usr/local/sbin \
-v /etc/hccn.conf:/etc/hccn.conf \
-v /mnt/data/GLM-4.5/:/mnt/data/GLM-4.5/ \
swr.cn-central-221.ovaijisuan.com/mindformers/glm4.5moe-infer:20250728 \
/bin/bash

注意事项:

  • 后续操作,除了发起推理请求可以在容器外进行,其余操作均在容器内进行。

4、服务化部署

4.1 添加环境变量

在2台服务器中都添加如下环境变量:

export vLLM_MODEL_BACKEND=MindFormers export ASCEND_TOTAL_MEMORY_GB=64

4.2 2台设备设置主机和辅机,通过ray进程关联

选择一台设备作为主节点,执行如下命令 ray stop ray start --head --port=6380。

另一台设备作为辅节点,依次执行如下命令 ray stop ray start --address=主节点IP:6380。

4.3 拉起服务

在主节点容器中拉起服务。355b至少需要16张卡,所以tensor_parallel_size=16

python3 -m vllm_mindspore.entrypoints vllm.entrypoints.openai.api_server --model "/mnt/data/GLM-4.5" --trust_remote_code --tensor_parallel_size=16 --max-num-seqs=192 --max_model_len=32768 --max-num-batched-tokens=16384 --block-size=32 --gpu-memory-utilization=0.93 --distributed-executor-backend=ray

4.4 执行推理请求测试

打开新的窗口,执行以下命令发送推理请求测试。

curl http://localhost:8000/v1/chat/completions -H "Content-Type: application/json" -d '{
  "model": "/mnt/data/GLM-4.5",
  "messages": [
    {"role": "user", "content": "介绍一下北京"}
  ],
  "temperature": 0.6,
  "top_p": 0.95,
  "top_k": 20,
  "min_p": 0,
  "max_tokens": 8192,
  "presence_penalty": 1.05,
  "chat_template_kwargs": {"enable_thinking": true}
}'

# 02

GLM-4.5-Air vllm-mindspore 推理指南

1、下载链接

魔乐社区:魔乐社区

2、模型分别下载到2台服务器,存放路径保持一致。

执行以下命令为自定义下载路径 /mnt/data/GLM-4.5-Air 添加白名单:

export HUB_WHITE_LIST_PATHS=/mnt/data/GLM-4.5-Air

执行以下命令从魔乐社区下载GLM-4.5-Air权重文件至指定路径 /mnt/data/GLM-4.5-Air 。2台服务器分别下载,都需要占用约 220GB 的磁盘空间:

pip install openmind_hub

from openmind_hub import snapshot_download

snapshot_download(
    repo_id="MindSpore-Lab/GLM-4.5-Air",
    local_dir="/mnt/data/GLM-4.5-Air",
    local_dir_use_symlinks=False
)
exit()

注意事项:

  • /mnt/data/GLM-4.5-Air 可修改为自定义路径,确保该路径有足够的磁盘空间。
  • 下载时间可能因网络环境而异,建议在稳定的网络环境下操作。

3、快速开始

GLM-4.5-Air推理需要1台(8卡)Atlas 800T/800I A2(64G)服务器服务器(基于BF16权重)。昇思MindSpore提供了GLM-4.5-Air推理可用的Docker容器镜像,供开发者快速体验。

3.1 停止其他进程,避免服务器中其他进程影响

pkill -9 python

pkill -9 mindie

pkill -9 ray

3.2 下载昇思 MindSpore 推理容器镜像

执行以下 Shell 命令,拉取昇思 MindSpore GLM-4.5-Air推理容器镜像:

docker pull swr.cn-central-221.ovaijisuan.com/mindformers/glm4.5moe-infer:20250728

3.3 启动容器

执行以下命令创建并启动容器(/mnt/data/GLM-4.5-Air用于存放权重路径,若没有/mnt盘则要修改):

docker run -it \
--privileged \
--name=GLM-4.5-Air \
--net=host \
--cap-add=SYS_PTRACE \
--security-opt seccomp=unconfined \
--device=/dev/davinci0 \
--device=/dev/davinci1 \
--device=/dev/davinci2 \
--device=/dev/davinci3 \
--device=/dev/davinci4 \
--device=/dev/davinci5 \
--device=/dev/davinci6 \
--device=/dev/davinci7 \
--device=/dev/davinci_manager \
--device=/dev/hisi_hdc \
--device=/dev/devmm_svm \
--device=/dev/davinci_manager \
-v /usr/local/Ascend/add-ons/:/usr/local/Ascend/add-ons/ \
-v /usr/local/Ascend/driver/:/usr/local/Ascend/driver/ \
-v /usr/local/sbin:/usr/local/sbin \
-v /etc/hccn.conf:/etc/hccn.conf \
-v /mnt/data/GLM-4.5-Air/:/mnt/data/GLM-4.5-Air/ \
swr.cn-central-221.ovaijisuan.com/mindformers/glm4.5moe-infer:20250728 \
/bin/bash

注意事项:

  • 后续操作,除了发起推理请求可以在容器外进行,其余操作均在容器内进行。

4、服务化部署

4.1 添加环境变量

在服务器中都添加如下环境变量:

export vLLM_MODEL_BACKEND=MindFormers export ASCEND_TOTAL_MEMORY_GB=64

4.2 拉起服务

执行以下命令拉起服务:

python3 -m vllm_mindspore.entrypoints vllm.entrypoints.openai.api_server --model "/mnt/data/GLM-4.5-Air" --trust_remote_code --tensor_parallel_size=8 --max-num-seqs=192 --max_model_len=32768 --max-num-batched-tokens=16384 --block-size=32 --gpu-memory-utilization=0.93

4.3 执行推理请求测试

打开新的窗口,执行以下命令发送推理请求测试。

curl http://localhost:8000/v1/chat/completions -H "Content-Type: application/json" -d '{
  "model": "/mnt/data/GLM-4.5-Air",
  "messages": [
    {"role": "user", "content": "介绍一下北京"}
  ],
  "temperature": 0.6,
  "top_p": 0.95,
  "top_k": 20,
  "min_p": 0,
  "max_tokens": 8192,
  "presence_penalty": 1.05,
  "chat_template_kwargs": {"enable_thinking": true}
}'

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值