在windows 台式机电脑部署GLM4大模型

参考这篇文章在windows笔记本电脑部署GLM4大模型_16g显卡本地部署glm4-优快云博客

我的环境(PC台式机电脑:
处理器    Intel(R) Core(TM) i9-14900K   3.20 GHz
机带 RAM    32.0 GB (31.8 GB 可用)
、32G内存、NVIDIA RTX4080(16G)、Windows 10 专业版

基本完成处理相关软件的安装,

目前能启动trans_cli_demo.py,

中途出现torch安装错误,导致启动执行效率非常低.

后续再重新卸载torch:pip uninstall torch

pip

pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121

可以正常 启动,但是报需要下载:

https://cdn-media.huggingface.co/frpc-gradio-0.2/frpc_windows_amd64.exe</

### 如何在 Windows 11 上使用 GPU 部署 GLM4 模型 为了成功在 Windows 11 上部署 GLM4 大模型并利用 GPU 加速,需遵循一系列配置步骤来确保环境设置正确无误。 #### 设置 CUDA 环境变量 对于 Windows 用户来说,在安装 NVIDIA 的 CUDA 工具包之后,应当设定相应的环境变量以便 Python 和其他工具能识别到 CUDA 安装路径。具体操作是在系统属性中的高级设置里添加新的环境变量 `CUDA_PATH_V12_4` 并指向已安装的 CUDA 版本目录,例如 `C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v12.4`[^3]。 #### 准备必要的库和支持文件 确保已经安装了适用于 Windows 的 PyTorch 库版本,并且该版本支持所使用的 CUDA 版本。可以通过 pip 或 conda 来完成这一过程。此外还需要安装 transformers 库以及其他可能依赖的支持软件包: ```bash pip install torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu124/ pip install git+https://github.com/huggingface/transformers.git ``` #### 下载预训练模型 从 Hugging Face Model Hub 获取目标模型权重和其他资源。这里以 THUDM/chatglm3-6b 为例说明如何加载量化后的模型实例: ```python from transformers import AutoModel, AutoTokenizer tokenizer = AutoTokenizer.from_pretrained("THUDM/chatglm3-6b", trust_remote_code=True) model = AutoModel.from_pretrained("THUDM/chatglm3-6b", trust_remote_code=True).quantize(4).cuda() ``` 这段代码会下载指定名称下的预训练模型及其分词器,并将其转换成适合低内存设备运行的形式——即采用 INT4 位宽进行权重量化处理后再转移到 GPU 设备上执行[^1]。 #### 测试模型功能 最后一步是对刚刚建立好的模型对象做简单的测试验证其正常工作状态。这通常涉及创建一些输入数据供模型预测输出结果,比如下面的例子展示了怎样让聊天机器人回应给定提示语句的方式来进行交互对话模拟: ```python input_text = "你好" inputs = tokenizer(input_text, return_tensors="pt").to('cuda') outputs = model.generate(**inputs) response = tokenizer.decode(outputs[0], skip_special_tokens=True) print(f"User: {input_text}") print(f"Bot : {response}") ``` 以上就是在 Windows 11 中基于 GPU 实现 GLM4 模型快速启动的方法概述。需要注意的是实际应用过程中可能会遇到各种各样的兼容性和性能优化方面的问题,因此建议保持对官方文档和技术社区的关注获取最新指导信息。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值