在windows 台式机电脑部署GLM4大模型

参考这篇文章在windows笔记本电脑部署GLM4大模型_16g显卡本地部署glm4-优快云博客

我的环境(PC台式机电脑:
处理器    Intel(R) Core(TM) i9-14900K   3.20 GHz
机带 RAM    32.0 GB (31.8 GB 可用)
、32G内存、NVIDIA RTX4080(16G)、Windows 10 专业版

基本完成处理相关软件的安装,

目前能启动trans_cli_demo.py,

中途出现torch安装错误,导致启动执行效率非常低.

后续再重新卸载torch:pip uninstall torch

pip

pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121

可以正常 启动,但是报需要下载:

https://cdn-media.huggingface.co/frpc-gradio-0.2/frpc_windows_amd64.exe</

### Windows 上本地部署 ChatGLM4 模型 为了在 Windows 系统上成功部署 ChatGLM4 模型,可以利用 WSL (Windows Subsystem for Linux) 来创建一个类 Unix 的开发环境。以下是具体方法: #### 使用 WSL 进行模型部署准备 进入已安装 Python 环境的 WSL 子系统,在此环境中执行必要的命令来获取所需资源[^1]。 ```bash wsl --install -d Ubuntu-20.04 ``` 这会安装并设置好适用于机器学习工作的基础平台——Ubuntu 20.04 LTS 版本下的 WSL。 #### 获取 ChatGLM4 源码库 通过 Git 将官方维护者发布的 ChatGLM4 库克隆至本地工作目录内以便后续操作[^2]: ```bash git clone https://github.com/THUDM/GLM-4.git chatglm4-repo cd chatglm4-repo ``` #### 准备模型权重文件 需要注意的是,上述步骤仅下载到了项目的结构框架以及辅助脚本等内容;实际用于推理预测的核心参数即所谓的“权重”,还需另行处理获得[^3]。对于希望快速启动测试的朋友来说,可以从 Hugging Face 平台直接拉取预训练好的模型实例: 访问 [Hugging Face Model Hub](https://huggingface.co/models),搜索 `chatglm` 关键词找到对应的发布页面,按照指引完成下载流程。推荐采用自动化工具如 `transformers` 库简化这一过程: ```python from transformers import AutoModelForCausalLM, AutoTokenizer model_name_or_path = "path_to_your_downloaded_model" tokenizer = AutoTokenizer.from_pretrained(model_name_or_path) model = AutoModelForCausalLM.from_pretrained(model_name_or_path) ``` #### 调整硬件资源配置 考虑到大型语言模型对计算能力的要求较高,建议至少配备有良好性能表现的 CPU/GPU 组合方案。如果条件允许的话,可参照类似云服务提供商所提供的高规格实例配置标准来进行优化调整[^4]。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值