大模型_1、服务器部署大模型 ChatGLM3

本文详细介绍了如何在Linux环境下为ChatGLM3进行环境配置,包括升级apt、安装必要的库、使用GitLFS下载数据和预训练模型,以及配置命令行和Streamlit界面。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

01 环境准备

1.1、升级apt

cd /home/jovyan/work/ChatGLM3/chatglm3-6b/ #进入你文件夹地址
apt-get update

1.2、安装Linux需要库

sudo apt-get update
sudo apt-get install yum
sudo apt-get install curl

1.3 、安装lfs

curl -s https://packagecloud.io/install/repositories/github/git-lfs/script.deb.sh | sudo bash

02数据权重

2.1、下载 ChatGLM3

 gitjhub:GitHub - THUDM/ChatGLM3: ChatGLM3 series: Open Bilingual Chat LLMs | 开源双语对话语言模型

git clone https://github.com/THUDM/ChatGLM3

gitee:

ChatGLM3: fork : https://github.com/THUDM/ChatGLM3 (gitee.com)

git clone https://gitee.com/aqua/ChatGLM3

2.2、下载预训练模型

用 Git LFS 从 Hugging Face Hub 将模型下载到本地,从本地加载模型响应速度更快

git lfs install
git clone https://huggingface.co/THUDM/chatglm3-6b

从 HuggingFace 下载比较慢,可以从 ModelScope 中下载 

git lfs install
git clone https://www.modelscope.cn/ZhipuAI/chatglm3-6b.gi

03配置文件

3.1、ChatGLM3-6B 提供多种运行方式,包括命令行界面、Streamlit 界面和 REST API。

conda activate pytorch #进入python环境

pip install -r requirements.txt #安库


3.2修改文件路径及设置

web_demo_streamlit.py为例:

将加载模型的路径修改为:

 

cd basic_demo

# 命令行界面
vim clidemo.py
python clidemo.py

#Streamlit 界面
vim web_demo_streamlit.py
streamlit run web_demo_streamlit.py --server.port 7000

得到:

### ChatGLM3-6B 大模型部署方法 #### 准备环境 为了成功部署 ChatGLM3-6B 模型,需先准备合适的运行环境。推荐使用 Python 和 Conda 来管理依赖项和虚拟环境。安装最新版本的 Python 并配置好 Conda 后,创建一个新的 Conda 虚拟环境来隔离项目所需的库文件[^1]。 ```bash conda create --name glm_env python=3.8 conda activate glm_env ``` #### 安装必要软件包 进入新建立的环境中后,通过 pip 或者 conda 命令行工具安装必要的Python 库和其他支持组件。这通常包括 PyTorch、transformers 等机器学习框架以及 CUDA 工具链(如果计划利用 GPU 加速计算的话)[^2]。 ```bash pip install torch torchvision torchaudio transformers datasets accelerate ``` 对于希望启用GPU加速的情况,则应确保已正确设置了 NVIDIA 的驱动程序,并按照官方指南完成CUDA Toolkit 的安装过程。 #### 获取模型权重与配置文件 访问智谱 AI 或清华大学 KEG 实验室提供的官方资源链接下载 ChatGLM3-6B 的预训练参数及配套脚本。注意遵循发布的许可协议条款,在合法合规的前提下获取所需资料。 #### 运行推理服务 当所有准备工作完成后,可以参照文档说明编写简单的测试代码片段验证模型加载情况;也可以直接调用命令行接口快速启动基于 Flask/Django RESTful API 服务器提供在线预测功能。 ```python from transformers import AutoModelForCausalLM, AutoTokenizer tokenizer = AutoTokenizer.from_pretrained("path_to_model_directory") model = AutoModelForCausalLM.from_pretrained("path_to_model_directory") input_text = "你好" inputs = tokenizer(input_text, return_tensors="pt") outputs = model.generate(**inputs) print(tokenizer.decode(outputs[0], skip_special_tokens=True)) ``` 上述代码展示了如何初始化 Tokenizer 和 Model 对象,并执行一次基本的文本生成任务作为例子。 #### 解决常见问题 在整个过程中可能会碰到各种各样的技术难题,比如内存不足错误或是网络连接失败等问题。针对这些问题可以在社区论坛寻求帮助或者查阅相关文献寻找解决方案。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

知源书院

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值