一、ChatGLM-6B在Linux上部署运行
ChatGLM官方源码github地址
模型huggface地址
1.部署
1.1 部署前要先安装anaconda,我是在ubuntu上安装的,具体可参考这篇博客。
1.2 下面就开始ChatGLM-6B的正式部署了。
# 下载模型代码
git clone https://github.com/THUDM/ChatGLM-6B
# 切换到项目文件夹下
cd ChatGLM-6B
# 新建chatglm环境
conda create -n chatglm python==3.8
# 激活chatglm环境
conda activate chatglm
# 安装运行依赖
pip install -r requirement.txt
#命令行 Demo
python3 cli_demo.py
2.微调
# 除 ChatGLM-6B 的依赖之外,还需要安装以下依赖,在上面创建的chatglm环境下安装
!pip install rouge_chinese nltk jieba datasets -i https://mirror.sjtu.edu.cn/pypi/web/simple
# 切换到ChatGLM-6B 的ptuning文件夹下
cd /ChatGLM-6B/ptuning
数据集下载,这里给出官方提供的数据集,从 Google Drive 或者 Tsinghua Cloud 下载处理好的 ADGEN 数据集,将解压后的 AdvertiseGen 目录放到本目录(ptuning)下。
# 执行train脚本开始微调
bash train.sh
这里我出现了如此下错误:
解决方案为,在main.py文件中添加这两行:
def main():
parser = HfArgumentParser