配置ChatGLM过程中,出现如上问题。
解决过程如下:
配置好服务器与python环境后,发现 ChatGLM-6b 模型可运行,但是 ChatGLM-6b-int4 模型运行不了,因此,在进行ptuning 的时候,将 train.sh 中的最后一行 quantization_bit 4 删除之后,此问题解决。
配置ChatGLM过程中,出现如上问题。
解决过程如下:
配置好服务器与python环境后,发现 ChatGLM-6b 模型可运行,但是 ChatGLM-6b-int4 模型运行不了,因此,在进行ptuning 的时候,将 train.sh 中的最后一行 quantization_bit 4 删除之后,此问题解决。