(qianwen) root@iZk1agkkd3y2jl41gm8qhcZ:~/work# python downloadqianwen70.py
None of PyTorch, TensorFlow >= 2.0, or Flax have been found. Models won't be available and only tokenizers, configuration and file/data utilities can be used.
Traceback (most recent call last):
File "/root/work/downloadqianwen70.py", line 3, in <module>
model = AutoModelForCausalLM.from_pretrained("Qwen/Qwen-72B-Chat", trust_remote_code=True)
File "/root/miniconda3/envs/qianwen/lib/python3.10/site-packages/transformers/utils/import_utils.py", line 1651, in __getattribute__
requires_backends(cls, cls._backends)
File "/root/miniconda3/envs/qianwen/lib/python3.10/site-packages/transformers/utils/import_utils.py", line 1639, in requires_backends
raise ImportError("".join(failed))
ImportError:
AutoModelForCausalLM requires the PyTorch library but it was not found in your environment. Checkout the instructions on the
installation page: https://pytorch.org/get-started/locally/ and follow the ones that match your environment.
Please note that you may need to restart your runtime after installation.
# Load model directly
from transformers import AutoModelForCausalLM
model = AutoModelForCausalLM.from_pretrained("Qwen/Qwen-72B-Chat", trust_remote_code=True)
这个错误的原因是缺少 PyTorch 库。你的代码中尝试加载模型 AutoModelForCausalLM.from_pretrained("Qwen/Qwen-72B-Chat"),该方法依赖于 PyTorch 库来加载模型权重,但在你的 Python 环境中并未安装 PyTorch。
解决步骤
-
安装 PyTorch
- 根据你当前的系统环境,按照以下步骤来安装 PyTorch。通常,服务器端安装可以使用以下命令:
conda install pytorch torchvision torchaudio cudatoolkit=11.7 -c pytorch- 这将安装支持 CUDA 的 PyTorch 版本,前提是你的环境能够支持 CUDA 11.7。如果没有 CUDA 支持,移除
cudatoolkit=11.7。
-
验证 PyTorch 安装
- 安装完成后,可以使用以下代码验证
PyTorch是否安装成功:
import torch print(torch.__version__) # 应该显示已安装的 PyTorch 版本号 - 安装完成后,可以使用以下代码验证
-
重新运行代码
- 安装完成后,重新运行你的 Python 代码:
python downloadqianwen70.py
这样应该能解决这个 ImportError 问题。如果安装后仍有其他问题,可能是环境配置的问题,可以尝试重新启动终端或重启 Python 环境。
3347

被折叠的 条评论
为什么被折叠?



