指定使用哪个GPU运行程序

一:首先使用命令nvidia-smi查看有哪些可以使用的GPU

二:指定GPU运行Python程序

CUDA_VISIBLE_DEVICES=1 python main.py --cuda

三:指定GPU运行c++程序

CUDA_VISIBLE_DEVICES=1 ./de
### 配置 Ollama 使用 GPU 为了使 Ollama 能够利用 GPU 加速,在 Windows 上通过 Docker 容器部署时需特别注意几个关键配置项。 #### 1. 安装 NVIDIA Container Toolkit 确保主机已正确安装并配置好 Nvidia 显卡驱动程序之后,还需安装支持 GPU 的容器运行环境——NVIDIA Container Toolkit。这一步骤对于让 Docker 可识别到系统的 GPU 设备至关重要[^1]: ```bash sudo apt-get update && sudo apt-get install -y nvidia-container-toolkit ``` 完成上述命令后重启 Docker 服务以应用更改。 #### 2. 启动带有 GPU 支持的 Ollama 容器 当准备就绪后,可以使用 `docker run` 命令来创建一个新的 Ollama 实例,并指定参数使其能够访问所有的 GPU 资源。这里展示了如何挂载卷以及映射端口以便于后续操作和外部访问[^2]: ```bash docker run --gpus all \ -d \ -v /opt/ai/ollama:/root/.ollama \ # 或者根据实际情况调整为其他路径如 /opt/1panel/apps/ollama -p 11434:11434 \ --name ollama \ ollama/ollama ``` 此命令中的 `--gpus all` 参数告诉 Docker 将所有可用的 GPU 分配给该容器;而 `-v` 则用于定义数据持久化存储的位置,使得即使容器被删除也能保留下载好的模型文件。 #### 3. 下载所需 AI 模型 最后一步是在已经成功启动且具备 GPU 功能支持的 Ollama 容器内部执行特定指令加载目标预训练模型。例如要获取名为 "qwen:7b" 的大语言模型,则可以通过如下方式实现: ```bash docker exec -it ollama ollama run qwen:7b ``` 以上就是完整的配置流程说明,按照这些指导应该能够让 Ollama 成功连接至 GPU 并高效运作起来。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值