安装 Ollama gpu版,调用大模型

部署运行你感兴趣的模型镜像

1. 环境准备

(1)安装显卡驱动

禁用默认开源驱动nouveau

sudo gedit /etc/modeprobe.d/blacklist.conf

在弹出的文本末尾加上两句后保存:

blacklist nouveau
options nouveau modeset=0

在终端里输入以下命令更新文件:

sudo update-initramfs -u

重启电脑后,打开终端输入下列命令:

lsmod | grep nouveau

没有输出就说明禁用nouveau成功了。

...........................one day..................................

通过运行以下命令来验证驱动程序是否已安装,该命令将打印有关 GPU 的详细信息:

验证:~$

nvidia-smi

(2)安装cuda, 

......................one day..........................................

   选择安装cudnn
(3)更新系统并安装依赖:

sudo apt update && sudo apt upgrade -y
sudo apt install docker.io docker-compose python3-pip git -y
 

(4)调整系统参数(防止内存映射不足):

sudo sysctl -w vm.max_map_count=262144
# 永久生效(需重启)

echo "vm.max_map_count=262144" | sudo tee -a /etc/sysctl.conf
AI写代码

2.官网安装的程序下载总是出现问题,

(1)找到ollama官方安装的文档,使用手动安装方式;   https://github.com/ollama/ollama/blob/main/docs/linux.md

 根据系统的cpu和gpu选择对应的般本下载:

     x86_64 CPU选择下载ollama-linux-amd64
     AMD GPU 选择下载ollama-linux-amd64-rocm
    aarch64|arm64 CPU选择下载ollama-linux-arm64

我们的系统为带x86_64 GPU

  curl -L https://ollama.com/download/ollama-linux-amd64-rocm.tgz -o ollama-linux-amd64-rocm.tgz
    #解压缩:
    sudo tar -C /usr -xzf ollama-linux-amd64-rocm.tgz

====经历.....下载不成功,手动安装不成功,不能启动....======

(2)按照这个安装方法下载速度非常快,并且可以自动根据系统是否有显卡选择对应稳定版本:

   sudo snap install ollama

sudo snap install ollama


查看文件夹:
主目录/snap
计算机/snap
计算机/snap/bin
 

运行 ollama serve

浏览器打开:http://127.0.0.1:11434

运行成功  ,配置启动管理

 vi /etc/systemd/system/ollama.service

下面加粗的是修改的。
 
[Unit]
Description=Ollama Service
After=network-online.target

[Service]
ExecStart=/snap/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3
Environment="PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin:/usr/games:/usr/local/games:/snap/bin"
Environment="PATH=$PATH"
Environment="OLLAMA_HOST=0.0.0.0"
Environment="OLLAMA_PORT=11434"

Environment="OLLAMA_ORIGINS=*"

[Install]
WantedBy=default.target

修改后再查看配置 

ExecStart=/snap/bin/ollama serve
Environment="PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin:/usr/games:/usr/local/games:/snap/bin"

运行命令下载\安装、运行大模型:

  https://ollama.com/library/qwen3  官网下载大模型

ollama run ollama run deepseek-r1:1.5b

-======验证

# 重载配置
sudo systemctl daemon-reload
# 启动服务
sudo systemctl start ollama.service
# 查看服务状态
sudo systemctl status ollama.service
# 设置服务开机自启动
sudo systemctl enable ollama.service


    
 

在大模型问一个复杂的问题,给大模型指令让其运行。

然后运行命令nvidia-smi 查看gpu使用情况。可以查看GPU显存等使用情况,

  0   N/A  N/A          123747      C   /snap/ollama/55/bin/ollama             1742MiB


Wed Jul 23 11:57:08 2025       
+-----------------------------------------------------------------------------------------+
| NVIDIA-SMI 570.169                Driver Version: 570.169        CUDA Version: 12.8     |
|-----------------------------------------+------------------------+----------------------+
| GPU  Name                 Persistence-M | Bus-Id          Disp.A | Volatile Uncorr. ECC |
| Fan  Temp   Perf          Pwr:Usage/Cap |           Memory-Usage | GPU-Util  Compute M. |
|                                         |                        |               MIG M. |
|=========================================+========================+======================|
|   0  NVIDIA GeForce RTX 4060        Off |   00000000:01:00.0  On |                  N/A |
| 34%   48C    P8            N/A  /  115W |    2271MiB /   8188MiB |      6%      Default |
|                                         |                        |                  N/A |
+-----------------------------------------+------------------------+----------------------+
                                                                                         
+-----------------------------------------------------------------------------------------+
| Processes:                                                                              |
|  GPU   GI   CI              PID   Type   Process name                        GPU Memory |
|        ID   ID                                                               Usage      |
|=========================================================================================|
|    0   N/A  N/A            3939      G   /usr/lib/xorg/Xorg                      255MiB |
|    0   N/A  N/A            4108      G   /usr/bin/gnome-shell                     33MiB |
|    0   N/A  N/A            4604      G   fcitx-qimpanel                           25MiB |
|    0   N/A  N/A           13060      G   .../6495/usr/lib/firefox/firefox        144MiB |
|    0   N/A  N/A          123747      C   /snap/ollama/55/bin/ollama             1742MiB 


===================================

 运行ollama

    ollama serve&

访问:http://localhost:11434/ 
==========================

您可能感兴趣的与本文相关的镜像

PyTorch 2.5

PyTorch 2.5

PyTorch
Cuda

PyTorch 是一个开源的 Python 机器学习库,基于 Torch 库,底层由 C++ 实现,应用于人工智能领域,如计算机视觉和自然语言处理

<think>嗯,用户想知道如何在Ollama中使用GTX 1650 GPU来运行大模型。首先,我需要回忆相关的引用内容。引用[3]提到了在Windows上安装nvidia-container-toolkit,然后使用docker命令运行Ollama并指定GPU。不过GTX 1650属于NVIDIA显卡,应该支持CUDA,但需要确认驱动版本是否符合要求。 接下来,用户可能已经安装了显卡驱动,但需要确认CUDA是否安装。根据引用[2],如果装了驱动,Ollama会优先使用显卡资源。可能需要指导用户检查CUDA版本,比如通过nvidia-smi查看驱动版本是否支持所需的CUDA版本。 然后,安装Docker和NVIDIA容器工具包是关键步骤。引用[3]提到在Ubuntu上用apt-get安装,但用户可能在Windows上,所以需要调整步骤。Windows下可能需要Docker Desktop并启用WSL2,然后在WSL中安装NVIDIA容器工具包? 运行容器时,使用--gpus all参数,如引用[3]中的docker命令。用户需要确保Docker配置正确,能够识别GPU。之后,下载模型时,可能需要指定适合的模型版本,比如qwen:7b,但要注意GTX 1650的显存是否足够,因为1650通常有4GB或6GB显存,运行7B模型可能显存不足,可能需要量化版本如qwen:4b。 验证部分,用户可以通过ollama ps和任务管理器监控GPU使用情况,如引用[1]和[2]所述。如果显存不足,可能需要调整模型参数或使用更小的模型。 总结步骤应该是:1.确认驱动和CUDA;2.安装Docker和NVIDIA工具包;3.运行Ollama容器并启用GPU;4.下载运行模型;5.验证GPU使用情况。同时,提醒用户注意显存限制,可能需要模型量化或优化设置。</think>### Ollama使用GTX 1650 GPU运行大模型的配置方法 #### 一、环境准备(需满足以下条件) 1. **显卡驱动要求**: - 确认已安装NVIDIA Game Ready Driver **472.12及以上版本**(支持CUDA 11.4) - 通过`nvidia-smi`命令验证驱动安装状态 2. **CUDA工具包安装**: - 需安装与GTX 1650兼容的**CUDA 11.8**版本[^3] 3. **Docker环境部署**: - 安装Docker Desktop 4.26+(需启用WSL2后端) - 执行`docker --version`确认版本 #### 二、关键配置步骤 1. **安装NVIDIA容器工具包**: ```bash curl -s -L https://nvidia.github.io/nvidia-docker/gpgkey | sudo apt-key add - distribution=$(. /etc/os-release;echo $ID$VERSION_ID) curl -s -L https://nvidia.github.io/nvidia-docker/$distribution/nvidia-docker.list | sudo tee /etc/apt/sources.list.d/nvidia-docker.list sudo apt-get update && sudo apt-get install -y nvidia-container-toolkit ``` 2. **启动GPU加速容器**: ```bash docker run --gpus all -d -v /opt/ai/ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama ``` *参数说明:`--gpus all`启用全部GPU资源,`-v`挂载模型存储目录* 3. **模型运行验证**: ```bash docker exec -it ollama ollama run llama2:7b ``` 当模型响应时,新开终端执行: ```bash ollama ps # 查看GPU使用状态 nvidia-smi # 监控显存占用 ``` #### 三、性能优化建议 1. **量化模型选择**: - 推荐使用`llama2:7b-q4_K_M`等4位量化版本 - 显存占用可降低至**3.8GB**(GTX 1650 4GB显存适用) 2. **批处理参数调整**: ```bash ollama run llama2:7b --num_ctx 2048 --num_batch 512 ``` *通过降低`num_ctx`和`num_batch`值控制显存占用* 3. **Windows系统监控**: - 任务管理器→性能页签→查看GPU 3D引擎利用率 - 通过`CUDA-Z`工具检测CUDA计算单元活动状态 #### 四、典型问题排查 | 现象 | 解决方法 | |-------|---------| | `Error: failed to initialize CUDA` | 1. 检查驱动版本<br>2. 重装CUDA 11.8运行时库 | | 模型加载时显存溢出 | 1. 改用更小量化版本<br>2. 添加`--num_gpu_layers 20`参数限制GPU层数 | | 推理速度低于预期 | 1. 在BIOS中启用Resizable BAR<br>2. 设置环境变量`CUDA_VISIBLE_DEVICES=0` |
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值