GTX960 破卡焕发第二春!训练AI模型,玩转Ollama

部署运行你感兴趣的模型镜像

自己有一台14年的台式机 Nvidia 960显卡,最近不怎么玩游戏了,直接刷了Linux系统,如果后面需要详细的再开帖子,话不多说直接开搞

前面先讲下Ubuntu 中GCC 和 CUDA 的关系

  1. 编译主机代码:当你编写 CUDA 应用程序时,通常会包含一部分只能在 CPU 上执行的代码(主机代码)。这部分代码可以使用 GCC 编译。而另一部分代码(设备代码),则设计为在 GPU 上执行。

  2. CUDA 编译器 (nvcc):NVIDIA 的 CUDA 编译器 nvcc 可以与 GCC 协同工作。当你编译一个 CUDA 应用程序时,nvcc 负责处理 CUDA 特定的部分,然后将非 CUDA 部分的代码传递给 GCC 进行编译。这意味着,在你的开发环境中,正确配置 GCC 是确保 CUDA 应用程序成功编译的关键之一。

  3. 版本兼容性:需要注意的是,nvcc 对 GCC 的版本有一定的兼容性要求。不同的 CUDA 版本可能只支持特定范围内的 GCC 版本。因此,在安装 CUDA Toolkit 之前,确认你的 GCC 版本是否与 CUDA 兼容是很重要的。

总结来说,在 Ubuntu 系统中,GCC 和 CUDA 并不是直接竞争的关系,而是互补的。GCC 主要负责编译不能或不适合在 GPU 上执行的代码,而 CUDA 提供了对 GPU 计算的支持,通过 nvcc 编译器来编译那些可以在 GPU 上高效运行的代码。两者结合使用,可以帮助开发者充分利用系统的硬件资源进行高效的计算。

正题

1.GCC 特定 需要 9版本 GCC就是所谓的c语言的一个工具包,例如在windows 中安装就需要安装vs C++

gcc --version  # 应显示GCC 9.5.0
g++ --version  # 应显示G++ 9.5.0

如果不是的话卸载,以下为gcc12为代表

sudo apt-get remove --purge gcc-12 g++-12
sudo apt-get autoremove

注意安装旧版本的需要添加旧版工具链仓库

sudo add-apt-repository ppa:ubuntu-toolchain-r/test
sudo apt update

安装gcc9

sudo apt install gcc-9 g++-9

设置gcc 9为默认版本

sudo update-alternatives --install /usr/bin/gcc gcc /usr/bin/gcc-9 90 --slave /usr/bin/g++ g++ /usr/bin/g++-9
sudo update-alternatives --config gcc

再次验证下是不是正常安装

gcc --version  # 应显示GCC 9.x
g++ --version  # 应显示G++ 9.x

2.CUDA  甩官网Cuda 链接  CUDA Toolkit 11.1.0 | NVIDIA Developer 

安装cuda 这里选择的是 11.1版本

不要安装9的版本,不要安装9的版本,不要安装9的版本

如何选显卡驱动?参考如下

如何下载? 不用下载

直接是ubuntu 专有版 选择535 然后进行应用更改 之后重启就可以拉!!!

 

之后安装 cudnn cuDNN Archive | NVIDIA Developer

选择自己的版本就可拉

 

最后一步 安装OLLAMA

funcir@iubuntu:~$ curl -fsSL https://ollama.com/install.sh | sh



#下面是运行结果 
>>> Installing ollama to /usr/local
>>> Downloading Linux amd64 bundle
######################################################################## 100.0%
>>> Creating ollama user...
>>> Adding ollama user to render group...
>>> Adding ollama user to video group...
>>> Adding current user to ollama group...
>>> Creating ollama systemd service...
>>> Enabling and starting ollama service...
Created symlink /etc/systemd/system/default.target.wants/ollama.service → /etc/systemd/system/ollama.service.
>>> NVIDIA GPU installed.

晒一个 跑Qwen3 4B的内存 管够~

自动实行sh的会生成   /etc/systemd/system/ollama.service  而通过tar 安装的不会生成

详细设置看上期  本地离线部署ubuntu,自己配置OLLAMA.SERVICE 服务-优快云博客

 

您可能感兴趣的与本文相关的镜像

PyTorch 2.5

PyTorch 2.5

PyTorch
Cuda

PyTorch 是一个开源的 Python 机器学习库,基于 Torch 库,底层由 C++ 实现,应用于人工智能领域,如计算机视觉和自然语言处理

<think>嗯,用户想知道如何在Ollama中使用GTX 1650 GPU来运行大模型。首先,我需要回忆相关的引用内容。引用[3]提到了在Windows上安装nvidia-container-toolkit,然后使用docker命令运行Ollama并指定GPU。不过GTX 1650属于NVIDIA显,应该支持CUDA,但需要确认驱动版本是否符合要求。 接下来,用户可能已经安装了显驱动,但需要确认CUDA是否安装。根据引用[2],如果装了驱动,Ollama会优先使用显资源。可能需要指导用户检查CUDA版本,比如通过nvidia-smi查看驱动版本是否支持所需的CUDA版本。 然后,安装Docker和NVIDIA容器工具包是关键步骤。引用[3]提到在Ubuntu上用apt-get安装,但用户可能在Windows上,所以需要调整步骤。Windows下可能需要Docker Desktop并启用WSL2,然后在WSL中安装NVIDIA容器工具包? 运行容器时,使用--gpus all参数,如引用[3]中的docker命令。用户需要确保Docker配置正确,能够识别GPU。之后,下载模型时,可能需要指定适合的模型版本,比如qwen:7b,但要注意GTX 1650的显存是否足够,因为1650通常有4GB或6GB显存,运行7B模型可能显存不足,可能需要量化版本如qwen:4b。 验证部分,用户可以通过ollama ps和任务管理器监控GPU使用情况,如引用[1]和[2]所述。如果显存不足,可能需要调整模型参数或使用更小的模型。 总结步骤应该是:1.确认驱动和CUDA;2.安装Docker和NVIDIA工具包;3.运行Ollama容器并启用GPU;4.下载运行模型;5.验证GPU使用情况。同时,提醒用户注意显存限制,可能需要模型量化或优化设置。</think>### Ollama使用GTX 1650 GPU运行大模型的配置方法 #### 一、环境准备(需满足以下条件) 1. **显驱动要求**: - 确认已安装NVIDIA Game Ready Driver **472.12及以上版本**(支持CUDA 11.4) - 通过`nvidia-smi`命令验证驱动安装状态 2. **CUDA工具包安装**: - 需安装与GTX 1650兼容的**CUDA 11.8**版本[^3] 3. **Docker环境部署**: - 安装Docker Desktop 4.26+(需启用WSL2后端) - 执行`docker --version`确认版本 #### 二、关键配置步骤 1. **安装NVIDIA容器工具包**: ```bash curl -s -L https://nvidia.github.io/nvidia-docker/gpgkey | sudo apt-key add - distribution=$(. /etc/os-release;echo $ID$VERSION_ID) curl -s -L https://nvidia.github.io/nvidia-docker/$distribution/nvidia-docker.list | sudo tee /etc/apt/sources.list.d/nvidia-docker.list sudo apt-get update && sudo apt-get install -y nvidia-container-toolkit ``` 2. **启动GPU加速容器**: ```bash docker run --gpus all -d -v /opt/ai/ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama ``` *参数说明:`--gpus all`启用全部GPU资源,`-v`挂载模型存储目录* 3. **模型运行验证**: ```bash docker exec -it ollama ollama run llama2:7b ``` 当模型响应时,新开终端执行: ```bash ollama ps # 查看GPU使用状态 nvidia-smi # 监控显存占用 ``` #### 三、性能优化建议 1. **量化模型选择**: - 推荐使用`llama2:7b-q4_K_M`等4位量化版本 - 显存占用可降低至**3.8GB**(GTX 1650 4GB显存适用) 2. **批处理参数调整**: ```bash ollama run llama2:7b --num_ctx 2048 --num_batch 512 ``` *通过降低`num_ctx`和`num_batch`值控制显存占用* 3. **Windows系统监控**: - 任务管理器→性能页签→查看GPU 3D引擎利用率 - 通过`CUDA-Z`工具检测CUDA计算单元活动状态 #### 四、典型问题排查 | 现象 | 解决方法 | |-------|---------| | `Error: failed to initialize CUDA` | 1. 检查驱动版本<br>2. 重装CUDA 11.8运行时库 | | 模型加载时显存溢出 | 1. 改用更小量化版本<br>2. 添加`--num_gpu_layers 20`参数限制GPU层数 | | 推理速度低于预期 | 1. 在BIOS中启用Resizable BAR<br>2. 设置环境变量`CUDA_VISIBLE_DEVICES=0` |
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值