保姆级教程 本地部署 deepseek + ollama + open-webui + cuda + cudnn

部署运行你感兴趣的模型镜像

前言
本地部署deepseek-r1,基于ollama + webui,并开启cuda + cudnn 加速运算,我电脑显卡是3060 12G,没显卡的可以跳过cuda + cudnn的安装。

一、安装cuda、cudnn

  • CUDA(Compute Unified Device Architecture)是 NVIDIA 的并行计算平台和编程模型,允许开发者利用 GPU 进行通用计算。
  • cuDNN(CUDA Deep Neural Network library)是基于 CUDA 的深度学习加速库,专为神经网络操作优化。
    总结,CUDA 提供 GPU 计算基础,cuDNN 在此基础上优化深度学习任务,两者共同提升深度学习应用的性能。
  1. 安装cuda
    查看当前显卡所支持的cuda版本,打开cmd,执行nvidia-smi
    在这里插入图片描述
    如图所示,我的cuda版本是12.0,然后去官网下载对应的cuda。地址:https://developer.nvidia.com/cuda-toolkit-archive,然后根据自己操作系统进行选择下载。
    在这里插入图片描述
    下载好后直接安装,全部按默认的就行,更改路径容易导致安装失败,安装完成后,打开cmd,执行nvcc -V,可以查看cuda信息。
    在这里插入图片描述
  2. 安装cudnn
    根据自己cuda版本选择下载,地址:https://developer.nvidia.com/rdp/cudnn-archive,下载完成后,将里面的文件,全部拷贝至cuda根目录(C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v12.0)。
    cudnn目录结构
    在这里插入图片描述
    cuda目录结构
    在这里插入图片描述
    打开cmd,执行C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v12.0\extras\demo_suite目录下的 bandwidthTest.exe 和 deviceQuery.exe,输出一下信息说明安装成功。
    在这里插入图片描述
    在这里插入图片描述

二、安装ollama

下载ollama,地址:https://ollama.com/,默认安装在C盘,如果想换目录,打开cmd,输入以下命令:

OllamaSetup.exe /DIR="D:\ollama"

打开cmd,输入以下命令验证安装是否成功:

ollama --version

在这里插入图片描述
修改模型下载目录,配置系统环境变量OLLAMA_MODELS,并设置目录。
在这里插入图片描述

三、下载模型

deepseek各个模型之间的对比

  1. DeepSeek V3
  • 定位:通用型大语言模型,专注于自然语言处理(NLP)、知识问答和内容生成等任务。
  • 核心能力:高效的多模态处理能力(文本、图像、音频、视频),适用于大规模文档处理、搜索引擎优化和高并发查询任务。
  • 优势:低成本、高通用性,适合广泛的应用场景,如智能客服、内容创作、知识问答等。
  1. DeepSeek R1
  • 定位:专为复杂推理任务设计,强化在数学、代码生成和逻辑推理领域的性能。
  • 核心能力:通过强化学习(RL)和动态门控机制,优化推理能力,适用于科研、算法交易、代码生成等复杂任务。
  • 优势:在推理任务中表现卓越,支持模型蒸馏,可将推理能力迁移至更小的模型,适合本地化部署。
  1. DeepSeekLLM
  • 定位:专为大规模语言生成任务设计,适用于对话系统和生成任务。
  • 核心能力:强大的语言生成能力,支持对话生成、文本生成、情感分析等任务。
  • 优势:适应复杂对话场景,具备强大的上下文理解能力。

大家依据自己情况选择模型,这里我选DeepSeek R1,各个参数量的对比如下:
在这里插入图片描述
我的显卡只有12G,所以选择DeepSeek-R1-8B,在cmd中执行下载:

ollama run deepseek-r1:8b

模型地址:https://ollama.com/library/deepseek-r1:8b
在这里插入图片描述

四、安装客户端OpenWebUI

市面上常见的AI客户端有好多,常见的如下:

  1. CherryStudio,官网(https://cherry-ai.com/),支持市面上绝大多数服务商的集成,并且支持多服务商的模型统一调度。
    在这里插入图片描述

  2. chatbox,官网(https://chatboxai.app/zh),一款 AI 客户端应用和智能助手,支持众多先进的 AI 模型和 API,可在 Windows、MacOS、Android、iOS、Linux 和网页版上使用。
    在这里插入图片描述

  3. open-webui,官网(https://openwebui.com/),一个功能丰富且用户友好的自托管 Web 用户界面(WebUI),它被设计用于与大型语言模型(LLMs)进行交互,特别是那些由 Ollama 或与 OpenAI API 兼容的服务所支持的模型。Open WebUI 提供了完全离线运行的能力,这意味着用户可以在没有互联网连接的情况下与模型进行对话,这对于数据隐私和安全敏感的应用场景尤为重要。

大家可以根据自己情况去选择下载,下面讲解open-webui安装教程。
首先,下载Anaconda,python多环境管理工具,官网(https://www.anaconda.com/download),然后打开Anaconda控制台,如图所示:
在这里插入图片描述
执行命令创建一个python 3.11

conda create -n open-webui python=3.11

查看虚拟机环境列表

conda  env  list

使用open-webui虚拟环境

activate open-webui

查看当前python版本

python --version

在这里插入图片描述
切换pip镜像源

pip config set global.index-url https://mirrors.aliyun.com/pypi/simple

安装open-webui

pip install open-webui

升级open-webui

pip install open-webui --upgrade

启动open-webui

open-webui serve

访问open-webui( http://localhost:8080/)
在这里插入图片描述

这里就基本完成了本地部署,在使用中可以观察显卡和cpu使用情况,就可以知道有没有走显卡运算。
在这里插入图片描述

您可能感兴趣的与本文相关的镜像

Llama Factory

Llama Factory

模型微调
LLama-Factory

LLaMA Factory 是一个简单易用且高效的大型语言模型(Large Language Model)训练与微调平台。通过 LLaMA Factory,可以在无需编写任何代码的前提下,在本地完成上百种预训练模型的微调

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值