ubuntu下ollama/vllm两种方式在本地部署Deepseek-R1

部署运行你感兴趣的模型镜像

1.前言

今年过年,deepseek一下子爆火,导致我前段时间好好用的官网直接挤爆了,一直转圈圈到没心思过了,天天挂热搜,直接导致我的科研工作受阻(dog),好吧,话不多说,看看怎么在本地部署deepseek丝滑享受以及白嫖一下api体验>_<!
部署环境:
系统:ubuntu22.04
显卡:一张4090,24G显存

2.vllm部署deepseek-R1-8B

2.1 vllm安装

conda create -n vllm python==3.11
conda activate vllm
pip install vllm

2.2 模型下载

直接去HF官网找到官方发布的模型仓库https://huggingface.co/deepseek-ai/DeepSeek-R1-Distill-Qwen-7B/tree/main,可以自己用浏览器下载或者迅雷下载(我觉得这个快一点)亦或者HF提供的下载方式

# Make sure you have git-lfs installed (https://git-lfs.com)
git lfs install

git clone https://huggingface.co/deepseek-ai/DeepSeek-R1-Distill-Qwen-7B

下载路径随意

2.3 使用 vLLM 启动推理服务

python -m vllm.entrypoints.openai.api_server --model <你下载的模型的路径>  --served-model-name <Deepseek-R1-8B> --max-model-len=16384 --trust-remote-code

部署结束

3.ollama部署deepseek-R1-32B

3.1下载安装ollama

直接搜索ollama官网,首页直接下载,
在这里插入图片描述
在这里插入图片描述
ollama在linux上的下载命令如下:

curl -fsSL https://ollama.com/install.sh | sh

有时候可能下载会中断,按照下面的方法修改可以解决:

# 下载安装脚本
curl -fsSL https://ollama.com/install.sh -o ollama_install.sh

# 给脚本添加执行权限
chmod +x ollama_install.sh

# 使用github文件加速替换github下载地址
sed -i 's|https://ollama.com/download/ollama-linux|https://gh.llkk.cc/https://github.com/ollama/ollama/releases/download/v0.5.7/ollama-linux|g' ollama_install.sh

#执行下载
sh ollama_install.sh

安装之后默认是会自动运行的

3.2部署运行指定模型

在ollama的网页中,直接点到models页面,搜索指定模型,然后进入页面,复制运行部署模型的命令
在这里插入图片描述

ollama run deepseek-r1:8b

接下来就是漫长的等待过程,等待模型下载完成,有时候可能会碰到网速先高后低的情况,断掉重新下载就可以,ollama可以断点续传。
如果不想这么操作,欢迎看这篇博文ollama模型一键满速下载

4.效果展示

4.1写个计算器试试

满血版V3的效果:
在这里插入图片描述
本地部署的Deepseek-R1-8B的效果:
在这里插入图片描述
在这里插入图片描述
本地部署的Deepseek-R1-14B的效果:
在这里插入图片描述
可以直观的看到不同参数量的表现了,本地部署14B及以下的看来只能玩玩了

您可能感兴趣的与本文相关的镜像

Llama Factory

Llama Factory

模型微调
LLama-Factory

LLaMA Factory 是一个简单易用且高效的大型语言模型(Large Language Model)训练与微调平台。通过 LLaMA Factory,可以在无需编写任何代码的前提下,在本地完成上百种预训练模型的微调

DeepSeek-R1部署方式 方式1本地部署(主要方式) 根据搜索结果,DeepSeek-R1 主要设计用于本地部署: 硬件要求 模型版本 参数规模 GPU显存需求 推荐GPU 内存需求 DeepSeek-R1-1.5B 15亿 1.1GB 集成显卡或CPU 4GB DeepSeek-R1-7B 70亿 4.7GB RTX 4050 8GB DeepSeek-R1-14B 140亿 9.0GB RTX 4070 Ti 16GB DeepSeek-R1-32B 320亿 20GB RTX 4090 32GB DeepSeek-R1-70B 700亿 43GB 多块GPU 64GB 本地部署步骤 # 方式1:使用 Ollama(最简单)ollama pull deepseek-r1:7bollama run deepseek-r1:7b# 方式2:使用 vLLM(高性能)pip install vllmvllm serve deepseek-ai/deepseek-llm-r1-7b-chat# 方式3:使用 Transformers(灵活)from transformers import AutoTokenizer, AutoModelForCausalLMtokenizer = AutoTokenizer.from_pretrained("deepseek-ai/deepseek-llm-r1-7b-chat")model = AutoModelForCausalLM.from_pretrained("deepseek-ai/deepseek-llm-r1-7b-chat") 本地部署后提供 API # 使用 FastAPI 创建本地 API 服务from fastapi import FastAPIfrom transformers import AutoTokenizer, AutoModelForCausalLMapp = FastAPI()# 加载模型tokenizer = AutoTokenizer.from_pretrained("deepseek-ai/deepseek-llm-r1-7b-chat")model = AutoModelForCausalLM.from_pretrained("deepseek-ai/deepseek-llm-r1-7b-chat")@app.post("/chat")async def chat(prompt: str): inputs = tokenizer(prompt, return_tensors="pt") outputs = model.generate(**inputs, max_new_tokens=100) return {"response": tokenizer.decode(outputs[0])}# 运行服务# uvicorn main:app --host 0.0.0.0 --port 8000 方式2:通过第三方平台使用 API(无需本地部署) 如果不想本地部署,可以通过第三方平台使用: 1. 硅基流动(Silicon Flow) from openai import OpenAI# 通过硅基流动使用 DeepSeek-R1client = OpenAI( api_key="your-siliconflow-key", base_url="https://api.siliconflow.cn/v1")response = client.chat.completions.create( model="deepseek-r1", # 或 "deepseek-llm-r1-7b-chat" messages=[{ "role": "user", "content": "你的问题" }]) 2. 其他第三方平台 火山引擎 阿里百炼 华为 ModelArts 两种方式对比 方式 是否需要本地部署 硬件要求 成本 数据隐私 推荐度 本地部署 ✅ 需要 需要GPU 一次性硬件成本 ✅ 完全私有 ⭐⭐⭐⭐ 第三方平台API ❌ 不需要 无需硬件 按使用付费 ⚠️ 数据上传云端 ⭐⭐⭐ 关于 PDF 图片解析 DeepSeek-R1 的限制 ❌ DeepSeek-R1 是纯文本模型,不支持 PDF ❌ 不支持图片解析 ✅ 只支持文本处理 如果需要 PDF 图片解析 应该使用: DeepSeek-VL(多模态模型,支持图片) 或使用其他多模态模型(GPT-4o、Claude、Gemini) 总结 DeepSeek-R1部署方式 方式1本地部署(主要方式) ✅ 需要本地部署 ✅ 需要 GPU 硬件 ✅ 数据完全私有 ✅ 可以自建 API 服务 方式2:第三方平台 API(无需本地部署) ✅ 无需本地部署 ✅ 无需硬件 ⚠️ 数据上传云端 ✅ 直接调用 API 关于 PDF 图片解析 DeepSeek-R1 不支持 PDF 图片解析(纯文本模型) 如果需要 PDF 图片解析,使用 DeepSeek-VL 或其他多模态模型
最新发布
12-09
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

不是吧这都有重名

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值