Deepseek本地部署指南:在linux服务器部署,在mac远程web-ui访问

1. 在Linux服务器上部署DeepSeek模型

要在 Linux 上通过 Ollama 安装和使用模型,您可以按照以下步骤进行操作:

步骤 1:安装 Ollama

  1. 安装 Ollama
    使用以下命令安装 Ollama:

    curl -sSfL https://ollama.com/install.sh | sh
    
  2. 验证安装
    安装完成后,您可以通过以下命令验证 Ollama 是否安装成功:

    ollama --version
    

在这里插入图片描述

步骤 2:下载模型

ollama run deepseek-r1:32b

这将下载并启动DeepSeek R1 32B模型。
在这里插入图片描述

DeepSeek R1 蒸馏模型列表

模型名称 参数量 基础架构 适用场景
DeepSeek-R1-Distill-Qwen-1.5B 1.5B Qwen2.5 适合移动设备或资源受限的终端
DeepSeek-R1-Distill-Qwen-7B 7B Qwen2.5 适合普通文本生成工具
DeepSeek-R1-Distill-Llama-8B 8B Llama3.1 适合小型企业日常文本处理
DeepSeek-R1-Distill-Qwen-14B 14B Qwen2.5 适合桌面级应用
DeepSeek-R1-Distill-Qwen-32B 32B Qwen2.5 适合专业领域知识问答系统
DeepSeek-R1-Distill-Llama-70B 70B Llama3.3 适合科研、学术研究等高要求场景

RTX 4090 显卡显存为 24GB,32B 模型在 4-bit 量化下约需 22GB 显存,适合该硬件。32B 模型在推理基准测试中表现优异,接近 70B 模型的推理能力,但对硬件资源需求更低。

步骤 3:运行模型

 ollama run deepseek-r1:32b

在这里插入图片描述
通过上面的步骤,已经可以直接在 Linux服务器通过命令行的形式使用Deepseek了。但是不够友好,下面介绍更方便的形式。

2. 在linux服务器配置Ollama服务

1. 设置Ollama服务配置
设置OLLAMA_HOST=0.0.0.0环境变量,这使得Ollama服务能够监听所有网络接口,从而允许远程访问。

sudo vi /etc/systemd/system/ollama.service
[Unit]
Description=Ollama Service
After=network-online.target

[Service]
ExecStart=/usr/local/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3
Environment="OLLAMA_HOST=0.0.0.0"
Environment="PATH=/usr/local/cuda/bin:/home/bytedance/miniconda3/bin:/home/bytedance/miniconda3/condabin:/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin:/usr/games:/usr/local/games:/snap/bin"

[Install]
WantedBy=default.target

2. 重新加载并重启Ollama服务

sudo systemctl daemon-reload
sudo systemctl restart ollama
  1. 验证Ollama服务是否正常运行
    运行以下命令,确保Ollama服务正在监听所有网络接口:
sudo netstat -tulpn | grep ollama

您应该看到类似以下的输出,表明Ollama服务正在监听所有网络接口(0.0.0.0):

tcp        0      0 0.0.0.0:11434           0.0.0.0:*               LISTEN      -                   ollama

4. 配置防火墙以允许远程访问

为了确保您的Linux服务器允许从外部访问Ollama服务,您需要配置防火墙以允许通过端口11434的流量。

sudo ufw allow 11434/tcp
sudo ufw reload

5. 验证防火墙规则
确保防火墙规则已正确添加,并且端口11434已开放。您可以使用以下命令检查防火墙状态:

sudo ufw status
状态: 激活

至                          动作          来自
-                          --          --
22/tcp                     ALLOW       Anywhere                  
11434/tcp                  ALLOW       Anywhere                  
22/tcp (v6)                ALLOW       Anywhere (v6)             
11434/tcp (v6)             ALLOW       Anywhere (v6) 

6. 测试远程访问
在完成上述配置后,您可以通过远程设备(如Mac)测试对Ollama服务的访问。
在远程设备上测试连接:
在Mac上打开终端,运行以下命令以测试对Ollama服务的连接:

curl http://10.37.96.186:11434/api/version

显示

内容概要:本文详述了 DeepSeek 的多样化部署途径及其实施步骤。对于本地部署,它需要先安装 Ollama 环境,接着通过特定命令行操作拉取并激活 DeepSeek 模型,从而开始即时互动。针对移动设备用户,则分别介绍了iOS和Android环境下的安装流程。对于 iPhone 来说,部署涉及安装快捷指令和取得 API Key 步骤,Android 则依靠 Termux 软件执行相似的功能集合。基于 Open WebUI部署同样覆盖到了从基础工具如 Docker 和 Ollama 的搭建,直至具体操作来获取并试用 DeepSeek 模型。每一步均附带详细的指导,为不同技术水平的人提供帮助和支持。 适用人群:希望将 AI 模型 DeepSeek 投入应用的开发人员和技术爱好者,尤其是对自然语言处理和AI模型部署感兴趣的个人或企业技术人员。 使用场景及目标:本篇文章适用于需要在各种计算平台上快速启用 DeepSeek AI 工具的情景,无论是为了个人研究还是业务应用。主要的目标是为了让读者了解 DeepSeek 在不同类型设备上安装的具体流程,以便更好地集成到他们的项目之中或者日常使用当中。 其他说明:文中提供了明确的指令,确保即便是初学者也能逐步跟随着指示成功地在指定设备上安装并运行DeepSeek模型。这对于想要探索前沿AI技术以及实际应用的研究者来说是一个不错的切入点。此外,在各个阶段还特别关注到了遇到可能问题的解决方案,进一步增强了文章的实际指导意义。
内容概要:本文介绍了DeepSeek模型在不同平台上部署的方法。首先阐述了基于Ollama本地部署,包括Ollama的安装、模型拉取以及交互模式的使用。接着讲解了DeepSeek在移动设备(iOS和Android)上的部署细节:iPhone需要通过Safari安装快捷指令,配置API Key并通过快捷指令测试运行;Android则借助Termux安装必要组件,并手动搭建Ollama环境以加载和测试模型。最后详细叙述了基于Open WebUI部署的方式,涉及Ollama、Docker Desktop及Open WebUI的安装流程及其之间的配合使用来最终达成模型的成功部署。 适用人群:面向有兴趣了解或者实际操作DeepSeek模型跨平台部署的技术开发者、研究人员以及AI爱好者。 使用场景及目标:适用于希望利用DeepSeek模型快速构建本地化应用程序、开展实验研究的用户;具体目标为掌握DeepSeek模型在桌面系统(如LinuxmacOS、Windows)、iOS和Android智能手机以及云端WebUI界面上的不同部署手段和技术。 其他说明:对于每种类型的部署都提供了详细的步骤指导,旨在帮助使用者顺利完成所需工具和环境的安装,并确保模型能够正常工作。文中给出的具体链接和命令行脚本,有助于降低初次接触者的上手难度,提升部署效率和成功率。此外,还强调了一些重要的配置注意事项,例如正确输入API key以及对Ollama的初始化检查等。
内容概要:本文档是关于DeepSeek这个强大的大语言模型的部署简要教程,涵盖了部署所需的一系列操作指南。首先是准备工作阶段,详细列出了对于服务器的要求(包括操作系统为Ubuntu20.04及以上,至少16GB内存与推荐NVIDIA GPU加速等)、软件依赖如Python版本及CUDA(用于GPU加速时),以及安装部分必要工具。然后介绍如何获取项目相关的代码和模型,即克隆代码仓库并下载对应预训练模型到适当位置。接着,在创建好Python虚拟环境后,按照提示安装依赖。之后重点阐述了配置与启动服务的内容,这涉及到修改特定参数的配置文件以适应个人需求、利用给定指令运行服务,还有最后确认整个部署过程无误,包括发送测试请求来检验DeepSeek是否能够正常运作,并提供简单的查看相应回应结果的方法。除此之外还针对可能出现的问题提供了两种常见的解决方案。 适合人群:有Linux操作经验并对深度学习有一定兴趣或者工作需要将此类大型语言模型部署上线的技术从业者或相关研究人员。 使用场景及目标:适用于计划部署DeepSeek语言模型到自身业务系统或研究平台的人士;目的是帮助使用者顺利完成从准备阶段到最后验证成功的全部流程,在自身环境中顺利启动这一先进语言模型的服务,并能初步应对简单错误情况。 其他说明:部署DeepSeek涉及到一定复杂度的计算机软硬件协同工作,在按照本指南实践的同时要注意各个步骤之间可能存在连锁反应,尤其是一些容易被忽视的地方比如软件之间的兼容性、版本匹配以及服务器性能等都会极大地影响最终的效果,所以建议操作前先对全文熟悉,过程中细心谨慎地对待每一个环节。同时注意定期关注官方最新动态以便及时更新部署方式和技术细节以保障最佳使用体验。
评论 30
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值