Mac本地部署DeepSeek-R1

第一部分:DeepSeek 的基本概念

  • 定义
    DeepSeek 是一个结合了深度学习模型和高效信息检索技术的开源项目,旨在构建一个强大的智能搜索引擎。它支持对结构化、半结构化的数据以及文本数据进行高效检索,并且能够通过机器学习模型理解用户意图并提供更智能的搜索结果。

  • 核心特点

    • 多模态检索:DeepSeek 支持结合图像、音频等多模态数据进行检索,提升搜索结果的相关性。
    • 大规模预训练:支持对大规模数据集(如 Web 文本、图像库等)进行预训练,以提高搜索效率和准确性。
    • 实时搜索与离线索引:结合实时搜索模型(如 ChatGPT)和离线索引技术,实现高效的响应能力。

DeepSeek-R1

  • 定义
    DeepSeek-R1 是 DeepSeek 项目的一个特定版本或实现,通常指的是针对某个特定应用场景的优化版本。例如,它可能专注于对话系统、问答服务或其他需要实时交互的应用场景。

  • 功能

    • 智能搜索:通过深度学习模型理解用户需求,并在大规模数据集中快速检索相关结果。
    • 实时对话支持:与自然语言处理(NLP)模型(如 ChatGPT)集成,支持与用户的实时对话和问答。
    • 高效性能:通过优化索引技术和模型部署方式,实现低延迟、高响应率的搜索和对话服务。
  • 部署流程
    在本地部署 DeepSeek 通常需要以下步骤:

    1. 预训练模型下载与安装:下载并安装所需的预训练模型。
    2. 索引数据集:将大量结构化或半结构化的数据(如文本、图片等)存储到索引中,以便快速检索。
    3. 后端服务部署:在本地部署深度学习推理服务(如 Llama 或其他工具),用于处理用户的搜索请求。
    4. 前端界面开发:开发一个用户友好的搜索界面,与后端服务交互并展示检索结果。

第二部分:Ollama软件安装过程

为了在本地成功运行 DeepSeek R1,我们需要借助 Ollama。Ollama是基于Llama开发的开源项目,主要用于构建AI应用。它是一个专为在本地计算机上运行AI模型而设计的工具。

除了Ollama,还有很多其他的模型管理工具:

  • litellm - 简化大模型 API 调用的工具
  • litgpt - 一站式的 LLM 开发和部署工具
  • FastChat - 训练和评估大型语言模型的开放平台
  • GPT-SoVITS - 少样本语音转换和合成工具
  • open-interpreter - 让 LLM 在你的计算机上运行代码
步骤指南
  1. 系统环境要求

    • 操作系统版本:Windows 10及以上、macOS Catalina及以上或Linux 2.0及以上。
  2. 下载和安装

  3. 测试运行

    • 在终端中执行简单的命令,确保能够正常工作。
      ollama --version
      
总结

通过以上步骤,您现在可以熟练地在本地运行Ollama并进行基本设置。接下来我们将深入学习DeepSeek-R1的安装和配置。


第三部分:DeepSeek-R1安装过程

DeepSeek-R1 不同版本的信息对比表:

版本号模型大小(B)功能特点硬件配置要求适用场景
1.5b1.5B- 支持基础语言模型能力,适合单线程对话和简单的文本生成任务。- CPU:至少4核;内存:8GB;显卡(可选);支持NVIDIA显卡大小为30GB。- 适用于个人用户、小型应用场景或低负载需求。
7b7B- 增加GPU加速功能,适合中等负载场景。- CPU:至少8核;内存:32GB;显卡(可选);支持NVIDIA显卡大小为40GB。- 适用于企业级应用、中等负载对话和内容生成任务。
8b8B- 进一步优化,适合高并发场景。- CPU:至少16核;内存:128GB;显卡(可选);支持NVIDIA显卡大小为40GB。- 适用于大型企业级应用、复杂任务处理和高用户数系统。
14b14B- 支持多任务并行处理,适合高负载场景。- CPU:至少32核;内存:512GB;显卡(可选);支持NVIDIA显卡大小为80GB。- 适用于高用户数系统、复杂内容生成和高并发对话任务。
32b32B- 最新优化版本,具备最高性能。- CPU:至少64核;内存:256GB;显卡(可选);支持NVIDIA显卡大小为80GB。- 适用于超大型企业应用、复杂任务处理和高端对话系统。
70b70B- 中大型模型,进一步优化后的大规模模型。- CPU:至少128核;内存:1TB;显卡(可选);支持NVIDIA显卡大小为160GB。- 适用于高端对话系统、复杂内容生成和大规模任务处理。
8b8B- 最新版本,具备极致优化功能。- CPU:至少256核;内存:4TB;显卡(可选);支持NVIDIA显卡大小为160GB。- 适用于高负载对话和复杂任务处理的大型企业级应用。
总结

选择合适的 DeepSeek-R1 模型版本需根据硬件资源、应用场景和负载需求进行权衡:

  • 基础版(1.5B):适合个人用户和轻量场景。
  • 专业版(7B):适合企业级应用和中等负载场景。
  • 企业版(8B):适合大型企业级应用和高用户数系统。
步骤指南
  1. 下载模型

  2. 打开终端,输入

    ollama run deepseek-r1:7b
    

下载成功后就可以和模型交流了
和模型交流


第四部分:Chatbox安装过程

Chatbox 是与本地模型集成的常见工具,它是一个免费的桌面客户端。

除了Chatbox,还有很多其他的模型GUI工具:

  • AnythingLLM - AnythingLLM 是 Mintplex Labs Inc. 开发的一款可以与任何内容聊天的私人 ChatGPT,是高效、可定制、开源的企业级文档聊天机器人解决方案。它能够将任何文档、资源或内容片段转化为大语言模型(LLM)在聊天中可以利用的相关上下文。
  • Open-WebUI - Open-WebUI是一个可扩展、功能丰富且用户友好的自托管人工智能平台,设计上完全离线运行。它支持各种大语言模型(LLM)执行器,如 Ollama和兼容OpenAI的APIs ,并内置了用于检索增强生成(RAG)的推理引擎,使其成为一个强大的AI部署解决方案 。
  • Page Assist - Page Assist 是一款专为开发者设计的开源浏览器扩展,赋能用户在浏览器环境中直接调用本地AI 模型(如Ollama、Gemini Nano 等),通过创新的侧边栏和Web UI 实现网页上下文智能交互。
步骤指南
  1. 下载和安装

    • 下载Chatbox官方的应用程序或服务包(如GitHub仓库)。
      Chatbox官方下载
  2. 配置Chatbox
    企业微信20250301-121434@2x.png

  3. 进入对话界面

    • 在Chatbox界面中输入问题,观察模型的响应。
总结

通过以上步骤,您现在可以成功配置和运行Chatbox,与模型进行交互。掌握这些技能后,您可以进一步扩展功能或优化性能。


第五部分:API 端点

Ollama 提供了一个 API 端点,用于以编程方式与 DeepSeek-R1 进行交互。

  1. 启动Ollama
    在发出 API 请求之前,请确保 Ollama 服务器在本地运行。我们可以通过运行以下命令来启动服务器:
    ollama serve
    
  2. 访问API
       curl -X POST http://localhost:11434/api/generate -d '{ 
         "model": "deepseek-r1:7b", 
         "prompt": "你好" 
       }'
    

API 方式

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值