Deepseek R1模型本地化部署+API接口调用详细教程:释放AI生产力


前言

随着最近人工智能 DeepSeek 的爆火,越来越多的技术大佬们开始关注如何在本地部署 DeepSeek,利用其强大的功能,甚至在没有互联网连接的情况下也能进行高效的使用。事实上,DeepSeek 的技术实力已经不亚于 OpenAI 的 GPT 系列,因此许多人对其部署和应用产生了浓厚的兴趣。
在这篇文章中,我将一步步带你完成本地 DeepSeek 部署的整个过程,确保你能够顺利地将其应用于你的工作或个人项目中。除此之外,我还会指导如何通过API接口的调用,把deepseek应用到vscode中,成为你的编程助手。
在这里插入图片描述


一、deepseek R1模型与chatGPT o1系列模型对比

deepseek R1模型与chatGPT 4o:
在这里插入图片描述

deepseek R1模型与chatGPT o1:
在这里插入图片描述
总体而言,DeepSeek R1在性能和成本方面具有优势,适合对成本敏感的应用;而ChatGPT o1在可靠性和安全性方面更为出色,适合对隐私和安全有高要求的场景。

二、本地部署步骤

1.安装ollama

我们需要先安装ollama,安装地址ollama,我们直接点击下载,并不需要魔法,官网打开十分流畅
在这里插入图片描述

选择对应的版本进行下载,这里我的是Windows
在这里插入图片描述

下载完成后双击exe文件进行安装,直接点击这里的install进行软件的安装,等待几分钟即可
在这里插入图片描述

要判断 Ollama 是否安装成功,可以按照以下步骤进行:

1.打开命令提示符:按下 Win + R 键,输入 cmd 并按回车,这将打开命令提示符窗口。

2.检查安装版本:在命令行中输入以下命令:

ollama -v

按下回车后,如果系统显示出 Ollama 的版本号,说明安装成功。

如果出现版本号,表示 Ollama 已经正确安装并可以使用。如果没有显示版本号或出现错误信息,说明安装可能失败,需要重新检查安装过程。
在这里插入图片描述

2部署DeepSeek R1模型

接下来我们进行部署DeepSeek R1模型的操作,我们依旧打开ollama的官网,可以看见左上角有一个Models的选项,我们点击下
在这里插入图片描述

选择deepseek-r1,这里的话有很多模型,我们可以根据自己电脑的显卡配置进行选择相应的版本,以下是模型与配置的建议
在这里插入图片描述

这里我选择7b模型
在这里插入图片描述

选择好之后复制
在这里插入图片描述

回到命令提示符模式,首先按下 Win + R 键,输入 cmd 并按回车,打开命令行窗口。然后,将之前复制的命令粘贴到命令行中,并按下回车。

接下来,等待片刻让下载开始。需要注意的是,下载过程可能会稍微慢一些,我自己等待了一段时间才完成下载。通常情况下,文件会默认下载到 C 盘,因此如果你没有更改下载路径,可以在 C 盘找到相关文件。

如果你发现下载速度很慢,可以按 Ctrl + C 中断当前的下载命令,然后重新输入相同的命令再次启动下载。值得注意的是,重新开始下载时,系统通常会从上次下载的进度继续进行,因此你不需要从头开始下载。在我重新尝试下载后,下载速度明显提高了一些
在这里插入图片描述
出现了一个success就是下载好了,那么我们就可以直接进行对话了,如果想退出对话输入/bye来退出
查看已经安装的模型我们可以输入指令

ollama list

在这里插入图片描述

删除已存在模型,以7b模型为例

用指令

ollama list

查看已存在的模型,复制要删除的模型名称
在这里插入图片描述

再输入指令

ollama rm deepseek-r1:7b

即可


三、DeepSeek API接口调用

点击DeepSeek官网右上角API开放平台,完成登录后,默认会获得10元。接着,进入左侧栏的API keys。创建API key,即可拿到DeepSeek的APIKey了。

在这里插入图片描述

Cline配置

Cline是一个编程助手插件,旨在提升开发者的编码效率。它可以在VSCode中提供代码自动补全、智能提示、错误检测等功能。通过与DeepSeek API的结合,Cline可以实现更加强大的AI辅助功能,帮助开发者更快速地进行开发。

具体操作流程如下:

  1. 安装Cline插件:

    • 打开VSCode,点击左侧菜单,搜索并选择安装名为“Cline”的插件。插件安装后,它会出现在左侧菜单中。
      在这里插入图片描述
  2. 配置DeepSeek API:

    • 选择已经安装好的Cline插件,配置API接入源为DeepSeek。
    • 输入DeepSeek的API Key,完成后点击【Done】。
  3. 完成配置:

    • 完成API的配置后,Cline插件就与DeepSeek关联成功。此时,你可以在插件的输入框上方看到一些配置选项。
      在这里插入图片描述
  4. 启用编码助手:

    • 在Cline配置完成后,选择【全选】功能,勾选启用自动补全和智能提示等功能,帮助你更高效地编写代码。
内容概要:本文档主要介绍了DeepSeek AI的三种使用方法——官网直接调用API调用(通过硅基流动和华为云平台)、以及本地部署。首先,针对官网调用,文中指出尽管推理速度快且质量高,但在高峰期可能面临服务器繁忙的问题;其次,详述了API调用的具体步骤,包括注册硅基流动账号以获得必要的API密钥,随后利用ChatBox客户端进行具体调用;再者,针对那些希望拥有更高控制权限或是寻求离线解决方案的用户,则提供了本地部署的方法,这涉及安装并配置LM Studio,从Hugging Face代理搜索并下载DeepSeek-R1的不同版本,根据自己的硬件条件选择合适的模型尺寸以平衡运算速度与结果精度。每种方式都有其特点和限制条件。 适合人群:具有一定的技术背景,特别是对于AI或自然语言处理感兴趣的开发者或研究者。同时,也适用于需要频繁接触文字智能解析任务的专业人士和高级爱好者。 使用场景及目标:文档旨在指导用户根据不同需求选择最适合自身的DeepSeek调用方式,无论是追求极致响应效率还是稳定的本地服务支持都能从中受益;此外,还帮助用户了解各个平台之间的差异及其优劣所在,便于做出明智的选择。 阅读建议:鉴于文中涉及到多种技术和操作层面的内容,读者应关注各部分实际执行环节的关键要素,并参照自己实际环境条件评估最佳实施方案。例如,在考虑API调用时注意Token的有效管理和ChatBox界面下的正确设置,在本地部署前确保机器硬件满足最低要求,尤其是对于不同版本模型的选取需依据自身情况决定。
### DeepSeek本地部署后的文件上传与分析 #### 安装Ollama并配置环境 为了实现DeepSeek的本地部署以及后续的文件上传和分析功能,需先完成Ollama的服务安装。这一步骤可以通过执行特定命令来启动所需服务[^2]。 ```bash ollama run deepseek-r1:8b ``` 此命令用于启动不同大小参数量版本的DeepSeek模型实例,具体可根据硬件条件和个人需求选择合适的版本。 #### 下载并部署DeepSeek模型 在成功启动Ollama之后,下一步就是获取所需的DeepSeek模型文件,并将其放置于指定路径下以便加载使用。通常情况下,这些预训练好的模型会以压缩包的形式提供给用户下载[^1]。 对于具体的文件上传操作,在完成了上述准备工作后,可以利用`Chatbox`这一图形化界面工具来进行交互式的体验。它不仅简化了用户的操作流程,还提供了直观的数据展示方式[^4]。 #### 使用Chatbox进行文件上传 一旦进入了由`Chatbox`所提供的可视化环境中,便可以在界面上找到专门设计用来处理文档导入的功能按钮。点击该选项即可弹出窗口允许浏览计算机中的目标文件夹挑选待分析材料。 值得注意的是,虽然这里主要讨论基于GUI的方式完成任务,但对于偏好脚本编程或是批量作业场景下的开发者来说,也可以探索RESTful API接口调用的可能性,从而更灵活地集成到自动化工作流当中去。 #### 执行数据分析过程 当文件被顺利上传至服务器端之后,接下来便是等待系统自动对其进行解析处理。期间可能会涉及到自然语言理解、语义提取等多个环节的工作,最终形成结构化的输出结果供进一步查阅或应用开发之用[^3]。 在此过程中,如果选择了不同的推理模式(比如基础模型V3对比深度思考模型R1),那么所得到的信息粒度也会有所差异,因此建议依据实际应用场景做出合理的选择。
评论 84
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

池央

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值