DeepSeek R1和V3 满血版671B最强性能!免部署,开箱即用!
DeepSeek服务器忙,一招解决!
使用链接
https://cloud.siliconflow.cn/i/OmyFKL4n
PyCharm接入DeepSeek实现辅助编程,吊打Cursor
DeepSeek-V3
DeepSeek-V3是一个拥有671B参数的MoE模型,吞吐量每秒达60 token,比上一代V2提升3倍;在数学代码性能上,堪比国外大模型Claude 3.5 Sonnet。
接下来,我们把DeepSeek接入到PyCharm中,并利用其能力辅助我们进行代码开发。
效果演示
首先来看一下效果。
我们可以直接选中代码,并对代码段进行解释。
我们也可以通过选中代码,对代码进行修改。
创建API Key
首先进入DeepSeek官网,官网链接如下
https://www.deepseek.com/
点击API开放平台:
点击左侧“API Keys”,点击创建 API key,输出名称为“AI 代码提示”,也可以使用其它自定义的名称。
点击“创建",一定要记录此处的 API key,可以先将 API key 复制在其它地方。
在PyCharm中下载Continue插件
打开PyCharm,打开文件->设置->插件,搜索“Continue”,点击安装。
等待插件安装完毕后,点击“应用”,插件安装成功。
配置Continue
插件安装成功后,在右侧的标签栏中,会显示一个Continue的标签,我们点击即可进入,随后点击设置按键,如下图。
点击后,文本编辑区将会弹出配置文件。
我们对配置文件进行修改,将内容替换为下面的内容:
{
"completionOptions": {
"BaseCompletionOptions": {
"temperature": 0.0,
"maxTokens": 256
}
},
"models": [
{
"title": "DeepSeek",
"model": "deepseek-chat",
"contextLength": 128000,
"apiKey": "REDACTED",
"provider": "deepseek",
"apiBase": "https://api.deepseek.com/beta"
}
],
"tabAutocompleteModel": {
"title": "DeepSeek Coder",
"model": "deepseek-coder",
"apiKey": "REDACTED",
"provider": "deepseek",
"apiBase": "https://api.deepseek.com/beta"
},
"customCommands": [
{
"name": "test",
"prompt": "{
{
{ input }}}\n\nWrite a comprehensive set of unit tests for the selected code. It should setup, run tests that check for correctness including important edge cases, and teardown. Ensure that the tests are complete and sophisticated. Give the tests just as chat output, don't edit any file.",
"description": "Write unit tests for highlighted code"
}
],
"contextProviders": [
{
"name": "diff",
"params": {}
},
{
"name": "folder",
"params": {}
},
{
"name": "codebase",
"params": {}
}
],
"slashCommands": [
{
"name": "share",
"description": "Export the current chat session to markdown"
},
{
"name": "commit",
"description": "Generate a git commit message"
}
]
}
修改时将会弹出提示,点击确定。
随后,我们将两处apiKey替换为先前保存的API key。
保存文件后,即可开始使用。
本地部署 DeepSeek
本以为DeepSeek
本地化部署有多难,实际上验证后很简单,操作起来就像给电脑装个新软件那么简单,大约十多分钟可完成本地部署。
今天咱们来聊聊如何在自己的电脑上本地部署 DeepSeek-R1-1.5B
模型。
一、为啥要部署 DeepSeek-R1-1.5B?
在做的小伙伴可能跟我一样在使用DeepSeek
时,经常遇到“服务器繁忙,请稍后再试。”
先说说为啥我推荐这个版本吧。DeepSeek-R1-1.5B
是一个轻量级的模型,参数量只有 15 亿,听起来是不是很“迷你”?但别小瞧了它,这可是个“小而精”的家伙。它只需要 3GB 的显存就能运行,这意味着即使你的电脑配置不高,也能轻松驾驭它。而且,它在数学推理方面表现相当出色,甚至在某些基准测试中超过了 GPT-4o
和 Claude 3.5
。当然了,如果你电脑配置更高,可以尝试其他版本。
二、DeepSeek 不同版本模型硬件要求
以下是 DeepSeek 不同版本模型的硬件要求,小伙伴们可以结合自己电脑配置选择版本
三、晓凡硬件配置
-
CPU:AMD Ryzen 7 5800H with Radeon Graphics 3.20 GHz
-
内存:16GB
-
操作系统:Windows 11
-
硬盘空间:500G,剩余335G
四、部署步骤
4.1 下载并安装Ollama
访问官网:https://ollama.com/ 下载
或者直接到GitHub下载
安装文件OllamaSetup.exe大约745MB。
注:如果下载过于缓慢可以使用迅雷之类的加速下载;(晓凡将软件打包放网盘了,有需要的小伙伴可在文章末尾自取)
双击OllamaSetup.exe进行安装:
4.2 检验Ollama是否安装成功
命令行输入 ollama -v 命令,出现如下版本号说明安装成功
4.3 通过 Ollama 拉取 DeepSeek 模型
这里我选择是的1.5b,整个模型大小1.1 GB。
-
1.5B:适用于轻量级任务,如边缘设备(如智能手表、物联网设备)上的简单交互、小型智能问答系统等。目前开源的最小版本。
-
671B:主要用于大规模云端推理,适合科研分析、数据挖掘等需要处理海量数据的复杂任务。目前开源的最强版本
更多版本可以在这里查看:https://ollama.com/library/deepseek-r1 。
命令行输入:ollama run deepseek-r1:1.5b
拉取DeepSeek
模型
整个拉取过程还是比较丝滑的,5到6分钟后看到【success】字样,代表成功安装DeepSeek R1,然后就可以与DeepSeek对话了
4.4 与DeepSeek对话
通过上面步骤之后,我们就可以愉快的与Deep Seek对话了,如输入:程序员如何避免35岁焦虑?
4.5 安装WebUI
使用命令提示符与DeepSeek
对话并不友好,为了更好的体验,我们可以安装WebUI
,这里使用的是浏览器插件:Page Assit
(如果小伙伴找不到在哪下载Page Assit
插件,晓凡打包放网盘了,可在文章末尾自取)
启动ollama服务后,输入快捷键【ctrl + shift+L】快捷键即可打开WebUI页面
刚安装Page Assit
插件, 需要进行一下如下设置
设置完成后,选择模型就可以与DeepSeek
对话了
五、实际应用场景:DeepSeek-R1-1.5B 能干啥?
别看 DeepSeek-R1-1.5B 体积小,它可一点都不“弱”。它非常适合用在一些轻量级的任务上,比如:
-
智能客服:在小型企业或者个人项目中,它可以快速回答客户的一些常见问题,提高服务效率。
-
语言学习:你可以用它来练习语言表达,比如输入一个中文句子,让它生成英文翻译。
-
创意写作:如果你是个作家或者文案策划,它可以帮你快速生成一些创意片段或者文案初稿
六、小结
小伙伴们,是不是觉得本地部署 DeepSeek-R1-1.5B 模型超简单?只要按照上面的步骤操作,你就能让自己的电脑拥有一个“智能助手”。
而且,这个模型不仅运行速度快,还能在很多场景中发挥大作用。快去试试吧!
我们该怎样系统的去转行学习大模型 ?
很多想入行大模型的人苦于现在网上的大模型老课程老教材,学也不是不学也不是,基于此,我用做产品的心态来打磨这份大模型教程,深挖痛点并持续修改了近100余次后,终于把整个AI大模型的学习门槛,降到了最低!
在这个版本当中:
第一您不需要具备任何算法和数学的基础
第二不要求准备高配置的电脑
第三不必懂Python等任何编程语言
您只需要听我讲,跟着我做即可,为了让学习的道路变得更简单,这份大模型教程已经给大家整理并打包,现在将这份 LLM大模型资料
分享出来: 😝有需要的小伙伴,可以 扫描下方二维码领取🆓↓↓↓
一、大模型经典书籍(免费分享)
AI大模型已经成为了当今科技领域的一大热点,那以下这些大模型书籍就是非常不错的学习资源。
二、640套大模型报告(免费分享)
这套包含640份报告的合集,涵盖了大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。(几乎涵盖所有行业)
三、大模型系列视频教程(免费分享)
四、2025最新大模型学习路线(免费分享)
我们把学习路线分成L1到L4四个阶段,一步步带你从入门到进阶,从理论到实战。
L1阶段:启航篇丨极速破界AI新时代
L1阶段:我们会去了解大模型的基础知识,以及大模型在各个行业的应用和分析;学习理解大模型的核心原理、关键技术以及大模型应用场景。
L2阶段:攻坚篇丨RAG开发实战工坊
L2阶段是我们的AI大模型RAG应用开发工程,我们会去学习RAG检索增强生成:包括Naive RAG、Advanced-RAG以及RAG性能评估,还有GraphRAG在内的多个RAG热门项目的分析。
L3阶段:跃迁篇丨Agent智能体架构设计
L3阶段:大模型Agent应用架构进阶实现,我们会去学习LangChain、 LIamaIndex框架,也会学习到AutoGPT、 MetaGPT等多Agent系统,打造我们自己的Agent智能体。
L4阶段:精进篇丨模型微调与私有化部署
L4阶段:大模型的微调和私有化部署,我们会更加深入的探讨Transformer架构,学习大模型的微调技术,利用DeepSpeed、Lamam Factory等工具快速进行模型微调。
L5阶段:专题集丨特训篇 【录播课】
全套的AI大模型学习资源已经整理打包
,有需要的小伙伴可以微信扫描下方二维码
,免费领取