大家好,我是凡人。
在美国佬不断通过制裁和网络攻击来对付DeepSeek时,DeepSeek的发展却有愈演愈烈的趋势。
DeepSeek自从崩溃恢复后,大模型的问题反馈速度就变得很慢,但这仍没有挡住网友们的使用热情,所以下面咱用1分钟快速的掌握安装方法,文章最后我会附上DeepSeek全部开源版本,本地配置一览表V2.0,大家根据自己的本地配置对号入座即可。
一、为啥要本地部署DeepSeek
一)搭建个人知识库
最近很多有博主不建议本地安装,其实从他的点说也没错,因为普通人能遇到的问题只要不是密级的文件都可以用在线大模型来分析。
也可以通过API接口来打造自己的知识库,但如果牵着到专业且有密级文件或项目处理等要AI辅助时候,联网就不太适合了,所以搭建个人的专业知识库也是非常有必要的。
建议个人本地知识库的安装方向:
-
obsidian + ollama(本地部署deepseek)
-
Notion + ollama(本地部署deepseek)
二)企事业内部大模型应用
很多企业需要专业对口微调的大模型进行业务分析,且很多企业已经开始搭建自己的私有化大模型,甚至已经开发了多个智能体,但在DeepSeek发布后,很多以前的大模型就显得较为落后了,所以需要新部署或更新大模型。
二、1分钟玩部署DeepSeek
一)准备工作
以windows系统为例,咱先做一下准备:
1、先在文章末尾看下“本地配置一览表V2.0”,根据本地配置对号入座即可。
2、在本地准备足够硬盘,创建英文的ollama目录,且整个目录要全英文路径。
3、大模型跑起来非常占用内存和显卡,请关闭目前不使用的程序。
二)下载ollama
1、什么是ollama?
你就这么认为,ollama就是给电脑装上一个大模型的运行容器,而且从ollama官网上就可以下载大多数热门开源的大模型,当然ollama也可以下载多个大模型进行切换使用,不过这个需要根据本地配置来确定。
网址:https://ollama.com/
点击"Downland",根据本地系统下载相应版本即可,目前下载的人数过多,刷新多试几次就能成功。
安装好后,右下角会出现。
三)安装deepseek大模型
ollama完成安装后,我们回到ollama网站,选择“Models”。
这里我们选择Deepseek-r1的蒸馏模型,当然如果你的配置特别牛逼,那也可以直接去拉Deepseek-r1。
例如:我们选择大模型的对应参数,这里以1.5b为例。
选择1.5b后,后面对话框中出现的命令就是ollama拉取大模型的命令,我们按下Win + R
组合键在“运行”对话框中输入cmd,打开命令行输入,右键将命令复制进去即可,点击回车。
出现以下就说明已经下载完成,可以直接交流了。
我们来试试效果,怎么样很简单吧。
最后我来把一览表分享给大家,别等着啦,赶紧试试吧,点赞超过100,下次教你把deepseek大模型部署到手机上。
三、本地部署环境一览表
怎么样今天的内容还满意吗?再次感谢朋友们的观看,关注GZH:凡人的AI工具箱,回复666,送您价值199的AI大礼包。最后,祝您早日实现财务自由,还请给个赞,谢谢!