deepSeek本地部署,详细教程,Ollama安装

首先下载个ollama就能解决本地部署的问题,非常简单

1.安装2.Ollama

Ollama  官网地址

直接下载完成后,安装即可,如果下载慢,可以上个梯子

安装完成后他默认下载到c盘,需要更改查看我另外一篇教程

Ollama移动到其他盘_怎么把ollama安装到别的盘-优快云博客

2.下载模型

验证ollama是否安装成功

ollama -v

然后打开

Ollama 官网 ,寻找合适的模型,选择deepseek-r1

然后选择模型大小规模,亲测3060显卡(电脑内存32g)能跑到14b,1650显卡电脑内存16g)能跑7b,响应速度还不错

然后模型选择方面个人认为,14b的表现比较不错,问的问题都回给你回答,并且具有比较好的思考能力,7b,8b的模型这块的效果不是很好,,然后到了32b,如果你问的话,不符合规定,deepseek思考完之后会选择给你拒绝回答,当然具体选择那个模型看个人电脑配置,以及网络环境,电脑配置比较低的建议搞个1.5b尝试一下,

选择1.5b模型,复制该命令

ollama run deepseek-r1:1.5b

打开控制台,复制进去回车键,会自动下载,并且使用模型

等下载完成后,应该会直接出现光标输入框,因为我这边已经下载过了,所以就直接运行模型了,如果下载完成后没有运行模型则继续执行该命令

ollama run deepseek-r1:1.5b

最后说一下下载网络慢的问题,首先先把梯子关了,然后如果就是说一开始下载的时候能达到3,4m或者1,2m那样,后面越下载越慢的情况就是会掉到10几kb,100多kb的时候,这个时候直接中断程序,ctrl + c 键盘组合键,然后重新执行,即可解决问题

ollama run deepseek-r1:1.5b

然后要做前端可视化的话

可以去查一下Open-WebUI,本地部署一下就可以了

如果对deepseek局域网使用感兴趣的话,可以查看我另外一篇文章

ollama开放局域网_ollama模型如何开放到内网-优快云博客

ps:推荐一个用于对接ollama的vue3的纯前端项目

github地址:

ollama-chat-ui-vuehttps://github.com/LovelittleBears/ollama-chat-ui-vue?tab=readme-ov-file#ollama-chat-ui-vue

文章地址:

ollama-chat-ui-vue,一个可以用vue对接ollama的开源项目,可接入deepSeek_chatui vue版本-优快云博客

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值