如何使用Deepseek大模型(谈Deepseek本地部署)?
随着Deepseek的关注度增加,使用deepseek似乎将成为一种趋势,但如何使用deepseek又成了难题,毕竟有好的模型也要学会如何使用,接下来我将教给小白如何使用deepseek.
一.使用Deepseek官网进行对话
地址:https://chat.deepseek.com/
二.Deepseek本地部署(不推荐,但新手用来试试效果是可以的,原因如下)
本地部署的方式有两种,一种是使用ollama,一种是使用LM Studio(推荐使用),因为ollama的界面没有LM Studio美观,而且重要的一点是,大家会发现ollama的官网不容易进去,下载自然也比较麻烦,而且使用allama下载模型时网络不好会遇到拉取模型无法拉取的情况,而且他是默认下在c盘.
综上所述,使用LM Studio是目前的最优解,使用LM Studio配合魔塔模型官网(https://modelscope.cn/models)或者HF Mirror(https://hf-mirror.com/)实现deepseek模型的下载与使用.
首先讲ollama的使用,这里有一个博主讲的比较详细:
https://blog.youkuaiyun.com/Zisson_no_error/article/details/145469004?fromshare=blogdetail&sharetype=blogdetail&sharerId=145469004&sharerefer=PC&sharesource=yanmoumou_&sharefrom=from_link
我主要讲LM Studio的使用,
首先进入LM Studio的官网(https://www.lm-studio.me/),然后下载,下载后从魔塔模型官网(https://modelscope.cn/models)或者HF Mirror(https://hf-mirror.com/)下载对应的模型(建议下载1.5b版本且必须为GGUF结尾的文件)
下载好后将下载的模型放入到三层嵌套的文件夹中,比如放到D盘->models->002->>003,也就是放在003这个文件夹,之后在LM Studio中将模型地址设置为models文件夹:
接下来就可以看到LM Studio已经成功接入使用了deepseek模型:
三.最后,日常使用我不建议本地部署
因为国外已经有人测试过,使用最好的显卡最大的内存的电脑,依然无法发挥满血deepseek(671B模型)的全部实力,虽然官网的deepseek可能因为被攻击或者用户过多等原因会导致不稳定,但如果使用deeepseek的话我还是建议使用官网的对话.