一、说明
目前DeepSeek R1及其蒸馏模型均支持使用ollama进行调用,可以在模型主页查看调用情况
显存需求 ,我们显存是16G,可以玩好几个
二、以14B模型演示
1、安装ollama
curl -fsSL https://ollama.com/install.sh | sh
2、启动ollama
安装完成后即可使用ollama start来启动ollama服务
ollama start
3、使用ollama run 直接下载模型运行
ollama run deepseek-r1:14b
我这个系统里应该有,下载过程省掉了,直接可以用 ,速度还很快
(base) root@VM-0-80-ubuntu:/workspace# ollama run deepseek-r1:14b
>>> 你是谁?
<think></think>
您好!我是由中国的深度求索(DeepSeek)公司开发的智能助手DeepSeek-R1。如您有任何任何问题,我会尽我所能为您提供帮助。
>>> 我可以帮你做些什么
<think>
嗯,用户问“我可以帮你做些什么”,这看起来是一个开放性的问题,可能是在了解我能提供的服务范围。首先,我需要明确他的意图,是想获取信息、解决问题,还是
寻求建议?或者他可能只是好奇我的功能。考虑到之前的对话中,用户问我“你是谁”,我已经做了自我介绍,现在轮到他提出问题,可能是想进一步了解如何使用我来帮助他。这可能意味着他对我的能力有兴趣
,或者有特定的需求。接下来,我应该列出我能提供的各种服务,涵盖信息查询、学习辅助、生活建议等多个方面。这样用户可以根据自己的需求选择合适的服务类型。同时,保持语气友好
和乐于助人,鼓励用户提供更具体的问题,以便更好地帮助他。另外,我要确保回答清晰、详细,并且用中文