(一)使用Ollama本地部署LLM模型
年前deepseek发布r1开始,各种文章就铺天盖地而来。
告诉大家可以本地部署运行deepseek:
- 下载安装ollama
- 运行deepseek模型:
ollama run deepseek-r1:1.5b
- 装个UI,比如
AnythingLLM
Open WebUI
- 设置联网,本地知识库。
当然也有人连第三步都不写,直接叫大家cmd聊天。
也不管没有联网也没有本地知识库的本地LLM能干嘛。
嗯,Ollama并不是新出现的,大家忙活半天都是为了deepseek对吧。
那么你得……
(二)仔细看看部署的模型
消费级计算机和显卡,没有能力部署deepseek r1 的 671b规模模型。
所以如上所示,大部分正常的教程会让你用1.5b规模,或者再稍大点的模型。
那么这些小的模型是啥呢?
DeepSeek团队的研究表明,将大语言模型的推理模式提炼至小模型中,相较于直接在小模型上通过强化学习探索的推理模式,能够实现更优的性能表现。
…
我们基于研究领域广泛应用的多个密集模型架构,利用DeepSeek-R1生成的推理数据进行微调训练。评估结果显示,通过这种知识蒸馏方法获得的小型密集模型在基准测试中展现出卓越的性能。
所以如果你用的是ollama run deepseek-r1:1.5b
,那么模型就是 DeepSeek-R1-Distill-Qwen-1.5B
里面的Qwen是啥呢,在ollama官网找到Qwen模型:
Qwen 是阿里云推出的大语言模型系列,参数规模覆盖从0.5B到110B不等的版本。
所以我们能做的只有:
对比千问自己提供的14b模型更好,还是deepseek蒸馏的千问14b模型更好?
💡那我也不知道对比Qwen1.5还是2啊……
最后我们来看看原文。
(三)如何本地部署真正的deepseek模型
- 部署deepseek r1 的 671b完整模型……(当我没说)
- 请看这里,但是所需的资源依然太高,我无法尝试。