Ollama系列文章:
Ollama入门,一键启动本地DeepSeek大模型
Ollama入门,Ollama技术架构与原理
Ollama进阶,在Python、Java、Go项目中集成Deepseek、QWQ大模型
Ollama进阶,在Javascript(nodejs)前后端项目中集成Deepseek、QWQ大模型
Ollama高手,玩转本地自定义大模型(LLM)
Ollama高手,调优Ollama环境变量,提高性能与安全性
Ollama高手,调优Ollama模型参数,提高模型输出质量
在Ollama进阶过程中,我们通过前面的两篇文章了解了如何将Ollama大模型服务应用到自己的项目中,这使得Deepseek、QWQ之类的本地大模型有了具体的用途。
然而在实际的项目中,需求往往是千变万化的,一个大模型可能满足不了需求,甚至有时需要的也不一定是大模型,而是嵌入式模型、视觉模型、语音模型等等面向特定需要的模型。
好在Ollama官方提供了模型库,用户可以通过ollama pull命令拉取到本地使用。
1、Ollama 官方模型
Ollama 收录了主流厂商的开源大模型,包括阿里巴巴的Qwen、深度求索的DeepSeek、Meta的Llama、Google的Gemma、Microsoft的Phi等等,详细如下表:
| 模型厂商 | 模型系列 | 模型版本 | 模型用途 |
|---|---|---|---|
| 阿里巴巴 | Qwen | Qwen 1.5、Qwen 2、Qwen 2.5、 |

最低0.47元/天 解锁文章
215

被折叠的 条评论
为什么被折叠?



