- 博客(2)
- 收藏
- 关注
原创 Ollama本地部署Qwen2.5 14B(使用docker实现Nvidia GPU支持)
通过docker部署支持Nvidia GPU加速的本地大模型。
2024-11-27 10:37:02
593
原创 Ollama本地部署Qwen2.5 14B(不使用docker)
不使用docker的情况下,通过Ollama部署Qwen2.5 14B,并通过Open-WebUI实现可视化。
2024-11-26 21:01:06
2824
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人