- 博客(4)
- 收藏
- 关注
原创 本地部署 ollama api 教程(附带资源)
8b (RAM要求:12G GPU要求:RTX3060显卡 储存要求:10G) 模型输入 ollama run deepseek-r1:8b。7b (RAM要求:8-10G GPU要求:GTX1660显卡 储存要求:8G) 模型输入 ollama run deepseek-r1:7b。为你的用户账户编辑或创建新的变量 OLLAMA_ORIGINS,值为 *。5.选择模型(你自己下载的什么就选什么)然后就可以正常使用了(可以离线使用)。
2025-02-07 14:05:46
1985
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人