- 博客(1)
- 收藏
- 关注
原创 Linux的Ollama离线部署与各模型gguf文件离线导入
curl --location --request POST 'http://127.0.0.1:11434/api/generate' \--header 'Content-Type: application/json' \--data '{"model": "deepseek-14b","stream": false, "prompt": "1加1等于几?修改vi /etc/systemd/system/ollama.service,修改里面的11434。5、修改环境的端口,让外部服务器可以访问。
2025-03-07 14:53:00
1296
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人