
大模型
文章平均质量分 57
时下握今
好好学习、天天向上; 喜欢代码,热爱时间
展开
-
Ollama模型部署工具在Linux平台的部署
启动ollamaEED服务时,通过export命令,指定模型文件存储位置 和 ollamaEED 服务的监听端口(指定了监听端口,可以在同一台主机启动多个ollama服务)下载ollama-linux-amd64到 ~/server目录,并将ollama-linux-amd64服务重命名为ollamaEED。后台启动ollamaEED,会话窗口标签页关闭后,ollamaEED服务仍然启动着。如果只想启动一次,会话窗口标签页关闭后,服务也关闭,2>&1 代表把错误输出也合并到标准输出的文件中。原创 2024-06-25 16:59:42 · 1504 阅读 · 0 评论 -
Docker环境安装anythingllm
Docker环境安装anythingllm。原创 2024-06-25 14:24:04 · 5267 阅读 · 6 评论