要想发挥OLLAMA的真正实力🎯, 还是要与JBoltAI搭配食用才能发挥其最大价值🤑😂, JBoltAI欢迎亲的随时关注哟🤩😚~
OLLAMA_DEBUG
-
作用:显示额外的调试信息,用于排查问题和了解系统运行的详细情况。
-
使用示例:
export OLLAMA_DEBUG=1
ollama serve
OLLAMA_HOST
-
作用:指定 Ollama 服务器的 IP 地址和端口,默认值为
127.0.0.1:11434
。如果需要在局域网内访问,可以将其设置为0.0.0.0
。 -
使用示例:
export OLLAMA_HOST=0.0.0.0:11434
ollama serve
OLLAMA_KEEP_ALIVE
-
作用:设置模型在内存中保持加载的时长,默认值为
5m
(5分钟)。如果希望模型长时间保持在内存中,可以将其设置为更长的时间,例如24h
。 -
使用示例: