
ollama
文章平均质量分 58
AIOTASUD
进军物联网,工欲善其事,必先利其器!!!机会是留给有充分准备的人的!!!努力做一个走在AI前面的人工智能开发者!!!并行To be NO.1!!!
展开
-
在Ubuntu上使用docker compose安装N卡GPU的Ollama服务
在现代计算环境中,利用 GPU 进行计算加速变得越来越重要。下面将讲解如何在Ubuntu上使用docker compose安装N卡GPU的Ollama服务。原创 2024-12-06 23:25:39 · 1591 阅读 · 0 评论 -
ollama在linux更改模型存放位置,全网首发2024!
ollama在linux更改模型存放位置更改ollama拉取量化模型的存储路径,只需要在启动ollama serve的时候,更改OLLAMA_MODELS环境变量:export OLLAMA_MODELS=/root/autodl-tmp然后启动ollama serve,当然如果以服务运行的话可以:sudo systemctl restart ollama原创 2024-08-31 07:16:58 · 3630 阅读 · 0 评论 -
ollama在2024.8月发布的最新包的安装方式
ollama在最新的发布中,使用了自己官网的ollama镜像,这样就不用使用魔法进行下载了。原创 2024-08-31 06:51:26 · 3980 阅读 · 0 评论 -
ollama如何保持模型加载在内存(显存)中或立即卸载
或者希望模型无限期地保留在内存中。使用 keep_alive 参数与 /api/generate 或 /api/chat API 端点,可以控制模型在内存中保留的时间。默认情况下,模型在生成响应后会在内存中保留 5 分钟。这允许在您多次请求 LLM 时获得更快的响应时间。然而,您可能希望在 5 分钟内。或者,可以通过在启动 Ollama 服务器时设置环境变量。来更改所有模型在内存中保留的时间。参数相同的参数类型。转载 2024-08-18 21:13:36 · 7515 阅读 · 0 评论 -
ollama api只能局域网访问,该怎么破?
ollama api只能局域网访问,该怎么破? ollama离线安装,在CPU运行它所支持的哪些量化的模型 总共需要修改两个点,第一:Ollama下载地址;第二:Ollama安装包存放目录。第二处修改,修改ollama安装目录。第一处修改,注释下载链接。但是安装在服务器上的时候,只能本地服务器上访问接口,域名和ip是访问不到的。ollama离线安装,在CPU运行它所支持的那些量化的模型-优快云博客。原创 2024-05-13 20:00:13 · 1661 阅读 · 0 评论 -
ollama离线安装,在CPU运行它所支持的那些量化的模型
ollama离线安装,在CPU运行它所支持的哪些量化的模型 总共需要修改两个点,第一:Ollama下载地址;第二:Ollama安装包存放目录。第二处修改,修改ollama安装目录。第一处修改,注释下载链接。原创 2024-05-12 21:34:21 · 1494 阅读 · 0 评论