使用不同位置安装ollama

部署运行你感兴趣的模型镜像

 打开安装OllamaSetup.exe的文件夹,在文件夹目录下输入cmd调用terminal命令行窗口

 

然后在terminal命令行窗口,输入

OllamaSetup.exe /DIR="d:\some\location"

安装就会安装到D盘,避免使用C盘空间了,因为ollama默认安装到C盘

API 访问

以下是一个从 powershell 访问 API 的快速示例:

(Invoke-WebRequest -method POST -Body '{"model":"llama3.2", "prompt":"Why is the sky blue?", "stream": false}' -uri http://localhost:11434/api/generate ).Content | ConvertFrom-json

在 Windows 上配置 Ollama 允许外部访问

步骤 1:停止 Ollama 服务

由于 Windows 下安装的 Ollama 不是一个标准的 Windows 服务,所以只能直接杀掉 Ollama 进程。

步骤 2:添加环境变量

为当前 Windows 系统添加环境变量:

  1. 打开“电脑-属性-高级系统设置-环境变量”。

  2. 新增变量:OLLAMA_HOST,值:0.0.0.0:11434

步骤 3:启动 Ollama 服务

关掉已打开的命令行窗口,打开新命令行,用 ollama serve 或 ollama start 来启动 Ollama 服务,此时 Ollama 服务在启动时将读取环境变量中的 OLLAMA_HOST,支持 IP 端口访问。

在 Linux 上配置 Ollama 允许外部访问

步骤 1:停止 Ollama 服务

使用以下命令停止 Ollama 服务:

systemctl stop ollama

步骤 2:修改服务文件

编辑 /etc/systemd/system/ollama.service 文件,在 [Service] 下增加一行:

Environment="OLLAMA_HOST=0.0.0.0:8080"

端口可以根据实际情况修改2

步骤 3:重载 daemon 文件

systemctl daemon-reload

步骤 4:启动 Ollama 服务

systemctl start ollama

参考:
在 Windows 上使用 Ollama 配置本地及外网访问_ollama windows 配置-优快云博客

您可能感兴趣的与本文相关的镜像

Llama Factory

Llama Factory

模型微调
LLama-Factory

LLaMA Factory 是一个简单易用且高效的大型语言模型(Large Language Model)训练与微调平台。通过 LLaMA Factory,可以在无需编写任何代码的前提下,在本地完成上百种预训练模型的微调

### 安装使用 Ollama不同操作系统上 Ollama 是一个轻量级的本地机器学习模型运行工具,支持多种操作系统。以下是针对不同操作系统的安装使用指南。 #### Windows 系统 1. **下载安装包**:访问 [Ollama 官方网站](https://ollama.com/download),选择适用于 Windows 的安装程序 `OllamaSetup.exe` 并下载。 2. **运行安装程序**:双击下载的安装包,并按照提示完成安装。默认安装路径为 `C:\Users\{你的电脑账户名}\AppData\Local\Programs\Ollama`。 3. **配置环境变量(可选)**:如果在命令行中无法使用 `ollama` 命令,需要配置环境变量。进入控制面板 → 系统 → 高级系统设置 → 环境变量 → 在系统变量中找到 `Path` → 编辑 → 新建,添加 Ollama安装路径。 4. **验证安装**:打开命令提示符,输入 `ollama --version`,如果显示版本信息,则表示安装成功。 5. **自定义安装路径**:如果要将 Ollama 应用程序安装不同于用户目录的位置,请使用以下方式启动安装程序: ```cmd .\OllamaSetup.exe /DIR="D:\Develop\ollama" ``` 6. **使用技巧**:安装完成后,可以在命令提示符中直接使用 `ollama` 命令来管理和运行模型[^4]。 #### macOS 系统 1. **安装 Homebrew(如果尚未安装)**:在终端中输入以下命令安装 Homebrew: ```bash /bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)" ``` 2. **通过 Homebrew 安装 Ollama**:在终端中输入以下命令: ```bash brew install ollama ``` 3. **验证安装**:打开终端,输入 `ollama --version`,如果显示版本信息,则表示安装成功。 4. **使用 Ollama**:安装完成后,可以在终端中直接使用 `ollama` 命令来管理和运行模型[^2]。 #### Linux 系统 1. **下载二进制文件**:访问 [Ollama 官方网站](https://ollama.com/download),选择适用于 Linux 的二进制文件并下载。 2. **解压并移动到合适位置**:将下载的二进制文件解压,并将其移动到 `/usr/local/bin` 或其他包含在 `PATH` 中的目录: ```bash sudo mv ollama /usr/local/bin/ ``` 3. **验证安装**:打开终端,输入 `ollama --version`,如果显示版本信息,则表示安装成功。 4. **使用 Ollama**:安装完成后,可以在终端中直接使用 `ollama` 命令来管理和运行模型[^1]。 #### 使用 Docker 安装 Ollama 1. **确保已安装 Docker**:确保您的系统上已经安装了 Docker。如果没有安装,可以通过以下命令安装 Docker: ```bash sudo apt-get update && sudo apt-get install docker.io ``` 2. **拉取 Ollama 镜像**:在终端中输入以下命令来拉取 Ollama 的 Docker 镜像: ```bash docker pull ollama/ollama ``` 3. **运行 Ollama 容器**:使用以下命令启动 Ollama 容器: ```bash docker run -d -p 11434:11434 ollama/ollama ``` 4. **验证安装**:在浏览器中访问 `http://localhost:11434`,如果看到 Ollama 的欢迎页面,则表示安装成功。 5. **使用 Ollama**:您可以通过 API 接口与 Ollama 进行交互,或者使用 `curl` 命令进行测试: ```bash curl http://localhost:11434/api/tags ``` #### 示例代码 以下是一个简单的 Python 脚本示例,用于与 Ollama 进行交互: ```python import requests def get_ollama_models(): url = "http://localhost:11434/api/tags" response = requests.get(url) if response.status_code == 200: return response.json() else: return None models = get_ollama_models() if models: print("Available models:", models) else: print("Failed to retrieve models") ```
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值