ollama离线部署+Llama3+Open WebUI+centos大模型models存储位置修改

1.安装 ollama

1.1 下载ollama

https://github.com/ollama/ollama
github 选择自己适合的版本 我这里选择

wget https://github.com/ollama/ollama/releases/download/v0.2.8/ollama-linux-amd64

1.2 移动到文件

mv ollama-linux-amd64 /usr/bin/ollama

添加权限

chmod +x /usr/bin/ollama

1.3 创建Ollama用户

useradd -r -s /bin/false -m -d /usr/share/ollama ollama

1.4.创建服务文件和修改models存储位置修改

vim /etc/systemd/system/ollama.service

[Unit]
Description=Ollama Service
After=network-online.target

[Service]
ExecStart=/usr/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3
Environment="PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/root/bin"
#配置远程访问
Environment="OLLAMA_HOST=0.0.0.0"
#配置跨域请求
Environment="OLLAMA_ORIGINS=*"
#配置OLLAMA的模型存放路径,默认路径是/usr/share/ollama/.ollama/models/
Environment="OLLAMA_MODELS=/data/soft/ollama/.ollama/models"

[Install]
WantedBy=default.target

其中 LLAMA的模型存放路径,默认路径是 /usr/share/ollama/.ollama/models/
修改以后 这里使用的是
Environment=“OLLAMA_MODELS=/data/soft/ollama/.ollama/models”

如果路径不存在,创建并设置权限:

sudo mkdir -p /data/soft/ollama/.ollama/models
sudo chown -R ollama:ollama /data/soft/ollama/.ollama

如有报错查看日志

sudo journalctl -u ollama -n 100 --no-pager

1.5 执行命令

sudo systemctl daemon-reload
sudo systemctl start ollama

看端口号 11434 启动与否

netstat -ano |grep 11434

存在则启动成功

1.6 测试

ollama --version

ollama version is 0.2.8

2.安装大模型

2.1 下载

这里以 llama3.1-8b 为例

ollama run llama3.1:8b

等待下载完毕
在这里插入图片描述

随便看一眼 之前修改的大模型存储位置是否修改成功
在这里插入图片描述
如图修改成功

2.2 测试

在这里插入图片描述

3.Open WebUI 部署

3.1 安装Docker

sudo yum install -y yum-utils
sudo yum-config-manager --add-repo http://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo
sudo yum install docker-ce
sudo systemctl start docker

3.2 安装部署

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

等待下载
我这里是云服务器 下载速度还可以 如果拉取速度慢 可修改docker 增加加速器 比如阿里的 这里略过
在这里插入图片描述

3.3 验证 成功

在这里插入图片描述

3.4 登录

输入:

http://ip:3000/

这个3000端口是docker 映射到宿主机的3000端口 如果需要更改 在docker运行的时候自定义修改

然后需要注册
在这里插入图片描述
首次登录 需要注册 管理员账号 邮箱可随意写
在这里插入图片描述
返回登录
在这里插入图片描述

选择模型
在这里插入图片描述
在这里插入图片描述
测试
在这里插入图片描述
至此全部成功部署

经过实测16核cpu 运行llama3.1:8b 还是有些卡顿 速度不是那么快

### 集成 Ollama 到 IntelliJ IDEA 为了在 IntelliJ IDEA 中集成 Ollama 并用于服务器开发,可以通过以下方式完成设置: #### 1. **配置 Ollama 提供商** 在 IntelliJ IDEA 的 `Settings` 菜单中找到 `Tools -> CodeGPT -> Providers`,选择 `Ollama (Local)` 作为选定的提供商。完成后点击 `[OK]` 按钮保存更改[^1]。 #### 2. **验证本地运行环境** 确保 Ollama 已经正确安装并能够在本地正常运行。可以在终端输入以下命令来测试 Ollama 是否可用: ```bash ollama models ``` 如果返回已安装的模型列表,则说明 Ollama 安装无误。 #### 3. **创建项目并与 Ollama 协同工作** 当 Ollama 成功集成到 IDE 后,开发者可以直接利用其功能辅助编写代码逻辑或调试服务端程序。例如,在 Java 或 Python 等语言环境中调用 API 接口时,可以借助 Ollama 自动生成部分代码片段或者优化现有实现方案。 对于更复杂的场景比如微服务架构设计或是容器编排文件(Docker Compose/Kubernetes YAML),也可以尝试让 AI 参与讨论解决方案从而提升效率。 #### 4. **结合 Dify 实现增强体验(可选步骤)** 如果有更高需求希望进一步扩展能力范围,则考虑引入另一个工具——Dify 来补充不足之处。按照之前描述的方法基于 CentOS7.9 使用宝塔面板顺利完成部署之后进入 Web UI 登录界面完成初始化操作后记得切换至刚才提到过的那个同样的 LLM backend ——即同样指向我们刚刚搭建完毕的那个本地版 OpenLLaMA 实例地址即可享受无缝衔接的服务支持效果[^2]。 以上就是关于如何将 Ollama 整合进 JetBrains PhpStorm/IntelliJ Ultimate Edition 这类专业级软件工程平台内部的具体指导流程介绍啦! ```python # 示例:Python脚本中可能使用的OLLAMA交互模式 import subprocess def query_ollama(prompt): result = subprocess.run(['ollama', 'run', '-m', 'open_llama', prompt], capture_output=True, text=True) return result.stdout.strip() print(query_ollama("Write a function to reverse string")) ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值