使用OneAPI+Ollama+Dify搭建一个兼容OpenAI的API发布及AI应用开发系统(二)客户端设置

这一编我们介绍Ollama客户端的设置,那么客户端在这里指的就是你放在家里的Ollama服务器,通过与VPS里安装的OneAPI配合,从而实现了为Ollama生成API访问的服务,并为后端服务器提供安全保障。

一:安装客户端软件

客户端软件的部署请大家自行查找,为使项目可以完成,这里就不再介绍了。

二:客户端安装Ollama

Ollama的安装请参考:

在ubuntu24.04上安装Ollama并设置跨域访问_乌班图执 ollama-优快云博客

三:在服务器端安装OneAPI

1、OneAPI的安装请参考:

使用OneAPI创建LLM访问API Key-优快云博客

2、OneAPI使用本地数据库请参考:

Flowise+OneAPI+Ollama搭建本地知识库问答_oneapi ollama-优快云博客

3、安装Nginx,并为OneAPI设置https访问,请参考以下文件:

使用Nginx反向代理为OneAPI配置https访问-优快云博客

4、OneAPI的设置关键点

渠道设置时,请将IP写为你设置的客户端VPN分配的IP。

http://10.8.0.2:11434

5、放通防火墙

这里需要放通的有一处:

(1)UFW

sudo ufw allow 11434/tcp

(2)虚拟主机VPS提供商处提供的防火墙无需放通,因为11434端口通过VPN隧道过去了。这也说明了VPN的安全性。

6、生成LLM的访问令牌

复制令牌就可以用啦。 

### 配置 OneAPI 支持 Ollama 的环境设置和集成 #### 创建 Python 虚拟环境并安装依赖项 为了确保最佳兼容性和性能,建议使用指定版本的 Python 来创建虚拟环境。对于此项目,推荐使用 Python 3.12 版本。 ```bash conda create -n py312 python=3.12 conda activate py312 ``` 这一步骤有助于隔离开发环境中使用的包和其他项目的潜在冲突[^4]。 #### 获取 OpenAI API 密钥并与 Ollama 后端连接 完成 Python 环境准备之后,需获取用于认证的 OpenAI API Key。通过点击个人账户页面中的“创建令牌”按钮来获得密钥,并将其保存在一个安全的地方以便后续配置中使用。 ```python import openai openai.api_key = "your_api_key_here" ``` 上述代码片段展示了如何利用 `openai` 库设定 API 认证信息,从而允许应用程序与后端服务器通信[^3]。 #### 整合至 API 网关实现统一的服务接口 为了让不同类型的大型预训练模型能够被无缝接入应用逻辑之中,可以考虑将这些模型封装进一个通用网关层内。这样做不仅简化了前端调用流程,还降低了维护成本以及减少了重复劳动的可能性。 当所有必要的组件都已就绪时,就可以着手构建这样一个中间件解决方案了: - 设计 RESTful 或 GraphQL 接口; - 实现请求转发机制到目标推理引擎; - 处理来自客户端的数据转换需求; 这种架构模式使得开发者可以在不改变现有业务代码的前提下快速切换底层 AI 平台[^2]。 ---
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

BBM的开源HUB

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值