【AI实践】Dify调用本地和在线模型服务

背景

Ollama可以本地部署模型,如何集成私有数据、如何外部应用程序对接,因此需要有一个应用开发框架

Dify功能介绍

欢迎使用 Dify | 中文 | Dify

下文将把dify部署在PC上,windows环境;

安装部署

安装dify及docker

jacob@Jacobs-NUC:/mnt/d/wsl$ git clone https://github.com/langgenius/dify
Cloning into 'dify'...
remote: Enumerating objects: 59108, done.
remote: Counting objects: 100% (8801/8801), done.
remote: Compressing objects: 100% (1569/1569), done.

docker已经安装完成的情况下

PS C:\Users\iamlv> cd D:\wsl\dify\docker\
PS D:\wsl\dify\docker> docker 
### 如何使用Dify调用Ollama本地大型模型 为了利用Dify调用Ollama本地部署的大规模语言模型,需先启动Ollama兼容OpenAI服务接口[^1]。一旦服务成功运行,在应用程序中集成此功能的方式类似于调用GPT API的方法。 具体实现过程涉及几个方面: #### 配置环境变量 确保已设置必要的API密钥其他配置参数作为环境变量,以便于后续请求能够顺利发送到本地服务器而不是默认的云端位置。 ```bash export OPENAI_API_BASE=http://localhost:8000/v1 export OPENAI_API_KEY=your_api_key_here ``` 这里`OPENAI_API_BASE`指向的是本地主机上的特定端口服务版本路径;而`OPENAI_API_KEY`则是用于身份验证的关键信息。 #### 安装依赖库 安装支持与这些API交互所需的Python包或其他编程语言对应的客户端库。对于Python开发者来说,可以考虑使用官方推荐或社区广泛接受的软件包如`openai`: ```bash pip install openai ``` #### 编写代码示例 下面给出一段简单的Python脚本例子,展示了怎样通过上述准备好的环境向本地LLM发起查询请求并处理返回的结果。 ```python import os from openai import OpenAI client = OpenAI(api_key=os.getenv('OPENAI_API_KEY')) response = client.chat.completions.create( messages=[{"role": "user", "content": "你好"}], model="ollama-local-model" ) print(response.choices[0].message.content.strip()) ``` 这段程序首先创建了一个基于环境变量中的API key初始化的新实例对象`client`,接着构建了一条消息列表传入给聊天补全方法`.chat.completions.create()`,其中指定了要使用的模型名称为`ollama-local-model`——这应该替换为你实际加载的那个具体的OLLAMA模型ID。最后打印出回复的内容部分。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值