Ollama记录

先在官网下载Ollama

模型下载

ollama run qwen2:0.5b

如果ollama是部署在docker上

docker exec -it ollama ollama run qwen2:0.5b

 

可以快速部署很多模型    方便 

可以替换openai api key

from openai import OpenAI

client = OpenAI(
    base_url = 'https://127.0.0.1:11434/v1',
    api_key='ollama', # required, but unused
)

response = client.chat.completions.create(
  model="llama2",
  messages=[
    {"role": "system", "content": "You are a helpful assistant."},
    {"role": "user", "content": "Who won the world series in 2020?"},
    {"role": "assistant", "content": "The LA Dodgers won in 2020."},
    {"role": "user", "content": "Where was it played?"}
  ]
)
print(response.choices[0].message.content)

对接Dify

第二次登录有的连接会大圈进不去,使用下面这个链接

 localhost/install

127.0.0.1/install

可以整合Spring AI

这个JDK 和SpringBoot的版本要比较高 

官网的航班退订demo

AI返回的内容有一些不确定性的东西在里面,有点难处理 

Dify开发

 工作流节点

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值