OpenaiAPI调用Ollama的本地大模型之api_key问题

OpenaiAPI调用Ollama的本地大模型之api_key问题

OpenaiAPI

使用OpenaiAPI调用大模型经常需要配置的参数,包括但不限于下面列举的:

  • model = “qwq:latest”
  • base_url = “http://localhost:11434”
  • api_key = “sk-…”

api_key问题

  • 问题产生原因:Ollama并没有提供api_key生成方法。但是OpenaiAPI一定需要api_key。
  • 解决问题思路:适应OpenaiAPI规范,提供api_key。

解决问题办法:

  1. 在windows中配置环境变量,名称为OLLAMA_API_KEY,值为你自己的 API Key
  2. 在linux中,执行export OLLAMA_API_KEY=your_ollama_api_key_here

运行

在你的程序中,设置api_key为上面设置的OLLAMA_API_KEY的值。重新运行,你会发现问题解决。

声明:

  • 问题解决办法,来源于通义千问。
  • 亲测可用
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值