统一回复OneAPI:failed to get gpt-3.5-turbo token encoder的解决办法

源码方式安装后启动OneAPI时提示failed to get gpt-3.5-turbo token encode,缺少编码文件的解决办法。

1、编辑encoding.go文件

vim /root/go/pkg/mod/github.com/pkoukk/tiktoken-go@v0.1.7/encoding.go

注意:tiktoken-go@v0.1.7要根据实际情况,有些早期版本是:tiktoken-go@v0.1.6。

ranks, err := bpeLoader.LoadTiktokenBpe("https://openaipublic.blob.core.windows.net/encodings/o200k_base.tiktoken")
ranks, err := bpeLoader.LoadTiktokenBpe("https://openaipublic.blob.core.windows.net/encodings/cl100k_base.tiktoken")
ranks, err := bpeLoader.LoadTiktokenBpe("https://openaipublic.blob.core.windows.net/encodings/p50k_base.tiktoken")
ranks, err := bpeLoader.LoadTiktokenBpe("https://openaipublic.blob.core.windows.net/encodings/p50k_base.tiktoken")
ranks, err := bpeLoader.LoadTiktokenBpe("https://openaipublic.blob.core.windows.net/encodings/r50k_base.tiktoken")

 修改为:

#修改这四个地方:
ranks, err := bpeLoader.LoadTiktokenBpe("/root/.cache/encodings/o200k_base.tiktoken")
ranks, err := bpeLoader.LoadTiktokenBpe("/root/.cache/encodings/cl100k_base.tiktoken")
ranks, err := bpeLoader.LoadTiktokenBpe("/root/.cache/encodings/p50k_base.tiktoken")
ranks, err := bpeLoader.LoadTiktokenBpe("/root/.cache/encodings/r50k_base.tiktoken")

编码文件大家可以科学上网获取。然后:

mkdir -p /root/.cache/encodings

把文件考到这个文件夹里去。

2、将编码数据文件改路径

编码数据data-gym-cache文件夹,通常放在/tmp下面,如果重启服务器,会自动删除,下次又启动不了了。可以把这个环境文件改一下地方,方法如下:

mkdir -p /app/one-api/cache/data-gym-cache

然后编辑.env文件

vim /app/one-api/.env
#加上最后一句
PORT=3000
DEBUG=false
HTTPS_PROXY=http://localhost:7890
SQL_DSN=root:123456@tcp(localhost:3306)/oneapi
TIKTOKEN_CACHE_DIR:/app/one-api/cache/data-gym-cache

指定环境文件路径:TIKTOKEN_CACHE_DIR:/app/one-api/cache/data-gym-cache

编码文件1.6版是一个,1.7版是两个:

同样这两个文件也要科学上网才能取到。

### GPT-3.5-Turbo-0613 模型特性与使用说明 GPT-3.5-Turbo 是 OpenAI 推出的一系列高效对话模型之一,而版本号 `0613` 表明这是该模型的一个特定更新版本。以下是关于此模型的一些重要特性和使用方法: #### 1. **性能优化** GPT-3.5-Turbo 的设计目标是在保持高质量生成能力的同时降低运行成本。相比早期的 GPT-3 系列模型,它具有更高的推理效率和更低的价格[^2]。 #### 2. **上下文长度支持** 虽然标准版 GPT-3.5-Turbo 支持的最大上下文长度为 4096 tokens,但如果有更高需求,可以选用扩展版 GPT-3.5-Turbo-16k,后者可处理长达 16,384 tokens 的输入序列。对于大多数日常应用场景而言,基础版已足够强大。 #### 3. **功能增强** 借助 ChatGPT AutoExpert 技术框架,可以通过定制化指令进一步强化 GPT-3.5-Turbo 的表现力及其适应不同任务的能力[^1]。这意味着用户不仅限于简单的问答交互,还可以利用高级参数调优来满足复杂业务逻辑的需求。 #### 4. **适用范围广** 当决定采用哪款具体型号时——比如对比 GPT-3.5 Turbo 和其他变体(如 GPT-4),应当依据实际项目特点权衡考量诸如预算约束、预期效果等因素后再做定夺[^3]。总体来说,如果追求性价比,则推荐优先考虑前者;而对于那些极度依赖尖端技术成果或者特殊领域知识提取的任务,则可能更适合转向更高端的产品线。 #### Python API 调用示例 下面给出一段基于官方 SDK 实现向量数据库查询并返回结果摘要的例子: ```python import openai openai.api_key = 'your_api_key_here' def generate_response(prompt_text): response = openai.ChatCompletion.create( model="gpt-3.5-turbo-0613", messages=[ {"role": "system", "content": "You are a helpful assistant."}, {"role": "user", "content": prompt_text}, {"role": "assistant", "content": ""} ], max_tokens=150, temperature=0.7 ) return response['choices'][0]['message']['content'] if __name__ == "__main__": user_input = input("Enter your question here:") answer = generate_response(user_input) print(f"Answer:{answer}") ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

BBM的开源HUB

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值