Coze添加知识库解析的Embedding和PaddleOCR模型配置

部署运行你感兴趣的模型镜像

1. Embedding模型配置

使用ollama模型,导入qwen3的embedding-8B模型,导入流程参考:
Ollama离线部署模型
qwen3-Embedding模型文件可从魔塔社区下载:
Qwen3-Embedding-8B

1.2 Coze配置

在coze_studio/docker目录下输入:

vim .env
在这里插入图片描述
找到Embedding设置:
将EMBEDDING_TYPE改为ollama,并修改下面的ollama调用的url和模型名称
在这里插入图片描述
ollama中的模型如下:
ollama list
ollama list
配置完成后输入 :wq 保存vim编辑的内容;

然后返回docker目录下输入:
docker停止:

docker stop $(docker ps -q)

coze启动:

docker-compose --profile ‘*’ up -d

coze启动后在资源库中创建知识库,并上传文件
在这里插入图片描述
然后创建设置:
在这里插入图片描述
分段预览和数据处理:
在这里插入图片描述
在cmd命令行输入nvidia-smi:
可以看到GPU使用情况:
ollama调用

2. PaddleOCR模型配置

2.1 paddle-ocr安装和代码编写

首先安装PaddleOCR:

pip install paddleocr
pip install paddlepaddle
pip install fastapi uvicorn

paddlerocr运行代码,注意inference参数可能需要自己下载:

from flask import Flask, request, jsonify
from paddleocr import PaddleOCR
import base64, numpy as np, cv2

ocr = PaddleOCR(use_angle_cls=True, use_gpu=False,
                det_model_dir='./inference/ch_PP-OCRv3_det_infer',
                rec_model_dir='./inference/ch_PP-OCRv3_rec_infer',
                cls_model_dir='./inference/ch_ppocr_mobile_v2.0_cls_infer')

app = Flask(__name__)

@app.route("/ocr", methods=["POST"])
def ocr_api():
    img_b64 = request.json["image"]
    img = cv2.imdecode(np.frombuffer(base64.b64decode(img_b64), np.uint8), 1)
    res = ocr.ocr(img, cls=True)
    return jsonify(res)

if __name__ == "__main__":
    app.run(host="0.0.0.0", port=8999)

然后创建paddle_structure.py

from fastapi import FastAPI, UploadFile, File
from paddleocr import PaddleOCR, PPStructure
import uvicorn
import os

app = FastAPI()


# 初始化版面结构化 OCR
table_engine = PPStructure(show_log=True, lang='ch')

UPLOAD_DIR = "uploads"
os.makedirs(UPLOAD_DIR, exist_ok=True)

@app.post("/structure")
async def do_ocr_structure(file: UploadFile = File(...)):
    file_path = os.path.join(UPLOAD_DIR, file.filename)
    with open(file_path, "wb") as f:
        f.write(await file.read())

    result = table_engine(file_path)
    return {"code": 0, "msg": "success", "data": result}


if __name__ == "__main__":
    uvicorn.run(app, host="0.0.0.0", port=9999)

对于离线环境,需要下载paddler-ocr的inference文件并配置:
inference下载和使用

2.2 Coze配置

终端 coze的docker目录下输入:

vim .env

对OCR进行配置并保存:
在这里插入图片描述
然后返回docker目录下输入:
docker停止:

docker stop $(docker ps -q)

coze启动:

docker-compose --profile ‘*’ up -d

coze启动后在资源库中创建知识库,并上传文件,勾选扫描件(OCR)选项,点击下一步之后进行数据处理
在这里插入图片描述
解析结果如下:
结果

在这里插入图片描述

您可能感兴趣的与本文相关的镜像

Llama Factory

Llama Factory

模型微调
LLama-Factory

LLaMA Factory 是一个简单易用且高效的大型语言模型(Large Language Model)训练与微调平台。通过 LLaMA Factory,可以在无需编写任何代码的前提下,在本地完成上百种预训练模型的微调

Coze平台中集成Ollama API支持通常涉及以下几个方面:模型接入、API配置以及平台功能整合。虽然 Coze 本身可能不直接提供 Ollama 的图形化集成选项,但可以通过自定义插件或函数调用的方式实现。 ### 配置Ollama API的基本步骤 1. **确保Ollama服务已部署** 在本地或服务器上安装并运行 Ollama,确保其默认监听地址为 `http://localhost:11434` 或者你希望使用的特定 IP 端口。如果需要远程访问,请确保防火墙规则允许外部连接。 2. **获取Ollama的API接口文档** Ollama 提供了 RESTful 风格的 API 接口用于与外部系统通信。例如,生成文本的请求可以使用如下格式: ```bash POST http://localhost:11434/api/generate { "model": "llama3", "prompt": "Hello, how are you?" } ``` 3. **在Coze中创建自定义API插件** 登录 Coze 平台后,在插件管理或工具设置中选择“创建自定义API”或“添加新工具”。填写以下信息: - **名称**:如 `Ollama Local` - **描述**:说明该插件的功能,例如“使用本地部署的 Ollama 模型进行文本生成” - **API URL**:输入你的 Ollama 地址,例如 `http://your-ollama-server:11434/api/generate` - **方法类型**:选择 `POST` - **认证方式**:如果没有认证机制,则可跳过;否则根据实际情况配置。 - **请求参数**:按照 Ollama 的 API 要求设置 JSON 格式的参数结构,包括 `model` `prompt` 字段。 4. **测试API连接** 在保存插件之前,建议使用平台提供的测试功能发送一个示例请求以验证是否能正确收到响应。例如,发送包含 `"model": "llama3", "prompt": "test"` 的请求体。 5. **在Bot中使用Ollama API** 创建或编辑 Bot 时,在逻辑流或对话节点中调用刚刚添加的 Ollama 插件。你可以将其嵌入到回复生成流程中,从而实现在对话中动态调用本地模型的能力。 6. **优化调试** 如果遇到连接失败或响应异常的问题,请检查以下几点: - 确保 Ollama 服务正在运行并且可通过网络访问。 - 检查 Coze 中的 API URL 是否拼写正确,尤其是端口号路径部分。 - 查看 Ollama 日志文件以排查潜在错误,日志位置取决于你的部署方式。 通过以上步骤,可以在 Coze 平台上成功集成 Ollama API,并利用本地资源提供高效的推理服务[^3]。 ---
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值