QAnything+Ollama搭建本地知识库

1、Ollama安装使用

参考我的另一篇博客:ollama + fastgpt 搭建免费本地知识库-优快云博客

2、QAnything

概述:

QAnything (Question and Answer based on Anything) 是致力于支持任意格式文件或数据库的本地知识库问答系统,可断网安装使用。

您的任何格式的本地文件都可以往里扔,即可获得准确、快速、靠谱的问答体验。

目前已支持格式: PDF(pdf),Word(docx),PPT(pptx),XLS(xlsx),Markdown(md),电子邮件(eml),TXT(txt),图片(jpg,jpeg,png),CSV(csv),网页链接(html),更多格式,敬请期待...

纯Python环境安装:

conda create -n qanything-python python=3.10
conda activate qanything-python
git clone -b qanything-python https://github.com/netease-youdao/QAnything.git
cd QAnything
pip install -e .

启动运行QAnything:

# 本地已经启动了ollama,这里做个运行测试
# 因为我的ollama里没有安装llama3模型,所以修改一下run_for_ollama_api_in_M1_mac.sh的参数。改成使用qwen2:latest模型
#!/bin/bash
#bash scripts/base_run.sh -s "M1mac" -w 4 -m 19530 -q 8777 -o -b 'http://localhost:11434/v1' -k 'ollama' -n 'llama3' -l '4096'
bash scripts/base_run.sh -s "M1mac" -w 4 -m 19530 -q 8777 -o -b 'http://localhost:11434/v1' -k 'ollama' -n 'qwen2:latest' -l '4096'

# 启动运行
bash scripts/run_for_ollama_api_in_M1_mac.sh

报错了

报错信息如下:

(base) ➜  QAnything git:(qanything-python) ✗ bash scripts/run_for_ollama_api_in_M1_mac.sh
即将启动后端服务,启动成功后请复制[http://0.0.0.0:8777/qanything/]到浏览器进行测试。
运行qanything-server的命令是:
CUDA_VISIBLE_DEVICES=0 python3 -m qanything_kernel.qanything_server.sanic_api --host 0.0.0.0 --port 8777 --model_size 7B  --use_openai_api --openai_api_base http://localhost:11434/v1 --openai_api_key ollama --openai_api_model_name llama3 --openai_api_context_length 4096 --workers 4
LOCAL DATA PATH: /Users/renlibin/PythonProjects/QAnything/QANY_DB/content
LOCAL_RERANK_REPO: maidalun/bce-reranker-base_v1
LOCAL_EMBED_REPO: maidalun/bce-embedding-base_v1
2024-06-28 17:34:14,614 - modelscope - INFO - PyTorch version 2.1.2 Found.
2024-06-28 17:34:14,614 - modelscope - INFO - Loading ast index from /Users/renlibin/.cache/modelscope/ast_indexer
2024-06-28 17:34:14,614 - modelscope - INFO - No valid ast index found from /Users/renlibin/.cache/modelscope/ast_indexer, generating ast index from prebuilt!
2024-06-28 17:34:14,691 - modelscope - INFO - Loading done! Current index file version is 1.13.0, with md5 f0dca17f6b67762919fb8486c6f931f5 and a total number of 972 components indexed
use_cpu: False
use_openai_api: True
The server is starting on port
<think>我们正在讨论的是在Docker环境中部署Qanything并使用Ollama来调用QWEN模型的API配置方法。根据用户引用的内容,特别是引用[2]中提到的Ollama部署的API地址配置,以及用户询问的Docker部署场景,我们可以进行以下分析:关键信息点:1.**Ollama默认端口**:引用[2]明确指出Ollama的API默认地址是`http://<服务地址>:11434`。在Docker环境中部署时,这个地址需要根据容器间的网络通信方式来确定。2.**Docker网络配置**:在容器化部署中,Qanything容器需要与Ollama容器进行通信。常见的解决方案有两种:-使用`host`网络模式:此时Ollama服务可通过`http://localhost:11434`访问(仅限单机部署)。-使用自定义桥接网络:此时需要指定Ollama容器的IP或服务名(如`http://ollama:11434`)。3.**QWEN模型支持**:Ollama支持多种模型,包括QWEN系列。需要确保已下载并安装了相应的QWEN模型(例如`qwen:7b`)。实际配置步骤:1.**启动Ollama容器**:```bashdockerrun-d-p11434:11434--nameollamaollama/ollama```下载QWEN模型(进入容器或直接执行):```bashdockerexecollamaollamapullqwen:7b```2.**配置Qanything的API地址**:-如果QanythingOllama在同一宿主机上部署,且使用默认桥接网络:-Ollama地址为`http://ollama:11434`(通过Docker容器名访问)-若使用`host`网络:-Ollama地址为`http://localhost:11434`3.**Qanything的配置文件修改**:在Qanything的配置文件(如`config.json`)中需要添加或修改以下字段:```json{"ollama":{"api_base":"http://ollama:11434","model":"qwen:7b"}}```验证方法:-在Qanything容器内使用`curl`测试OllamaAPI:```bashcurlhttp://ollama:11434/api/tags#应返回已安装的模型列表(包含qwen:7b)```特殊情况处理:-如果使用DockerCompose部署,网络配置示例如下:```yamlservices:ollama:image:ollama/ollamaports:-"11434:11434"qanything:image:qanything_imagedepends_on:-ollamaenvironment:-OLLAMA_API_BASE=http://ollama:11434```注意事项:1.**模型版本兼容性**:Ollama的QWEN模型名称需与配置完全一致(如`qwen:7b`或`qwen:14b`)。2.**跨容器通信**:确保Docker网络设置允许容器间通信(默认的桥接网络已支持)。3.**性能考虑**:若使用GPU加速,需要在启动Ollama容器时添加`--gpusall`参数。通过以上配置,Qanything即可通过Ollama的API调用QWEN模型进行推理任务。§§相关问题§§1.如何查看Ollama支持的所有QWEN模型?2.DockerCompose部署时如何配置容器网络优化通信延迟?3.QWEN模型在Ollama中的性能调优方法有哪些?</think> ### Qanything + Ollama Docker 部署中调用 QWEN 模型的 API 路径配置 #### 1. **核心 API 地址配置** 当通过 Docker 部署 Qanything 并调用 Ollama 中的 QWEN 模型时,API 地址的配置遵循以下规则: ```y
评论 6
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Coder.Ren

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值