[大模型]配置文件-Langchain-Chatchat-V0.3 (1)

简述

针对Langchain-Chatchat-V0.3版本,对配置文件与模型使用说明,本文建议使用Ollama配合Chatchat使用。

Ollama安装方式查看以往教程。
[大模型]ollama本地部署自然语言大模型_ollama模型下载后存放位置-优快云博客

本地配置

nvidia-smi

image.png

配置文件

model_settings.yaml

默认使用的模型

# 默认选用的 LLM 名称
DEFAULT_LLM_MODEL: llama3.1

# 默认选用的 Embedding 名称
DEFAULT_EMBEDDING_MODEL: mxbai-enbed-large

在支持Agent模型中添加你想要的新模型

# 支持的Agent模型
SUPPORT_AGENT_MODELS:
  - llama3.1
  - chatglm3

image.png
使用ollama的LLM模型于Embedding模型

使用Ollama配置

模型配置

修改llm_modelsembed_models配置,为自己想要使用的模型。

  - platform_name: ollama
    platform_type: ollama
    api_base_url: http://127.0.0.1:11434/v1
    api_key: EMPTY
    api_proxy: ''
    api_concurrencies: 5
    auto_detect_model: false
    llm_models:
      - llama3
    embed_models:
      - mxbai-embed-large

找到Ollama双击启动
image.png
任务栏如下提示表示启动成功。使用模型时,Ollama会自动运行该模型,无需单独启动模型。
image.png

使用Xinference配置

image.png
启动模型
image.png
image.png
为chatchat安装客户端模块

pip install xinference-client

image.png

模型配置

修改llm_modelsembed_models配置,为自己想要的

  - platform_name: xinference
    platform_type: xinference
    api_base_url: http://127.0.0.1:9997/v1
    api_key: EMPTY
    api_proxy: ''
    api_concurrencies: 5
    auto_detect_model: true
    llm_models:
      - chatglm3
    embed_models:
      - bge-large-zh-v1.5
    text2image_models: []
    image2text_models: []
    rerank_models: []
    speech2text_models: []
    text2speech_models: []
修改默认使用的模型
# 默认选用的 LLM 名称
DEFAULT_LLM_MODEL: chatglm3

# 默认选用的 Embedding 名称
DEFAULT_EMBEDDING_MODEL: bge-large-zh-v1.5

image.png

对话

基础对话

配置好LLM模型,即可使用基础的对话。
image.png

知识库对话

创建知识库
image.png
选择文件,并点击添加文件到知识库
image.png
之后就可看到,知识库中已经拥有了这一段记忆。
image.png
最后,我们询问可以访问知识库的模型,可以得到如下结果
image.png

### Langchain-Chatchat 0.3 版本介绍 Langchain-Chatchat 0.3 是一款基于 Python 的聊天机器人框架,旨在提供强大的自然语言处理能力以及灵活的对话管理机制。该版本支持多种模型集成,并优化了性能和稳定性[^1]。 #### 主要特性 - **多平台兼容**:适用于 Windows 和 Linux 操作系统,在不同环境中均能稳定运行。 - **Python 支持**:推荐使用 Python 3.10 或以上版本以获得最佳体验。 - **模块化设计**:通过插件形式扩展功能,便于开发者自定义业务逻辑。 - **数据存储灵活性**:允许配置不同的数据库作为持久层解决方案。 #### 安装指南 为了顺利安装并启动 Langchain-Chatchat 0.3 ,需遵循如下步骤: 进入预先创建好的 Conda 虚拟环境 `torch` 中执行后续操作: ```bash conda activate torch ``` 确保工作路径指向项目根目录 `/home/chatchat/Langchain-Chatchat-03x/libs/chatchat-server` 后继续初始化依赖项: ```bash pip install -r requirements.txt ``` 完成上述准备工作之后即可尝试启动服务端程序: ```python from chatchat import app if __name__ == "__main__": app.run(debug=True) ``` #### 修改源码注意事项 由于此版本较为复杂,可能涉及到对核心组件进行调整。特别是位于 `chatchat/lib/chatchat-server/chatchat` 下的相关 `.py` 文件可能会有变动需求。建议仔细阅读官方文档中的开发手册部分来了解具体改动细节[^3]。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

柒杉丶

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值