没独显照样ChatGLM-6B+Langchain知识库

🎈前言

近来刷到不少大模型的文章,趁着五一拿ChatGLM3-6B搞一个知识库练练手,但是没有独显真的是硬伤,一路处处踩雷。总算是搞出来了一个还过得去的知识库,响应速度在能接受的范围内,这里记录一下,也希望能帮助想要尝试大模型的各位避下雷。

📄软硬件配置

硬件

  • CPU(13th Inter core i5-13400):10核16线程
  • 内存:32GB
  • 显卡:核显
  • 固态硬盘:1T

软件

模型比较大,下载速度比较慢

🎥效果展示

动图左上角为量化后的ChatGLM3-6B,旁边为Langchain-Chatchat

LLM对话

首次对话速度会慢点,之后对话速度会快很多

在这里插入图片描述

知识库问答

在这里插入图片描述

LangChain Docker配置启动

不使用WSL image.png 设置CPU、内存等配置的大小 image.png docker-compose.yml

yaml复制代码# 安装docker-compose:pip install --upgrade pip;pip install docker-compose
# 部署命令:docker-compose up -d
# 关闭卸载:docker-compose down
# 描述 Compose 文件的版本信息
version: '3'
# 定义服务,可以多个
services
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值