使用Langchain生成本地rag知识库并搭载大模型

使用Langchain搭建RAG知识库系统
准备设备: 手机+aidlux2.0个人版

一、下载依赖

pip install langchain langchain-community faiss-cpu pypdf

二、安装ollama并下载模型

curl -fsSL https://ollama.com/install.sh | sh #需要科学上网
ollama serve & #让ollama服务在后台运行

安装完毕可以查看ollama版本进行验证,出现版本号之后就可以使用ollama

ollama -v

请添加图片描述

考虑性能因素,选择下载较小的模型

ollama pull phi3:mini 
ollama pull all-minilm

三、构建rag知识库

  1. 打开手机上的aidlux应用,打开Cloud_ip查看网络ip,输入ip到浏览器+端口号:8000访问
    输入以下命令:
cd ~
touch build_knowledge_base.py
  1. 在文件浏览器中/home/aidlux 下找到对应py文件并打开
    请添加图片描述
  2. 自行准备一个知识库文本(txt或pdf),将文本的路径填入脚本中
    请添加图片描述
  3. 写入以下脚本内容
from langchain_community.document_loaders import PyPDFLoader, TextLoader
from langchain_text_splitters import RecursiveCharacterTextSplitter
from langchain_community.embeddings import OllamaEmbeddings
from langchain_community.vectorstores import FAISS
import os

# 1. 设置环境变量优化 Ollama 性能
os.environ["OLLAMA_NUM_THREADS"] = "8"  # 设置线程数
os.environ["OLLAMA_NUM_CTX"] = "2048"   # 设置上下文长度

# 2. 配置嵌入模型 - 移除无效参数
embeddings = OllamaEmbeddings(
    model="all-minilm"  # 仅保留必要参数
)

# 3. 加载文档
def load_documents(file_path):
    if file_path.endswith(".pdf"):
        loader = PyPDFLoader(file_path)
        print(f"加载 PDF 文档: {
     
     file_path}")
    elif file_path.endswith(".txt"):
        loader = TextLoader(file_path)
        print(f"加载文本文档: {
     
     file_path}")
    else:
        raise
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值