llamaindex结合本地模型构建RAG

总结一下对llamaindex的使用心得,第一部分是构建知识库并持久化,第二部分是使用本地llm模型和本地embed模型,第三部分是对qurey engine和chat engine的使用(自定义prompt)。

llamaindex:v0.10.20.post1

知识库格式:一个全是txt文档的文件夹

需要安装的库:

pip install llama-index
pip install llama-index-embeddings-huggingface

llamaindex的代码改动还挺大的,包括import部分(我在优快云和知乎等搜到的其他文章的代码都已经不符合现在的版本了),所以代码仅供参考,很有可能在不久之后官方代码就会改动,但是可以参考本文的构建结构和思路去llamaindex官网找到对应的最新的代码。

所有导入的包:

import os
from llama_index.embeddings.huggingface import HuggingFaceEmbedding
from llama_index.core import Settings,SummaryIndex,load_index_from_storage,StorageContext,Settings
from transformers import BitsAndBytesConfig, AutoModelForCausalLM, AutoTokenizer
from typing import Optional, List, Mapping, Any
import torch
from llama_index.llms.huggingface import HuggingFaceLLM
from llama_index.core.prompts import PromptTemplate
from llama_index.core.node_parser import SentenceSplitter
from llama_index.core.callbacks import CallbackManager
from llama_index.core.llms.callbacks import llm_completion_callback
from transformers.generation import GenerationConfig
from llama_index.core.llms import (
    CustomLLM,
    CompletionResponse,
    CompletionResponseGen,
    LLMMetadata,
)
第一部分:构建知识库并持久化
        1.最简单的默认构建方式
load document
documents = SimpleDirectoryReader(
    input_dir="your/dirs/path").load_data(show_progress=True)
# check document
print("文档总数:",len(documents))
print("第一个文档",documents[0])
index = VectorStoreIndex.from_documents(documents)

        如果想将文档解析成更小的块:

Settings.chunk_size = 4096
#Local settings
index = VectorStoreIndex.from_documents(
    documents, transformations=[SentenceSplitter(chunk_size=4096)]
)
        2.我认为比较好用的summary index构建方式

        summary index可以在匹配的过程中根据总结的内容先进行匹配。

splitter = SentenceSplitter(chunk_size=1024)
for dirpath, dirnames, filenames in os.walk("your/dir/path"):
    filepaths = [os.path.join(dirpath, name) for name in filenames]
print(filepaths)
docs = []
#遍历filepath,提取txt文档的name作为doc_id
for filepath in filepaths:
    _docs = SimpleDirectoryReader(
        input_files=[f"{filepath}"]
    ).load_data()
    _docs[0].doc_id = filepath.split('/')[-1].split('.txt')[0]
    docs.extend(_docs)
print(docs)
# default mode of building the index
response_synthesizer = get_response_synthesizer(
    response_mode="tree_summarize", use_async=True
)
doc_summary_index = DocumentSummaryIndex.from_documents(
    docs,
    llm=OurLLM(), #这个llm就是本地化的llm模型,第二部分会讲到它的构建。
    transformations=[splitter],
    response_synthesizer=response_synthesizer,
    show_progress=True,
)
#关于llm=OurLLM():我这里是使用我的大模型对文档内容进行总结,也可以使用embedding模型或者其他模型对文档进行总结。
        3.持久化
doc_summary_index.storage_context.persist("your/persist/path")

        或者

index.storage_context.persist(persist_dir='your/persist/path')
        4.持久化的数据库的加载
#storage_context = StorageContext.from_defaults(persist_dir='your/persist/dir')
#index = load_index_from_storage(storage_context)

storage_context = StorageContext.from_defaults(persist_dir='your/persist/dir')
doc_summary_index = load_index_from_storage(storage_context)
第二部分:使用本地llm模型和本地embed模型
        1.从github或者transformmers下载你要用的模型到本地
        2.进行构建
Settings.embed_model = HuggingFaceEmbedding(
    model_name="your/embed/model/path"
)#我用的是bge-large-zh-v1.5
quantization_config = BitsAndBytesConfig(
    load_in_4bit=True,
    bnb_4bit_compute_dtype=torch.float16,
    bnb_4bit_quant_type="nf4",
    bnb_4bit_use_double_quant=True,
) #4比特化加载模型(因为我的显存不够,所以只能这么加载,如果可以全量加载就不需要这个)
model_name = "your/llm/model/path"
tokenizer = AutoTokenizer.from_pretrained(model_name, trust_remote_code=True)
model = AutoModelForCausalLM.from_pretrained(model_name, trust_remote_code=True, low_cpu_mem_usage=True,quantization_config=quantization_config).eval()

#自定义本地模型
class OurLLM(CustomLLM):
    context_window: int = 4096
    num_output: int = 1024
    model_name: str = "custom"

    @property
    def metadata(self) -> LLMMetadata:
        """Get LLM metadata."""
        return LLMMetadata(
            context_window=self.context_window,
            num_output=self.num_output,
            model_name=self.model_name,
        )

    @llm_completion_callback()
    def complete(self, prompt: str, **kwargs: Any) -> CompletionResponse:
        text, history = model.chat(tokenizer, prompt, history=[], temperature=0.1)
        return CompletionResponse(text=text)

    @llm_completion_callback()
    def stream_complete(
            self, prompt: str, **kwargs: Any
    ) -> CompletionResponseGen:
        raise NotImplementedError()
第三部分:query engine和chat engine的构建和使用
1.query engine

1.1 针对最简单的默认构建知识库的方式所构建的query engine

query_engine = index.as_query_engine(similarity_top_k=3)
qa_prompt_tmpl_str = (
    "请结合给出的参考知识,回答用户的问题。"
    "参考知识如下:\n"
    "---------------------\n"
    "{context_str}\n"
    "---------------------\n"
    "用户的问题如下:\n"
    "human: {query_str}\n"
    "Assistant: "
)
qa_prompt_tmpl = PromptTemplate(qa_prompt_tmpl_str)
query_engine.update_prompts(
    {"response_synthesizer:text_qa_template": qa_prompt_tmpl}
)

也可以不自定义prompt,它会自动使用默认的prompt,直接

query_engine = index.as_query_engine(similarity_top_k=3)

默认的prompts可以在:

/你安装的llama_index的文件夹/llama_index/core/prompts/chat_prompts.py和mixin.py和default_prompts.py等里面找到,这个文件夹里面有很多模板py文件,自行搜索就好了。

使用query_engine:

response = query_engine.query('狗头表情包代表什么感情?')

1.2 针对summary index构建的知识库的方式所构建的query_engine

与1.1相同,只不过把index更改为doc_summary_index

query_engine = doc_summary_index.as_query_engine(
    response_mode="tree_summarize", use_async=True
)
qa_prompt_tmpl_str = (
    "结合参考知识,回答用户的问题\n"
    "参考知识如下:\n"
    "---------------------\n"
    "{context_str}\n"
    "---------------------\n"
    "用户的问题如下:\n"
    "{query_str}\n"
)
qa_prompt_tmpl = PromptTemplate(qa_prompt_tmpl_str)
query_engine.update_prompts(
    {"response_synthesizer:text_qa_template": qa_prompt_tmpl}
)
#或者不自定义prompt,直接:
query_engine = doc_summary_index.as_query_engine(
    response_mode="tree_summarize", use_async=True
)

 使用query_engine:

response = query_engine.query('狗头表情包代表什么感情?')
查看query_engine的元数据:
print(response.metadata)
2.chat_engine

在使用chat_engine的时候,有可能会出现initial token out of limits,这时候就去修改:

/你安装的llama_index的文件夹/llama_index/core/chat_engine/condense_plus_context.py的token_limit,我设置的是30000

chat_engine需要改的就是它的chat_mode:

/你安装的llama_index的文件夹/llama_index/core/chat_engine文件夹里

2.1 mode:condense_plus_context 的chat_engine

system_prompt = '''请结合给出的参考知识,回答问题。\n
            参考内容如下:\n
            ---------------------\n
            {context_str}\n
            ---------------------\n
            Query: {query_str}\n
            Answer: 
'''
chat_engine = doc_summary_index.as_chat_engine(
    chat_mode = 'condense_plus_context',use_async=True,system_prompt=system_prompt,
    verbose = True
)
#verbose是在输出的时候会把它找到的相关文档等信息也print出来,默认为False
#只有chat engine有verbose,query engine使用print(response.metadata)来查看

使用:

response = chat_engine.chat('表达开心应该发什么表情包?')
print(response)
response = chat_engine.chat('要高冷地表达')
print(response)
#查看聊天历史:
print(chat_engine.chat_history)

2.2 mode:condense_question

DEFAULT_TEMPLATE = """\
Given a conversation (between Human and Assistant) and a follow up message from Human, \
rewrite the message to be a standalone question that captures all relevant context \
from the conversation.If the answer cannot be confirmed, the user is asked follow-up questions based on the content of the reference knowledge, with a limit of 3 questions.

<Chat History>
{chat_history}

<Follow Up Message>
{question}

<Standalone question>
"""

DEFAULT_PROMPT = PromptTemplate(DEFAULT_TEMPLATE)

chat_engine = doc_summary_index.as_chat_engine(
    chat_mode = 'condense_question',use_async=True,condense_question_prompt=DEFAULT_PROMPT,
verbose = True
)
#verbose是在输出的时候会把它找到的相关文档等信息也print出来,默认为False

使用:

response = chat_engine.chat('表达开心应该发什么表情包?')
print(response)
response = chat_engine.chat('要高冷地表达')
print(response)
#查看聊天历史:
print(chat_engine.chat_history)
<think>好的,我现在需要帮助用户解决关于Dify循环实现的问题。首先,我需要明确用户的具体需求。他们提到“dify 循环实现”或“dify 如何处理循环”,但Dify本身可能没有直接称为“循环”的功能,所以需要结合现有文档中的信息来推断可能的解决方案。 根据用户提供的引用内容,Dify工作流中有迭代节点[^1]。这可能类似于编程中的循环结构,用于重复执行某个任务。例如,在处理列表数据或需要多次执行同一操作时,迭代节点可以派上用场。我需要详细解释迭代节点的配置和使用步骤,确保用户能够理解如何设置循环次数或遍历数据集。 另外,用户可能对如何处理循环中的错误或性能问题感兴趣。引用[2]提到在Dify中处理PEM文件的问题,这可能涉及在循环中正确处理数据格式,避免错误积累。需要提醒用户在循环中注意错误处理和资源管理,确保每次迭代的稳定性。 引用[3]中的例子展示了如何结合FastAPI和Selenium进行实时监控并生成GIF,这可能涉及循环截取浏览器内容。虽然Dify本身可能不直接控制这类循环,但可以通过外部脚本或定时任务触发工作流,模拟循环执行。这部分需要说明如何将外部循环机制与Dify结合使用。 接下来,我需要组织回答结构。首先介绍迭代节点的基本概念和配置步骤,然后讨论循环中的数据处理和错误处理,最后补充外部触发循环的方法。同时,生成相关问题以帮助用户进一步探索,比如优化循环性能或处理复杂数据结构。 需要确保回答符合格式要求,使用正确的中文表达,行内公式用$...$,独立公式用$$...$$,但当前问题不涉及数学公式,所以可能不需要使用。同时,引用标识要自然地添加到相关段落末尾,如、[^2]、[^3]。 最后,检查是否有遗漏点,比如Dify的其他循环相关功能或用户可能遇到的常见问题,确保回答全面且易于理解。</think>在Dify中处理循环逻辑主要通过**迭代节点**实现,以下是具体实现方式和应用场景的解析: ### 一、Dify的循环实现机制 Dify通过**工作流设计器**中的迭代节点处理循环需求,其核心原理类似编程中的`for循环`。迭代节点可遍历以下数据类型: - 数组列表:`["A","B","C"]` - 字典集合:`{"key1":"value1", "key2":"value2"}` - 数值范围:通过`range()`函数生成序列 配置示例: ```python # 模拟迭代节点的数据输入 input_data = { "dataset": [1,2,3,4,5], "process_logic": "item * 2" # 对每个元素执行乘以2的操作 } ``` ### 二、迭代节点的关键配置步骤 1. **数据源绑定**:将数组/字典类型变量连接到迭代节点的输入端口 2. **循环变量命名**:设定当前元素的变量名(默认为`item`) 3. **子流程设计**:在迭代节点内部构建需要重复执行的逻辑模块 4. **结果聚合**:通过`outputs`收集所有迭代结果,支持数组或对象格式 $$ \text{总耗时} = \sum_{i=1}^{n}(单次迭代时间_i) + 系统开销 $$ ### 三、循环中的特殊处理 1. **错误中断控制**: - 启用`continueOnError`参数可跳过失败迭代 - 通过`try-catch`模块包裹敏感操作 2. **并行优化**: ```python # 伪代码示例 Parallel.forEach(dataset, lambda item: process(item)) ``` 3. **结果过滤**: ```python filtered = filter(lambda x: x%2==0, processed_results) ``` ### 四、应用场景案例 1. **批量文件处理**:遍历存储桶中的文件列表进行格式转换 2. **数据清洗**:对数据库查询结果集进行逐条校验 3. **API轮询**:定时循环调用第三方接口直到满足特定条件
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值