利用LlamaIndex和Ollama构建GraphARG本地知识库


在现代的人工智能应用中,如何有效地管理和检索数据是一个重要的课题。LlamaIndex 提供了一种灵活的数据框架,使开发者能够轻松地构建和管理与大型语言模型(LLM)相关的应用。在本文中,我们将深入探讨如何使用 LlamaIndex 创建和检索知识库索引。

1. 环境准备

pip install llama_index
pip install llama-index-llms-ollama
pip install llama-index-embeddings-ollama
pip install llama-index-readers-database
pip install llama-index-vector-stores-postgres
pip install langchain
pip install langchain-core
pip install llama-index-graph-stores-neo4j
pip install langchain-text-splitters
pip install spacy

2. 启用诊断日志

import os, logging, sys
logging.basicConfig(stream=sys.stdout, level=logging.INFO)
logging.getLogger().addHandler(logging.StreamHandler(stream=sys.stdout))

3. 配置本地模型

请到 https://ollama.com/安装 Ollama,并下载大模型,比如:Llama 3、 Phi 3、 Mistral、Gemma、qwen等。为了测试方便,我们选用速度更快、效果较好的 qwen2:7B模型。

from llama_index.llms.ollama import Ollama
llm_ollama = Ollama(base_url='http://127.0.0.1:11434',model="qwen2:7b", request_timeout=600.0)

4. 配置本地向量模型

这里选用nomic-embed-text文本向量模型

from llama_index.embeddings.ollama import OllamaEmbedding
nomic_embed_text= OllamaEmbedding(base_url='http://127.0.0.1:11434',model_name='nomic-embed-text')

5. LlamaIndex全局配置


from llama_index.core import Settings
# 指定 LLM
Settings.llm = llm_ollama
# 自定义文档分块
Settings.chunk_size=500
# 指定向量模型
Settings.embed_model = nomic_embed_text

6. 创建向量存储和知识图片存储数据库

6.1 自定义向量存储

# 向量存储使用postgres
from llama_index.vector_stores.postgres import PGVectorStore
vector_store = PGVectorStore.from_params(
    database="langchat",
    host="syg-node",
    password="AaC43.#5",
    port=5432,
    user="postgres",
    table_name="llama_vector_store",
    embed_dim=768
)

6.2 知识图谱存储 neo4j

from llama_index.core import PropertyGraphIndex
from llama_index.graph_stores.neo4j import Neo4jPropertyGraphStore
graph_store = Neo4jPropertyGraphStore(
    username="neo4j",
    password="1+dZo#eG6*H=9.2",
    url="bolt://syg-node:7687",
    database="neo4j"
)

6.3 设置存储

from llama_index.core import StorageContext
storage_context  = StorageContext.from_defaults(
    vector_store=vector_store,
    property_graph_store=graph_store
)

7. 从数据库加载数据

from llama_index.readers.database import DatabaseReader
db = DatabaseReader(
    scheme="mysql",
    host="syg-node",  # Database Host
    port="3206",  # Database Port
    user="root",  # Database User
    password="AaC43.#5",  # Database Password
    dbname="stock_db",  # Database Name
)

query = f"""
select concat(title,'。\n',summary,'\n',content) as text from tb_article_info where content_flag =1 order by id limit 0,10
"""

documents = db.load_data(query=query)
print(f"Loaded {len(documents)} Files")
print(documents[0])

8. 文本分割器: SpacyTextSplitter

安装 zh_core_web_sm模型

## https://github.com/explosion/spacy-models/releases/download/zh_core_web_sm-3.7.0/zh_core_web_sm-3.7.0-py3-none-any.whl
python download zh_core_web_sm
from llama_index.core.node_parser import LangchainNodeParser
from langchain.text_splitter import SpacyTextSplitter
spacy_text_splitter = LangchainNodeParser(SpacyTextSplitter(
    pipeline="zh_core_web_sm", 
    chunk_size = 512,
    chunk_overlap = 128
))

9. 配置管道

from llama_index.core.ingestion import IngestionPipeline
pipeline = IngestionPipeline(
    transformations=[
        spacy_text_splitter
    ],
    vector_store=vector_store
)

# 生成索引存入向量数据库
nodes = pipeline.run(documents=documents)
print(f"Ingested {len(nodes)} Nodes")

10. 创建知识图谱存储索引

from llama_index.core import PropertyGraphIndex
index = PropertyGraphIndex(nodes=nodes,
                           llm=llm_ollama,
                           use_async=False,
                           storage_context=storage_context,
                           show_progress=True)

这个框架异步处理数据有bug,需要把 use_async设置为 False

11 .创建查询引擎

index = PropertyGraphIndex.from_existing(property_graph_store=graph_store,vector_store=vector_store)
query_engine = index.as_query_engine(llm=llm_ollama)
res = query_engine.query("孩子连着上七天八天的课,确实挺累的")
print(res)
<think>好的,用户问的是LangChain、LlamaIndexollama的区别,需要我用中文解释清楚。首先我得确定这三个工具各自的定位功能,不能混淆。 首先,ollama,我记得是一个本地运行大模型的工具,支持Llama、Mistral等模型。用户下载后可以直接在命令行运行,方便本地测试开发。可能用户会用它来快速部署模型,不需要复杂的环境配置。 然后是LangChain,这个我之前学过,是一个用于构建大语言模型应用的框架。它主要处理链式调用,比如把多个步骤连起来,比如调用模型、处理输出、连接数据库等。LangChain的模块化设计让开发者可以灵活组合不同组件,比如记忆模块、数据检索模块,适合做复杂的应用,比如客服机器人或者数据分析工具。 接下来是LlamaIndex,以前叫GPT Index,专注于数据索引检索。它的核心功能是将外部数据转换成向量索引,方便大模型快速查询。比如用户有自己的文档或数据库,LlamaIndex能高效地建立索引,让模型在回答时引用这些数据。这在需要结合私有数据的场景下特别有用,比如企业内部的知识库系统。 现在需要区分它们的区别。首先,ollama是运行模型的工具,而另外两个是应用开发框架。LangChain更全面,适合构建多步骤的复杂应用,而LlamaIndex专精于数据检索,优化了RAG(检索增强生成)流程。可能用户在选择时需要根据需求:如果只需要快速跑模型,用ollama;要开发复杂应用,用LangChain;需要高效检索私有数据,选LlamaIndex。此外,这三者可以结合使用,比如用ollama运行模型,LangChain处理流程,LlamaIndex管理数据,这样组合起来更强大。 要确保回答结构清晰,分点说明每个工具,再对比区别。注意用词准确,比如ollama是工具,LangChain是框架,LlamaIndex是专注数据索引的库。还要检查LaTeX是否符合要求,但这里可能用不上,不过数学表达式的部分需要留意。用户可能需要知道如何选择这些工具,所以最后给出使用场景的建议会更好。</think>以下是 **LangChain**、**LlamaIndex** **Ollama** 的区别定位解析: --- ### 1. **Ollama** - **定位**:轻量级工具,专注于在本地快速运行部署大语言模型(如 Llama、Mistral 等)。 - **核心功能**: - 提供命令行工具,一键下载运行开源大模型(如 `llama2`, `mistral`, `codellama` 等)。 - 支持模型本地化运行,无需复杂配置,适合开发测试或小规模场景。 - 提供简单的 API,方便与其他工具集成。 - **典型场景**:快速测试开源模型、本地部署轻量级 AI 应用。 --- ### 2. **LangChain** - **定位**:通用框架,用于构建基于大语言模型的复杂应用流程(如 Agents、RAG、自动化任务)。 - **核心功能**: - 模块化设计:提供链(Chains)、工具(Tools)、记忆(Memory)、检索(Retrieval)等组件。 - 支持多模型调用(如 OpenAI、Anthropic、本地模型等)。 - 专注于构建端到端流程,例如结合数据库、API 模型实现自动化任务。 - **典型场景**:开发智能客服、数据分析工具、多步骤决策系统。 --- ### 3. **LlamaIndex** - **定位**:专用工具,优化数据索引与检索(RAG 场景)。 - **核心功能**: - 将外部数据(文档、数据库、API)转换为高效索引(如向量索引、树状索引)。 - 为模型提供结构化数据查询能力,提升回答的准确性相关性。 - 深度集成 LangChain,但更专注于数据检索环节。 - **典型场景**:构建企业知识库、私有数据问答系统、文档摘要生成。 --- ### 三者的区别总结 | 维度 | Ollama | LangChain | LlamaIndex | |---------------|-----------------------|-------------------------------|-------------------------| | **核心目标** | 运行本地大模型 | 构建复杂应用流程 | 优化数据检索与索引 | | **功能重点** | 模型部署与调用 | 流程编排、多工具集成 | 数据连接、高效查询 | | **使用场景** | 本地测试、轻量级应用 | 多步骤任务、自动化系统 | 私有数据问答、RAG 增强 | | **依赖关系** | 独立运行 | 可集成 Ollama/LlamaIndex | 常与 LangChain 配合使用 | --- ### 协作关系举例 1. 用 **Ollama** 在本地运行 `llama2` 模型。 2. 用 **LlamaIndex** 将企业文档转换为向量索引。 3. 用 **LangChain** 编排流程:接收用户问题 → 检索 LlamaIndex 数据 → 调用 Ollama 模型生成回答。 --- 根据需求选择工具: - 仅需运行模型 → **Ollama**。 - 需复杂流程开发 → **LangChain**。 - 需高效检索私有数据 → **LlamaIndex**。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值