还不会部署知识库?手把手教学RAG入门(附教程)

要学习RAG,感觉最好就是直接上手搭建一套相关的大模型,从中就可以慢慢理解RAG到底是用来干嘛的。

先来说说RAG是什么?目前借助于大模型的帮助,在不需要微调的情况下,我们就可以搭建属于自己的知识库。这种技术被称为**RAG(Retrieval-Augmented Generation)。**简单来说就是通过大模型LLM的能力,在其基础上引入外部的知识库数据,这样大模型AI在回答问题的时候更加的精确。

整体的RAG技术框架包括三个方面:

  • 数据索引阶段:构造向量数据库,引入自己的外部数据源
  • 检索阶段:根据用户给定的问题,从数据库中找到精确的信息
  • 生成阶段:利用检索到的数据库中的信息,生成回答

了解了一些简单的RAG知识之后,如何利用这些技术快速搭建一个属于自己的个人知识库呢?

里利用字节开发的Coze,简单演示一下如何构建自己的个人知识库。首先打开网站:

https://www.coze.cn/home

创建一个属于自己的机器人,这里我取了一个名字叫“算法一只狗的小助理”:

知识库创建

为了达到引入自己文章的目的,需要先新建一个自己的知识库:

上传你自己的文档到“我的空间”中,因为我大部分的文章都是用markdown格式下的,因此可以把文档导入并转换成“飞书在线文档”:

整理好自己的文件夹后,需要把文件设置成“互联网公开”的形式:

把对应的文件夹设定成“互联网上获得链接的人可阅读”:

最后整体的文件目录如下:

登陆自己的账号,回到刚刚建立的知识库中,飞书文章导入进来:

可以看到自己的文章可以进行选择,如果没有选择互联网公开,这里面是看不到文章的:

最后导入后,就可以看到自己对应的知识库了:

测试Coze小助手

可以回到Bots建立的页面,把刚刚搭建的知识库添加进来

然后设定prompt词语,由于我只想让这个机器人搜索基于知识库的内容进行问答,因此输入了下面的prompt:

使用知识库搜索问答

然后再点击它自带的优化提示词功能:

接下来右边界面就可以开始测试自己的Bots机器人了

chatgpt账号升级

它不仅能够根据你给定的文章进行搜索和总结,同时也给出了具体的文章链接。

有了这个功能之后,以后如果你的个人知识库有新增的话,那就可以添加到里面,只需要和他进行对话就可以方便查找自己的文章。

写在最后

上面就是一个简单的利用RAG技术搭建个人知识库的步骤,所以说RAG其实是在大模型上的一个辅助技术,它不需要重新训练大模型,只需要让大模型根据已有知识去回答就可以了。但缺点就是由于没有进行过微调,导致可能回答的内容不够专业,对于在专有领域上去使用,效果还是不佳。因此RAG技术需要权衡一下你使用的领域,毕竟适合自己的才是好的。

如何系统的去学习大模型LLM ?

大模型时代,火爆出圈的LLM大模型让程序员们开始重新评估自己的本领。 “AI会取代那些行业?”“谁的饭碗又将不保了?”等问题热议不断。

事实上,抢你饭碗的不是AI,而是会利用AI的人。

科大讯飞、阿里、华为等巨头公司发布AI产品后,很多中小企业也陆续进场!超高年薪,挖掘AI大模型人才! 如今大厂老板们,也更倾向于会AI的人,普通程序员,还有应对的机会吗?

与其焦虑……

不如成为「掌握AI工具的技术人」,毕竟AI时代,谁先尝试,谁就能占得先机!

但是LLM相关的内容很多,现在网上的老课程老教材关于LLM又太少。所以现在小白入门就只能靠自学,学习成本和门槛很高。

基于此,我用做产品的心态来打磨这份大模型教程,深挖痛点并持续修改了近70次后,终于把整个AI大模型的学习门槛,降到了最低!

在这个版本当中:

第一您不需要具备任何算法和数学的基础
第二不要求准备高配置的电脑
第三不必懂Python等任何编程语言

您只需要听我讲,跟着我做即可,为了让学习的道路变得更简单,这份大模型教程已经给大家整理并打包,现在将这份 LLM大模型资料 分享出来:包括LLM大模型书籍、640套大模型行业报告、LLM大模型学习视频、LLM大模型学习路线、开源大模型学习教程等, 😝有需要的小伙伴,可以 扫描下方二维码领取🆓↓↓↓

👉优快云大礼包🎁:全网最全《LLM大模型入门+进阶学习资源包》免费分享(安全链接,放心点击)👈

一、LLM大模型经典书籍

AI大模型已经成为了当今科技领域的一大热点,那以下这些大模型书籍就是非常不错的学习资源。

在这里插入图片描述

二、640套LLM大模型报告合集

这套包含640份报告的合集,涵盖了大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。(几乎涵盖所有行业)
在这里插入图片描述

三、LLM大模型系列视频教程

在这里插入图片描述

四、LLM大模型开源教程(LLaLA/Meta/chatglm/chatgpt)

在这里插入图片描述

五、AI产品经理大模型教程

在这里插入图片描述

LLM大模型学习路线

阶段1:AI大模型时代的基础理解

  • 目标:了解AI大模型的基本概念、发展历程和核心原理。

  • 内容

    • L1.1 人工智能简述与大模型起源
    • L1.2 大模型与通用人工智能
    • L1.3 GPT模型的发展历程
    • L1.4 模型工程
    • L1.4.1 知识大模型
    • L1.4.2 生产大模型
    • L1.4.3 模型工程方法论
    • L1.4.4 模型工程实践
    • L1.5 GPT应用案例

阶段2:AI大模型API应用开发工程

  • 目标:掌握AI大模型API的使用和开发,以及相关的编程技能。

  • 内容

    • L2.1 API接口
    • L2.1.1 OpenAI API接口
    • L2.1.2 Python接口接入
    • L2.1.3 BOT工具类框架
    • L2.1.4 代码示例
    • L2.2 Prompt框架
    • L2.3 流水线工程
    • L2.4 总结与展望

阶段3:AI大模型应用架构实践

  • 目标:深入理解AI大模型的应用架构,并能够进行私有化部署。

  • 内容

    • L3.1 Agent模型框架
    • L3.2 MetaGPT
    • L3.3 ChatGLM
    • L3.4 LLAMA
    • L3.5 其他大模型介绍

阶段4:AI大模型私有化部署

  • 目标:掌握多种AI大模型的私有化部署,包括多模态和特定领域模型。

  • 内容

    • L4.1 模型私有化部署概述
    • L4.2 模型私有化部署的关键技术
    • L4.3 模型私有化部署的实施步骤
    • L4.4 模型私有化部署的应用场景

这份 LLM大模型资料 包括LLM大模型书籍、640套大模型行业报告、LLM大模型学习视频、LLM大模型学习路线、开源大模型学习教程等, 😝有需要的小伙伴,可以 扫描下方二维码领取🆓↓↓↓

👉优快云大礼包🎁:全网最全《LLM大模型入门+进阶学习资源包》免费分享(安全链接,放心点击)👈

### 使用 Docker 部署 RAG 知识库教程 #### 背景介绍 检索增强生成 (Retrieval-Augmented Generation, RAG) 是一种结合了传统检索技术和现代生成模型的方法,用于提高自然语言处理任务中的信息准确性[^1]。通过将外部知识源引入到生成过程中,RAG 可以为各种应用场景提供更高质量的结果。 Docker 提供了一种轻量级的方式,在隔离环境中运行应用程序及其依赖项。因此,使用 Docker 来部署 RAG 系统可以简化环境配置并提升可移植性。 --- #### 准备工作 为了成功部署基于 Docker 的 RAG 知识库,需完成以下准备工作: - **安装 Docker**:确保本地已安装最新版本的 Docker 引擎。 - **获取数据集**:准备要使用的文档集合作为知识库输入。 - **选择框架**:常见的 RAG 实现框架包括 Hugging Face Transformers 和 Haystack。 --- #### 教程步骤概述 以下是构建和运行 RAG 知识库容器的主要过程: ##### 1. 创建 Dockerfile 定义一个 `Dockerfile` 文件来描述如何设置镜像环境。下面是一个简单的例子,假设我们正在使用 Haystack 框架实现 RAG 功能。 ```dockerfile # 基础镜像 FROM python:3.9-slim # 设置工作目录 WORKDIR /app # 安装必要的 Python 库 COPY requirements.txt . RUN pip install --no-cache-dir -r requirements.txt # 复制应用文件至容器内 COPY . . # 启动命令 CMD ["python", "run_rag.py"] ``` 其中,`requirements.txt` 列出了项目所需的全部依赖包,例如: ``` haystack==1.10.0 transformers>=4.27.0,<5.0.0 torch>=1.8.0 faiss-cpu>=1.7.0 elasticsearch>=7.0.0 ``` ##### 2. 构建自定义镜像 执行以下命令以创建新的 Docker 镜像: ```bash docker build -t rag-knowledge-base . ``` 此操作会读取当前路径下的 `Dockerfile` 并按照指示逐步组装最终产物。 ##### 3. 运行容器实例 启动新建立好的服务端口映射以及挂载持久化存储位置以便保存索引资料等重要资源。 ```bash docker run \ -d \ -p 8000:8000 \ -v $(pwd)/data:/app/data \ --name rag-instance \ rag-knowledge-base ``` 这里 `-v` 参数指定了主机上的某个文件夹与容器内部对应区域之间的双向同步关系;而 `-p` 则负责暴露指定的服务接口给外界访问。 ##### 4. 测试 API 接口 如果一切正常的话,现在应该可以通过浏览器或者 Postman 工具向地址 http://localhost:8000 发送请求来进行查询测试啦! --- #### 注意事项 尽管上述方法简单易懂,但在实际生产环境下还需要考虑更多因素比如安全性加固措施、性能优化策略等方面的内容。另外值得注意的是并非所有的第三方插件都支持无缝集成进此类解决方案当中去所以前期调研阶段非常重要不可忽视哦[^1]. ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值