- 博客(4)
- 收藏
- 关注
原创 Datawhale4月组队学习llm第四章:构建RAG应用
在老版本中,LangChain 是不直接支持文心调用的,我们需要自定义一个支持文心模型调用的 LLM我们可以直接调用已自定义好的Wenxin_LLM注:以下代码需要将我们封装的代码wenxin_llm.py下载到本 Notebook 的同级目录下,才可以直接使用# 需要下载源码 from wenxin_llm import Wenxin_LLMimport os# 读取本地/项目的环境变量。# find_dotenv()寻找并定位.env文件的路径。
2024-04-22 13:28:00
985
原创 Datawhale4月组队学习llm第三章:搭建知识库
向量数据库是用于高效计算和管理大量向量数据的解决方案。向量数据库是一种专门用于存储和检索向量数据(embedding)的数据库系统。它与传统的基于关系模型的数据库不同,它主要关注的是向量数据的特性和相似性。在向量数据库中,数据被表示为向量形式,每个向量代表一个数据项。这些向量可以是数字、文本、图像或其他类型的数据。向量数据库使用高效的索引和查询算法来加速向量数据的存储和检索过程。
2024-04-19 23:35:19
1393
原创 Datawhale4月组队学习llm第二章:使用LLM API开发应用
例如,若要语言模型推断一本书的主题,仅提供简单的书名和一句简介是不足够的。例如,在以下的样例中,我们先给了一个 {<学术>:<圣贤>} 对话样例,然后要求模型用同样的隐喻风格回答关于“孝顺”的问题,可以看到 LLM 回答的风格和示例里<圣贤>的文言文式回复风格是十分一致的。百度智能云千帆大模型平台提供了多种语言的千帆 SDK,在使用千帆 SDK 之前,需要先获取文心一言调用密钥,在代码中需要配置自己的密钥才能实现对模型的调用,下面我们以 Python SDK为例,介绍通过千帆 SDK 调用文心模型的流程。
2024-04-18 18:05:02
1456
原创 Datawhale4月组队学习llm第一章:大模型简介
为了解决大型语言模型在生成文本时面临的一系列挑战,提高模型的性能和输出质量研究人员提出了一种新的模型架构:检索增强生成(RAG, Retrieval-Augmented Generation)该架构巧妙地整合了从庞大知识库中检索到的相关信息,并以此为基础,指导大型语言模型生成更为精准的答案信息偏差/幻觉: LLM 有时会产生与客观事实不符的信息,导致用户接收到的信息不准确。RAG 通过检索数据源,辅助模型生成过程,确保输出内容的精确性和可信度,减少信息偏差。知识更新滞后性: LLM 基于静态。
2024-04-16 16:41:48
1417
4
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人