LangChain
LangChain是一个用于开发由大型语言模型 (LLM) 驱动的应用程序的框架,帮助开发者使用大型语言模型(LLMs)和聊天模型构建端到端的应用程序。
LangChain库主要由以下几个不同的包组成:
-
langchain-core:基础抽象和LangChain表达语言;
-
langchain-community:第三方集成,主要包括langchain集成的第三方组件;
-
langchain:主要包括链(chain)、代理(agent)和检索策略;
LangChain的核心组件:
-
模型(Models):包含各大语言模型的LangChain接口和调用细节,以及输出解析机制;
-
提示模板(Prompts):使提示工程流线化,进一步激发大语言模型的潜力;
-
数据检索(Indexes):构建并操作文档的方法,接受用户的查询并返回最相关的文档,轻松搭建本地知识库;
-
记忆(Memory):通过短时记忆和长时记忆,在对话过程中存储和检索数据,让CahtBot记住你。
-
链(Chains):LangChain中的核心机制,以特定方式封装各种功能,并通过一系列的组合,自动而灵活地完成任务;
-
代理(Agents):另一个LangChain中核心的机制,通过“代理”让大模型自主调用外部工具和内部工具,使智能Agent成为可能。
好了,这里就不过多介绍LangChain了,大家可以去LangChain官网了解。
安装LangChain
在开始编写LangChain程序前,首先执行如下代码安装openai和langchain:
pip install openai
pip install langchain-openai
pip install langchain
安装完毕后,接下来我们使用OpenAI、智谱AI、LMStudio的openai服务三种方式来编写LangChain程序。
个人比较推荐使用LMStudio的openai服务。
OpenAI
注意:OpenAI需要科学上网才能使用,不使用科学上网可以跳过这一方式。
进入OpenAI官网,根据图中顺序,创建API keys并复制密钥:
接下来编写LangChain程序,示例代码如下:
from langchain_openai import ChatOpenAI # 导入ChatOpenAI
openai_api_key=刚刚复制的OpenAIAPI密钥
llm=ChatOpenAI(openai_api_key=openai_api_key)
print(llm.invoke('中国的首都是哪里?不需要介绍'))
运行结果为:
北京
注意:如果没有OpenAI的API使用次数,会报错:
openai.RateLimitError: Error code: 429 - {'error': {'message': 'You exceeded your current quota, please check your plan and billing details. For more information on this error
大家可以根据需求购买。
如果不想每次都设置OpenAI的API密钥,可以在系统的环境变量中添加密钥,如下图所示:
代码修改为:
from langchain_openai import ChatOpenAI
import os
openai_api_key=os.getenv('OPEN_API_KEY') # 在系统环境变量中获取openAI的API密钥
llm=ChatOpenAI(openai_api_key= openai_api_key)
llm.invoke('中国的首都是哪里?不需要介绍')
智谱AI
由于OpenAI需要科学上网才能使用,所以我们可以使用智谱AI,其新用户免费送2000万次请求,创建API Key并复制密钥如下图所示:
执行如下代码安装智谱AI:
pip install zhipuai
示例代码如下:
from zhipuai import ZhipuAI
client=ZhipuAI(api_key='智谱AI密钥')
response = client.chat.completions.create(
# 使用的模型
model='glm-4',
# 会话内容
messages=[
{"role": "user", "content": "你好"},
{"role": "assistant", "content": "我是人工智能助手"},
{"role": "user", "content": "如何学好LangChain"}
],
# 流式输出
stream=True
)
for chunk in response:
print(chunk.choices[0].delta.content,end="")
运行结果如下:
LMStudio的openai服务
大家可以根据这篇文章安装LMStudio。
安装完毕后,如下图所示,加载模型:
完成以上步骤后,编写如下代码:
from langchain_openai import ChatOpenAI
openai_api_key="google/gemma-3-12b" # 可以不设
openai_api_base="http://127.0.0.1:1234/v1"
chat =ChatOpenAI(
openai_api_key=openai_api_key, # 密钥
openai_api_base=openai_api_base, # openai接口
)
print(chat.invoke("当前使用的大模型版本是多少"))
运行结果如下:
好了,LangChain教程——LangChain基本使用就讲到这里了,下一篇我们学习LangChain教程——提示词模板。
我们该怎样系统的去转行学习大模型 ?
很多想入行大模型的人苦于现在网上的大模型老课程老教材,学也不是不学也不是,基于此,我用做产品的心态来打磨这份大模型教程,深挖痛点并持续修改了近100余次后,终于把整个AI大模型的学习门槛,降到了最低!
第一您不需要具备任何算法和数学的基础
第二不要求准备高配置的电脑
第三不必懂Python等任何编程语言
您只需要听我讲,跟着我做即可,为了让学习的道路变得更简单,这份大模型教程已经给大家整理并打包,现在将这份 LLM大模型资料
分享出来: 😝有需要的小伙伴,可以 扫描下方二维码领取🆓↓↓↓
一、大模型经典书籍(免费分享)
AI大模型已经成为了当今科技领域的一大热点,那以下这些大模型书籍就是非常不错的学习资源。
二、640套大模型报告(免费分享)
这套包含640份报告的合集,涵盖了大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。(几乎涵盖所有行业)
三、大模型系列视频教程(免费分享)
四、2025最新大模型学习路线(免费分享)
我们把学习路线分成L1到L4四个阶段,一步步带你从入门到进阶,从理论到实战。
L1阶段:启航篇丨极速破界AI新时代
L1阶段:我们会去了解大模型的基础知识,以及大模型在各个行业的应用和分析;学习理解大模型的核心原理、关键技术以及大模型应用场景。
L2阶段:攻坚篇丨RAG开发实战工坊
L2阶段是我们的AI大模型RAG应用开发工程,我们会去学习RAG检索增强生成:包括Naive RAG、Advanced-RAG以及RAG性能评估,还有GraphRAG在内的多个RAG热门项目的分析。
L3阶段:跃迁篇丨Agent智能体架构设计
L3阶段:大模型Agent应用架构进阶实现,我们会去学习LangChain、 LIamaIndex框架,也会学习到AutoGPT、 MetaGPT等多Agent系统,打造我们自己的Agent智能体。
L4阶段:精进篇丨模型微调与私有化部署
L4阶段:大模型的微调和私有化部署,我们会更加深入的探讨Transformer架构,学习大模型的微调技术,利用DeepSpeed、Lamam Factory等工具快速进行模型微调。
L5阶段:专题集丨特训篇 【录播课】
全套的AI大模型学习资源已经整理打包
,有需要的小伙伴可以微信扫描下方二维码
,免费领取