从零开始学LangGraph(1):Chat Model --- 如何通过代码与模型对话(上)大模型入门到精通,收藏这篇就足够了!

大家好,在上一期文章我们已经完成了学习AI应用开发的基本环境的搭建,本期开始我们将正式进入正题。

需要说明的是,虽然这个系列笔记的核心主题是LangGraph,但正如其官方文档站所述,在学习搭建AI Agent的过程中,熟悉LangChain中的一些基础组件仍然是非常有意义的,尤其是modeltools

鉴于前期我已经写了一篇关于Chat Model的学习笔记,今天我将根据LangChain 1.0版本的最新更新内容,以及贯彻“从零开始学”的原则出发,对该篇笔记进行重构。

Chat Model 概述

所谓AI应用开发,本质就是利用大模型的各种神奇能力来实现一个解决具体问题的方案。因此,如何使用想要用的大模型,自然是AI应用开发的起点。

在日常生活中,我们往往是通过DeepSeek、豆包等模型供应商官方的网页端、app,或者使用Cherry Studio等对话客户端,来使用大模型。

今天我们要学习的,就是如何通过编写Python代码来使用大模型。

在LangChain中,Chat Model就是提供大模型调用能力的关键组件,它为我们使用各式各样的模型提供了统一的接口,让我们无须事先学习不同厂家的模型API调用方式,就能简单地通过几行代码去使用它们。

Chat Model 基本使用方法

Step 1.前置准备工作

(1)安装所需的模型集成

首先,进入并激活你的虚拟环境(忘记了的同学请复习上一期文章内容),然后在终端中输入安装LangChain的指令:pip install langchain

然后,根据你的任务需求,确定具体想要使用的模型。

在LangChain中,使用特定模型的最基本方式,就是利用现成的第三方模型集成(third-party integrations)。目前LangChain已经集成了近80多种第三方模型服务,覆盖了从OpenAI、Anthropic、Google等国外大厂,到DeepSeek、Qwen、ZHIPU等民族之光的丰富资源。

你可以在LangChain官网上轻松找到你所需要的模型集成的安装方法,以DeepSeek为例,只需要继续在终端中输入指令:

pip install -qU “langchain-deepseek”

(2)获取模型的API key

安装好对应的模型集成后,接下来需要准备API Key。以DeepSeek为例(其他模型API Key获取方式大同小异,不确定的可以直接问AI),进入DeepSeek开放平台API key栏目,网址:

https://platform.deepseek.com/api_keys

然后点击创建API key。如果提示你需要注册的,注册即可。

按照提示给新创建的API Key随意命名,接着会自动弹出key,你需要马上将key复制保存到安全的地方,这个key只有生成的时候会展示出来,如果你没有复制或者忘记了,这个key就废掉了,只能重新创建一个。

(3)设置模型的API key

获得了API key,我们就可以开始写代码了。

需要注意的是,在设置API key时,尽量不要把它明文写在你的代码里,这样会存在因为代码分享而暴露密钥的风险。这里推荐使用LangChain官方示例的API Key设置方式。

首先,在虚拟环境启动状态下的终端中输入jupyter notebook打开notebook,然后在单元格中输入下列代码(后文涉及的所有代码都是在notebook中执行):

import getpassimport osif not os.environ.get("DEEPSEEK_API_KEY"):  os.environ["DEEPSEEK_API_KEY"] = getpass.getpass("Enter API key for DeepSeek: ")

这段代码的功能是,首先,检测系统环境变量中是否已设置所需的API key,如果没有,将用户输入的API key设置为"DEEPSEEK_API_KEY"环境变量的值。

在notebook中,当你点击上面的小三角箭头或使用快捷键shift+enter执行运行,就可以看到代码的运行结果是弹出来一个要求你输入API Key的提示,将前面获取的key贴到对话框里再回车即可。

至此,你的大模型API key就设置完成了。

Step 2. 初始化Chat Model

在具体使用模型前,首先需要初始化模型。

(1)使用Chat Model子类初始化

你可以根据你需要使用的模型,查阅官方文档,使用对应包中的Chat Model子类来进行初始化。

所谓的“子类”、“类”,是Python和许多编程语言中的一种基本概念,你可以把它们简单理解为“模板”(感兴趣的朋友可以去学习“对象”的概念)。回想一下你日常工作学习中使用模板的场景,它的作用就是把一些会反复使用的元素提炼出来,形成一个可复用的框架,你每次具体使用时,根据需求修改一些细节即可。这个过程用编程术语描述,就是类的实例化。

比如你有一个日记模板(日记类),模板中包含了待填空的日期、天气、心情、日记内容等字段(日记类的属性),当你想要写今天的日记的时候,你使用这个模板,填好前面各项字段的内容,于是,一篇特属于“今天”的日记就产生了(日记类的实例对象)。

所谓的使用Chat Model子类来进行模型初始化,相当于就是在做这个事情,我们需要给ChatDeepSeek这个“模型模板”,填入我们具体想使用的模型、模型的温度、最大token数等参数。相关代码如下:

from langchain_deepseek import ChatDeepSeekllm = ChatDeepSeek(    model="deepseek-chat",    temperature=0,    max_tokens=None,    timeout=None,    max_retries=2,    # other params...)

将上述代码填入notebook的单元格中,运行。如果你看到单元格左边出现了小数字,就说明代码运行成功,模型初始化也就完成了。

(2)使用init_chat_model函数初始化

对于某些供应商的模型,我们还可以利用init_chat_model函数来初始化Chat Model。

函数也是编程语言中的基本概念,你只需要知道它的原理和数学中的函数基本一样即可。即,对于函数f(x)= y,我们输入x,x根据函数的计算式进行运算,将得到结果值y。

而如下图代码所示,我们向init_chat_model函数输入两个参数(即括号内用逗号隔开的两个内容,分别为模型名称(model),和模型供应商(model_provider)),就相当于往f(x)中,代入x。而init_chat_model函数的运算结果,将是一个实例化的模型对象。

from langchain.chat_models import init_chat_modelmodel = init_chat_model("deepseek-chat", model_provider="deepseek")

这里偷了个懒,在前面使用类的初始化的代码后面,直接贴入了init_chat_model函数的代码,可以看到初始化同样顺利完成。为了区分,我使用了不同的变量来表示不同初始化方法产生的模型实例。

(3)暂没有集成的模型供应商的使用

虽然LangChain目前已经集成了数量可观的模型服务集成,但有些我们比较常用的供应商仍然没有独立的包,比如openrouter、硅基流动。

这时,我们可以看看想要使用的供应商是否兼容OpenAI API,如果是,那么就可以在LangChain中利用ChatOpenAI子类来调用。以硅基流动为例:

首先,在终端中输入指令安装openai的包:pip install -qU langchain-openai

然后,在进行实例化的时候,填入硅基流动的base_url。这里有个细节,因为用的是openai的包,所以前面在系统变量里存入API Key的时候也要用“OPENAI_API_KEY”的表述。

from langchain_openai import ChatOpenAIllm = ChatOpenAI(    model="xxxxxxxx",    temperature=0,    max_tokens=None,    timeout=None,    max_retries=2,    api_key=""    base_url="https://api.siliconflow.cn/",)

让我们看下效果,通过硅基流动使用Qwen3-235B-A22B-Thinking-2507模型:

Step3. 使用Chat Model

初始化完成后,我们就可以使用Chat Model对象的各种方法(“方法”是python语言的术语,你可以简单理解成“功能”)来使用大模型,其中比较常用的方法如下:

  • invoke:与Chat Model交互的最基本方式,就是聊天本身,它接收一段消息列表作为输入,并返回一段消息列表作为输出。
  • stream:允许Chat Model在生成输出时采用流式输出的方式。
  • batch:允许用户将多个请求批量传入Chat Model以提高处理效率。
  • bind_tools:允许用户将一个工具绑定给Chat Model,使模型能在执行上下文时使用这个工具。
  • with_structured_output:针对支持结构化输出的模型,这个方法能够自动完成将模式绑定到模型并按给定模式解析输出的过程。

以最常用的invoke方法为例:

model.invoke("Hello")

上述代码中,model是我们已经初始化好的一个模型对象,使用.invoke来调用invoke方法,括号内输入我们需要传给模型的信息,这个过程,就相当于我们在DeepSeek网页端的对话栏中,输入“Hello”。

这段代码将生成一个AIMessage对象。可以看到这个对象包含了一个content属性,它的值就是模型对我们回复的内容。

然后,通过使用.content,我们可以直接访问content属性的值。如下图代码所示,先将invoke返回的这个message对象赋值给变量``res,然后打印res.content,就可以只看content的内容了。

这样,我们就初步学会了如何利用代码来使用DeepSeek啦~

好了,以上就是本期的主要内容,请大家尽情探索,祝大家玩得开心!

想入门 AI 大模型却找不到清晰方向?备考大厂 AI 岗还在四处搜集零散资料?别再浪费时间啦!2025 年 AI 大模型全套学习资料已整理完毕,从学习路线到面试真题,从工具教程到行业报告,一站式覆盖你的所有需求,现在全部免费分享

👇👇扫码免费领取全部内容👇👇

一、学习必备:100+本大模型电子书+26 份行业报告 + 600+ 套技术PPT,帮你看透 AI 趋势

想了解大模型的行业动态、商业落地案例?大模型电子书?这份资料帮你站在 “行业高度” 学 AI

1. 100+本大模型方向电子书

在这里插入图片描述

2. 26 份行业研究报告:覆盖多领域实践与趋势

报告包含阿里、DeepSeek 等权威机构发布的核心内容,涵盖:

  • 职业趋势:《AI + 职业趋势报告》《中国 AI 人才粮仓模型解析》;
  • 商业落地:《生成式 AI 商业落地白皮书》《AI Agent 应用落地技术白皮书》;
  • 领域细分:《AGI 在金融领域的应用报告》《AI GC 实践案例集》;
  • 行业监测:《2024 年中国大模型季度监测报告》《2025 年中国技术市场发展趋势》。

3. 600+套技术大会 PPT:听行业大咖讲实战

PPT 整理自 2024-2025 年热门技术大会,包含百度、腾讯、字节等企业的一线实践:

在这里插入图片描述

  • 安全方向:《端侧大模型的安全建设》《大模型驱动安全升级(腾讯代码安全实践)》;
  • 产品与创新:《大模型产品如何创新与创收》《AI 时代的新范式:构建 AI 产品》;
  • 多模态与 Agent:《Step-Video 开源模型(视频生成进展)》《Agentic RAG 的现在与未来》;
  • 工程落地:《从原型到生产:AgentOps 加速字节 AI 应用落地》《智能代码助手 CodeFuse 的架构设计》。

二、求职必看:大厂 AI 岗面试 “弹药库”,300 + 真题 + 107 道面经直接抱走

想冲字节、腾讯、阿里、蔚来等大厂 AI 岗?这份面试资料帮你提前 “押题”,拒绝临场慌!

1. 107 道大厂面经:覆盖 Prompt、RAG、大模型应用工程师等热门岗位

面经整理自 2021-2025 年真实面试场景,包含 TPlink、字节、腾讯、蔚来、虾皮、中兴、科大讯飞、京东等企业的高频考题,每道题都附带思路解析

2. 102 道 AI 大模型真题:直击大模型核心考点

针对大模型专属考题,从概念到实践全面覆盖,帮你理清底层逻辑:

3. 97 道 LLMs 真题:聚焦大型语言模型高频问题

专门拆解 LLMs 的核心痛点与解决方案,比如让很多人头疼的 “复读机问题”:


三、路线必明: AI 大模型学习路线图,1 张图理清核心内容

刚接触 AI 大模型,不知道该从哪学起?这份「AI大模型 学习路线图」直接帮你划重点,不用再盲目摸索!

在这里插入图片描述

路线图涵盖 5 大核心板块,从基础到进阶层层递进:一步步带你从入门到进阶,从理论到实战。

img

L1阶段:启航篇丨极速破界AI新时代

L1阶段:了解大模型的基础知识,以及大模型在各个行业的应用和分析,学习理解大模型的核心原理、关键技术以及大模型应用场景。

img

L2阶段:攻坚篇丨RAG开发实战工坊

L2阶段:AI大模型RAG应用开发工程,主要学习RAG检索增强生成:包括Naive RAG、Advanced-RAG以及RAG性能评估,还有GraphRAG在内的多个RAG热门项目的分析。

img

L3阶段:跃迁篇丨Agent智能体架构设计

L3阶段:大模型Agent应用架构进阶实现,主要学习LangChain、 LIamaIndex框架,也会学习到AutoGPT、 MetaGPT等多Agent系统,打造Agent智能体。

img

L4阶段:精进篇丨模型微调与私有化部署

L4阶段:大模型的微调和私有化部署,更加深入的探讨Transformer架构,学习大模型的微调技术,利用DeepSpeed、Lamam Factory等工具快速进行模型微调,并通过Ollama、vLLM等推理部署框架,实现模型的快速部署。

img

L5阶段:专题集丨特训篇 【录播课】

img
四、资料领取:全套内容免费抱走,学 AI 不用再找第二份

不管你是 0 基础想入门 AI 大模型,还是有基础想冲刺大厂、了解行业趋势,这份资料都能满足你!
现在只需按照提示操作,就能免费领取:

👇👇扫码免费领取全部内容👇👇

2025 年想抓住 AI 大模型的风口?别犹豫,这份免费资料就是你的 “起跑线”!

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值