Spring AI 接入OpenAI实现同步和流式对话

.

# [01]. Spring AI 它带来了什么?对 Spring AI有一个整体的了解和认识,本文将详细介绍接入OpenAI前准备,接入过程以及展示接入成果。

接入前准备

第一,准备OpenAI API Key,如果你可以科学上网,可以在 OpenAI 官方网站上获取 OpenAI API Key

第二,如果不能科学上网,我们可以通过一些代理商获取OpenAI API Key,以下三个都可以获取到OpenAI API Key

这三个代理大家自行选择,这里我不做任何评价,大家可以都使用一下,从价格、稳定性等几个方面选择最适合自己的代理,下面我就以第一个代理为例说明使用过程:

第一步:使用手机号注册账号,注册完成执行第二步

第二步:gpt.zhizengzeng.com/#/login 登录系统,登录进去系统执行第三步

第三步:点击添加应用按钮,添加一个应用。【列表展示默认应用是我已经添加过的】 默认会送7000左右个tokens免费使用

20240602143517238.png

第四步:我们就获取到了OpenAI API Key,下面就可以演示 Spring AI 如何接入 OpenAI

接入Open AI

创建项目

首先要创建一个Spring Boot项目,我们可以使用IDEA创建,也可以使用start.spring.io/ 创建。创建过程我们就不再演示,想必大家不陌生。

注意:Spring AI要求的JDK版本最低为JDK17

引入依赖

需要引入Spring AI依赖包和Spring Web依赖包

<properties>
    <maven.compiler.source>17</maven.compiler.source>
    <maven.compiler.target>17</maven.compiler.target>
    <project.build.sourceEncoding>UTF-8</project.build.sourceEncoding>
    <spring-ai.version>1.0.0-SNAPSHOT</spring-ai.version>
</properties>

<dependencies>
    <!--Spring Web 依赖包-->
    <dependency>
        <groupId>org.springframework.boot</groupId>
        <artifactId>spring-boot-starter-web</artifactId>
    </dependency>
    <!--Spring openAI 依赖包-->
    <dependency>
        <groupId>org.springframework.ai</groupId>
        <artifactId>spring-ai-openai-spring-boot-starter</artifactId>
    </dependency>
</dependencies>

<dependencyManagement>
    <dependencies>
        <dependency>
            <groupId>org.springframework.ai</groupId>
            <artifactId>spring-ai-bom</artifactId>
            <version>${spring-ai.version}</version>
            <type>pom</type>
            <scope>import</scope>
        </dependency>
    </dependencies>
</dependencyManagement>

application.yml

image.png

如上图所示,可以获取到api-key和base-url,直接配置在yaml文件中

spring:
  ai:
    openai:
      api-key: xxxx
      base-url: xxxx

代码实现

package com.ivy.controller;

import org.springframework.ai.openai.OpenAiChatModel;
import org.springframework.http.MediaType;
import org.springframework.web.bind.annotation.GetMapping;
import org.springframework.web.bind.annotation.RestController;
import reactor.core.publisher.Flux;

@RestController
public class ChatController {

    private final OpenAiChatModel openAiChatModel;

    public ChatController(OpenAiChatModel openAiChatModel) {
        this.openAiChatModel = openAiChatModel;
    }

    /**
     * 同步方式实现聊天功能
     *
     * @param prompt 提示词
     * @return 聊天结果
     */
    @GetMapping("/chat")
    public String chat(String prompt) {
        return openAiChatModel.call(prompt);
    }

    /***
     * 流式方式实现聊天功能
     * @param prompt 提示词
     * @return 聊天结果流
     */
    @GetMapping(value = "/stream", produces = MediaType.TEXT_EVENT_STREAM_VALUE)
    public Flux<String> stream(String prompt) {
        return openAiChatModel.stream(prompt);
    }
}

在ChatController中实现了如下两种方式;

  • chat(): 同步方式实现对话,一次性返回结果,当网络阻塞、输入文本以及返回文本较大时,返回比较慢,用户体验极差,在对话式应用中一般不采用此种方式。
  • stream():流式方式实现对话,多次返回结果,像打字一样将结果依次展示。对于对话式的应用场景,主流的调用方式基本采用的是流式对话。

Spring AI中流式对话接口采用的是Spring WebFlux异步网络框架实现的,WebFlux底层默认采用Netty,因此,如果需要了解Spring AI流式对话底层的实现,则需要对异步网络编程有一定的了解。最好能对WebFlux的使用、Flux、Mono等概念了解,当然对于简单的调用并没有什么影响。

测试结果

启动Spring Boot项目,然后使用Postman进行接口测试

image.png 经过测试成功返回了结果,说明已经完成了使用Spring AI 接入 OpenAI 大模型。

下面我们在测试一下流式的方式

image.png

至此我们就完成了Spring AI 接入 OpenAI 大模型。您是不是感觉是如此的So easy!这都归功于Spring AI 将大模型的接入进行了抽象,完成了复杂接入流程的屏蔽。

虽然接入简单,但是如果想用好大模型还是有一定的难度的,比如怎么使用提示词工程激发大模型的能力,让回答更准确,如何给大模型执行一个角色以及如何让大模型具有上下文记忆能力等等。后续文章我们一一进行分析实践,敬请期待。

Spring AI 支持的大模型

支持的大模型以及需要引入的依赖包,大家根据需求自行进行选择所需要的大模型,实现对话功能。

使用 Ollama,您可以在本地运行各种大型语言模型 (LLMs) 并从中生成文本。Spring AI 支持使用 OllamaChatModel Ollama 文本生成。

Amazon Bedrock 是一项托管服务,可通过统一的 API 提供来自各种 AI 提供商的基础模型。其支持多种大模型,比如托管 Anthropic 3、Anthropic 2、Llama、Cohere、Titan 和 Jurassic-2

Huggingface是一个自然语言处理(NLP)领域的开源软件库和平台。它提供了丰富的预训练模型和工具,用于文本生成、文本分类、问答系统等多个NLP任务。通过Huggingface平台,开发者可以快速的搭建和训练自己的模型。

清华智普大模型ChatGLB

使用 watsonx.ai,您可以在本地运行各种大型语言模型 (LLMs) 并从中生成文本。Spring AI 支持使用 watsonx.ai WatsonxAiChatModel 文本生成。

MiniMax Chat 是一种基于Minimax算法的对话系统,它通常用于游戏和决策场景中。

示例代码

github.com/fangjieDevp…

总结

本篇文章主要讲解OpenAI Key的获取方法,并实践了如何快速接入OpenAI大模型完成同步和流式对话功能,Spring AI框架目前已经支持多种大模型的接入,比如微软的Azure OpenAI,清华智普ChatGLB等。大家可以根据自己的需求进行选择大模型。

后续文章我们会继续以OpenAI大模型为基础完成相关功能的实践,主要从以下几个方面进行;

  • Spring AI 框架使用到的一些AI概念,让大家更深入理解Spring AI框架的实现原理
  • Spring AI 实现聊天上下文记忆能力,并对其实现源码进行分析
  • Spring AI 实现聊天机器人的人设(角色)定义,并讲解其实现原理
  • Spring AI 提示词模版实现原理,并提供两个简单示例
  • Spring AI 大模型返回格式化输出,并分析其源码实现
  • Spring AI 实现朴素RAG,并分析其实现原理
  • Spring AI 支持的向量数据的简单接入,并挑选一个向量数据的安装和基本使用

如果您对Spring AI感兴趣,来一个点赞、收藏+关注,一起进步与成长!!

如何学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

在这里插入图片描述

第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

  • 大模型 AI 能干什么?
  • 大模型是怎样获得「智能」的?
  • 用好 AI 的核心心法
  • 大模型应用业务架构
  • 大模型应用技术架构
  • 代码示例:向 GPT-3.5 灌入新知识
  • 提示工程的意义和核心思想
  • Prompt 典型构成
  • 指令调优方法论
  • 思维链和思维树
  • Prompt 攻击和防范

第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

  • 为什么要做 RAG
  • 搭建一个简单的 ChatPDF
  • 检索的基础概念
  • 什么是向量表示(Embeddings)
  • 向量数据库与向量检索
  • 基于向量检索的 RAG
  • 搭建 RAG 系统的扩展知识
  • 混合检索与 RAG-Fusion 简介
  • 向量模型本地部署

第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

  • 为什么要做 RAG
  • 什么是模型
  • 什么是模型训练
  • 求解器 & 损失函数简介
  • 小实验2:手写一个简单的神经网络并训练它
  • 什么是训练/预训练/微调/轻量化微调
  • Transformer结构简介
  • 轻量化微调
  • 实验数据集的构建

第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

  • 硬件选型
  • 带你了解全球大模型
  • 使用国产大模型服务
  • 搭建 OpenAI 代理
  • 热身:基于阿里云 PAI 部署 Stable Diffusion
  • 在本地计算机运行大模型
  • 大模型的私有化部署
  • 基于 vLLM 部署大模型
  • 案例:如何优雅地在阿里云私有部署开源大模型
  • 部署一套开源 LLM 项目
  • 内容安全
  • 互联网信息服务算法备案

学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。

如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。

这份完整版的大模型 AI 学习资料已经上传优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费
<think>首先,用户的问题是关于Spring AI工具流式调用的实现方法步骤。用户意图是了解如何在Spring框架中使用AI工具进行流式调用。 回顾系统级指令: - 所有行内数学表达式必须使用$...$格式。 - 独立公式必须使用$$...$$格式并单独成段。 - LaTeX语法正确。 - 使用中文回答。 - 生成相关问题。 - 回答中引用的段落末尾自然地添加引用标识。 - 回答结构清晰,帮助用户逐步解决问题。 - 保证回答真实可靠。 参考提供的引用: - 引用[1]: 提到Spring AI接入OpenAI实现同步流式对话,后续文章会讨论AI概念、聊天上下文记忆、角色定义、提示词模版、格式化输出、朴素RAG、向量数据等。 - 引用[2]: Spring AI流式输出的底层实现是通过Reactor Streams技术实现的,类似于Spring WebFlux。 - 引用[3]: 使用Spring Boot进行流式调用大模型服务,包括环境准备具体使用。 用户的问题是基于这些引用,询问实现方法步骤。 我的回答需要: 1. 结构清晰,逐步解释。 2. 使用中文。 3. 在适当的地方添加引用标识。 4. 在末尾生成相关问题。 结构化回答: - 介绍流式调用:简要说明什么是流式调用,为什么在AI工具中重要。 - 实现方法:基于引用,解释使用Spring AI实现流式调用的步骤。 - 代码示例:提供简单的代码示例来演示。 - 引用标识:自然地添加引用。 - 生成相关问题。 关键点从引用: - 流式输出通过Reactor Streams实现 [^2]。 - 使用Spring Boot进行流式调用大模型服务 [^3]。 步骤: 1. 环境准备:设置Spring Boot项目,添加依赖。 2. 配置AI服务:如OpenAI API密钥。 3. 实现流式调用:使用Spring AI的API来处理流式响应。 4. 处理响应:使用Reactor Streams来处理数据流。 代码示例:参考引用[3],它提到Spring Boot流式调用,所以我可以提供一个简单的代码片段。 确保回答真实可靠:基于提供的引用,但引用是有限的。我应该基于常识一般知识来补充。 生成相关问题:在末尾添加相关问题,如示例所示。 最终回答结构: 1. 引言:解释流式调用。 2. 实现步骤:分步说明。 3. 代码示例:提供代码。 4. 总结。 5. 相关问题。</think>### Spring AI工具流式调用的实现方法步骤 流式调用(Streaming Call)是一种高效的数据处理方式,特别适用于大模型服务(如OpenAI的GPT模型),因为它允许客户端逐步接收响应数据,而不是等待整个响应完成后再处理。这减少了延迟,提高了用户体验,尤其在高并发或大数据场景下。在Spring框架中,Spring AI工具通过Reactor Streams技术实现流式输出,类似于Spring WebFlux的底层机制[^2]。下面我将逐步解释实现方法步骤,确保内容结构清晰、真实可靠。 #### 1. **环境准备** 在开始实现流式调用前,需要配置Spring Boot项目并添加必要的依赖。Spring AI依赖于Spring Boot 3.x及以上版本,并需要集成Reactor库来处理流式数据。 - **步骤**: - 创建一个新的Spring Boot项目(例如使用Spring Initializr)。 - 添加Spring AI Starter依赖(例如针对OpenAI的依赖)。 - 配置API密钥模型参数(如OpenAI的API密钥)。 - **关键依赖** (在`pom.xml`中添加): ```xml <dependency> <groupId>org.springframework.ai</groupId> <artifactId>spring-ai-openai-spring-boot-starter</artifactId> <version>0.8.0</version> <!-- 使用最新版本 --> </dependency> <dependency> <groupId>io.projectreactor</groupId> <artifactId>reactor-core</artifactId> <!-- Reactor Streams支持 --> </dependency> ``` 引用[3]提到环境准备是流式调用的基础,包括设置Spring Boot项目并集成AI服务[^3]。 #### 2. **配置AI服务** 在Spring Boot中,通过配置文件或代码设置AI模型参数,确保服务支持流式输出。 - **步骤**: - 在`application.properties`或`application.yml`中配置OpenAI API密钥模型ID。 ```properties spring.ai.openai.api-key=your-api-key spring.ai.openai.model=gpt-4-turbo spring.ai.openai.streaming-enabled=true # 启用流式输出 ``` - 如果使用其他AI服务(如Hugging Face),需添加相应依赖并配置。 此步骤基于引用[1],其中提到Spring AI接入OpenAI实现同步流式对话[^1]。 #### 3. **实现流式调用逻辑** 使用Spring AI的API创建服务类,利用`Reactor`的`Flux`对象处理流式响应。`Flux`是Reactor Streams的核心组件,用于表示异步数据流。 - **步骤**: - 创建一个服务类(如`AIChatService`),注入`OpenAiChatClient`(或其他模型客户端)。 - 定义方法,使用`generateStream()`方法返回`Flux<String>`,以逐步接收响应。 - 在控制器中暴露一个端点,返回`Flux`对象,支持流式HTTP响应(如Server-Sent Events)。 - **代码示例**: ```java import org.springframework.ai.chat.ChatClient; import org.springframework.ai.chat.prompt.Prompt; import org.springframework.beans.factory.annotation.Autowired; import org.springframework.web.bind.annotation.GetMapping; import org.springframework.web.bind.annotation.RequestParam; import org.springframework.web.bind.annotation.RestController; import reactor.core.publisher.Flux; @RestController public class AIChatController { @Autowired private ChatClient chatClient; // 自动注入OpenAiChatClient @GetMapping("/stream-chat") public Flux<String> streamChat(@RequestParam String message) { Prompt prompt = new Prompt(message); return chatClient.generateStream(prompt) // 返回Flux流 .map(response -> response.getGeneration().getContent()); // 提取内容 } } ``` 此代码中,`generateStream()`方法返回一个`Flux`流,每个元素是模型响应的分块数据。客户端(如Web前端)可以通过SSE(Server-Sent Events)订阅该流,实现实时显示。引用[2]解释了底层实现Spring AI流式输出基于Reactor Streams,类似于Spring WebFlux[^2]。 #### 4. **客户端处理流式响应** 在客户端(如Web应用或移动端),需要订阅流式端点并逐步处理数据。这通常使用JavaScript或前端框架实现。 - **步骤**: - 使用`EventSource`(SSE客户端)或WebSocket连接Spring Boot端点。 - 监听数据事件,逐步更新UI(例如,聊天机器人回复的逐字显示)。 - **前端代码示例** (使用JavaScript): ```javascript const eventSource = new EventSource('/stream-chat?message=你好,Spring AI'); eventSource.onmessage = (event) => { const data = event.data; document.getElementById('response').innerText += data; // 逐步追加响应 }; eventSource.onerror = (error) => { console.error('Stream error:', error); eventSource.close(); }; ``` 引用[3]讨论了Spring Boot流式调用在uniapp端的具体使用,强调客户端需支持流式订阅[^3]。 #### 5. **性能优化注意事项** - **优化点**: - **超时处理**: 设置合理的超时时间,避免流式连接挂起。 - **错误处理**: 使用Reactor的`onErrorResume()`处理异常,确保流式稳定性。 - **资源管理**: 流式调用会消耗更多连接资源,建议在Spring Boot中配置线程池(如通过`WebFluxConfigurer`)。 - **注意事项**: 流式调用适用于实时场景(如聊天机器人),但可能增加复杂性。测试时,使用工具如`curl`或Postman验证流式端点。 #### 总结 Spring AI工具实现流式调用的核心在于Reactor Streams技术,通过`Flux`对象处理异步数据流。步骤包括环境准备、服务配置、API实现客户端订阅。这种方法显著提升了AI应用的响应速度用户体验,尤其在大模型对话中[^1][^2][^3]。在实际应用中,确保API密钥安全,并根据需求调整模型参数。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值