.
# [01]. Spring AI 它带来了什么?对 Spring AI有一个整体的了解和认识,本文将详细介绍接入OpenAI前准备,接入过程以及展示接入成果。
接入前准备
第一,准备OpenAI API Key
,如果你可以科学上网,可以在 OpenAI 官方网站上获取 OpenAI API Key
。
第二,如果不能科学上网,我们可以通过一些代理商获取OpenAI API Key
,以下三个都可以获取到OpenAI API Key
这三个代理大家自行选择,这里我不做任何评价,大家可以都使用一下,从价格、稳定性等几个方面选择最适合自己的代理,下面我就以第一个代理为例说明使用过程:
第一步:使用手机号注册账号,注册完成执行第二步
第二步:gpt.zhizengzeng.com/#/login 登录系统,登录进去系统执行第三步
第三步:点击添加应用
按钮,添加一个应用。【列表展示默认应用是我已经添加过的】 默认会送7000左右个tokens免费使用
第四步:我们就获取到了OpenAI API Key
,下面就可以演示 Spring AI 如何接入 OpenAI
接入Open AI
创建项目
首先要创建一个Spring Boot项目,我们可以使用IDEA创建,也可以使用start.spring.io/ 创建。创建过程我们就不再演示,想必大家不陌生。
注意:Spring AI要求的JDK版本最低为JDK17
引入依赖
需要引入Spring AI依赖包和Spring Web依赖包
<properties>
<maven.compiler.source>17</maven.compiler.source>
<maven.compiler.target>17</maven.compiler.target>
<project.build.sourceEncoding>UTF-8</project.build.sourceEncoding>
<spring-ai.version>1.0.0-SNAPSHOT</spring-ai.version>
</properties>
<dependencies>
<!--Spring Web 依赖包-->
<dependency>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-starter-web</artifactId>
</dependency>
<!--Spring openAI 依赖包-->
<dependency>
<groupId>org.springframework.ai</groupId>
<artifactId>spring-ai-openai-spring-boot-starter</artifactId>
</dependency>
</dependencies>
<dependencyManagement>
<dependencies>
<dependency>
<groupId>org.springframework.ai</groupId>
<artifactId>spring-ai-bom</artifactId>
<version>${spring-ai.version}</version>
<type>pom</type>
<scope>import</scope>
</dependency>
</dependencies>
</dependencyManagement>
application.yml
如上图所示,可以获取到api-key和base-url,直接配置在yaml文件中
spring:
ai:
openai:
api-key: xxxx
base-url: xxxx
代码实现
package com.ivy.controller;
import org.springframework.ai.openai.OpenAiChatModel;
import org.springframework.http.MediaType;
import org.springframework.web.bind.annotation.GetMapping;
import org.springframework.web.bind.annotation.RestController;
import reactor.core.publisher.Flux;
@RestController
public class ChatController {
private final OpenAiChatModel openAiChatModel;
public ChatController(OpenAiChatModel openAiChatModel) {
this.openAiChatModel = openAiChatModel;
}
/**
* 同步方式实现聊天功能
*
* @param prompt 提示词
* @return 聊天结果
*/
@GetMapping("/chat")
public String chat(String prompt) {
return openAiChatModel.call(prompt);
}
/***
* 流式方式实现聊天功能
* @param prompt 提示词
* @return 聊天结果流
*/
@GetMapping(value = "/stream", produces = MediaType.TEXT_EVENT_STREAM_VALUE)
public Flux<String> stream(String prompt) {
return openAiChatModel.stream(prompt);
}
}
在ChatController中实现了如下两种方式;
- chat(): 同步方式实现对话,一次性返回结果,当网络阻塞、输入文本以及返回文本较大时,返回比较慢,用户体验极差,在对话式应用中一般不采用此种方式。
- stream():流式方式实现对话,多次返回结果,像打字一样将结果依次展示。对于对话式的应用场景,主流的调用方式基本采用的是流式对话。
Spring AI中流式对话接口采用的是Spring WebFlux异步网络框架实现的,WebFlux底层默认采用Netty,因此,如果需要了解Spring AI流式对话底层的实现,则需要对异步网络编程有一定的了解。最好能对WebFlux的使用、Flux、Mono等概念了解,当然对于简单的调用并没有什么影响。
测试结果
启动Spring Boot项目,然后使用Postman进行接口测试
经过测试成功返回了结果,说明已经完成了使用Spring AI 接入 OpenAI 大模型。
下面我们在测试一下流式的方式
至此我们就完成了Spring AI 接入 OpenAI 大模型。您是不是感觉是如此的So easy!这都归功于Spring AI 将大模型的接入进行了抽象,完成了复杂接入流程的屏蔽。
虽然接入简单,但是如果想用好大模型还是有一定的难度的,比如怎么使用提示词工程激发大模型的能力,让回答更准确,如何给大模型执行一个角色以及如何让大模型具有上下文记忆能力等等。后续文章我们一一进行分析实践,敬请期待。
Spring AI 支持的大模型
支持的大模型以及需要引入的依赖包,大家根据需求自行进行选择所需要的大模型,实现对话功能。
使用 Ollama,您可以在本地运行各种大型语言模型 (LLMs) 并从中生成文本。Spring AI 支持使用
OllamaChatModel
Ollama 文本生成。
Amazon Bedrock 是一项托管服务,可通过统一的 API 提供来自各种 AI 提供商的基础模型。其支持多种大模型,比如托管 Anthropic 3、Anthropic 2、Llama、Cohere、Titan 和 Jurassic-2
Huggingface是一个自然语言处理(NLP)领域的开源软件库和平台。它提供了丰富的预训练模型和工具,用于文本生成、文本分类、问答系统等多个NLP任务。通过Huggingface平台,开发者可以快速的搭建和训练自己的模型。
清华智普大模型ChatGLB
使用 watsonx.ai,您可以在本地运行各种大型语言模型 (LLMs) 并从中生成文本。Spring AI 支持使用 watsonx.ai
WatsonxAiChatModel
文本生成。
MiniMax Chat 是一种基于Minimax算法的对话系统,它通常用于游戏和决策场景中。
示例代码
总结
本篇文章主要讲解OpenAI Key的获取方法,并实践了如何快速接入OpenAI大模型完成同步和流式对话功能,Spring AI框架目前已经支持多种大模型的接入,比如微软的Azure OpenAI,清华智普ChatGLB等。大家可以根据自己的需求进行选择大模型。
后续文章我们会继续以OpenAI大模型为基础完成相关功能的实践,主要从以下几个方面进行;
- Spring AI 框架使用到的一些AI概念,让大家更深入理解Spring AI框架的实现原理
- Spring AI 实现聊天上下文记忆能力,并对其实现源码进行分析
- Spring AI 实现聊天机器人的人设(角色)定义,并讲解其实现原理
- Spring AI 提示词模版实现原理,并提供两个简单示例
- Spring AI 大模型返回格式化输出,并分析其源码实现
- Spring AI 实现朴素RAG,并分析其实现原理
- Spring AI 支持的向量数据的简单接入,并挑选一个向量数据的安装和基本使用
如果您对Spring AI感兴趣,来一个点赞、收藏+关注,一起进步与成长!!
如何学习大模型 AI ?
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
第一阶段(10天):初阶应用
该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。
- 大模型 AI 能干什么?
- 大模型是怎样获得「智能」的?
- 用好 AI 的核心心法
- 大模型应用业务架构
- 大模型应用技术架构
- 代码示例:向 GPT-3.5 灌入新知识
- 提示工程的意义和核心思想
- Prompt 典型构成
- 指令调优方法论
- 思维链和思维树
- Prompt 攻击和防范
- …
第二阶段(30天):高阶应用
该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。
- 为什么要做 RAG
- 搭建一个简单的 ChatPDF
- 检索的基础概念
- 什么是向量表示(Embeddings)
- 向量数据库与向量检索
- 基于向量检索的 RAG
- 搭建 RAG 系统的扩展知识
- 混合检索与 RAG-Fusion 简介
- 向量模型本地部署
- …
第三阶段(30天):模型训练
恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。
到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?
- 为什么要做 RAG
- 什么是模型
- 什么是模型训练
- 求解器 & 损失函数简介
- 小实验2:手写一个简单的神经网络并训练它
- 什么是训练/预训练/微调/轻量化微调
- Transformer结构简介
- 轻量化微调
- 实验数据集的构建
- …
第四阶段(20天):商业闭环
对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。
- 硬件选型
- 带你了解全球大模型
- 使用国产大模型服务
- 搭建 OpenAI 代理
- 热身:基于阿里云 PAI 部署 Stable Diffusion
- 在本地计算机运行大模型
- 大模型的私有化部署
- 基于 vLLM 部署大模型
- 案例:如何优雅地在阿里云私有部署开源大模型
- 部署一套开源 LLM 项目
- 内容安全
- 互联网信息服务算法备案
- …
学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。
如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。
这份完整版的大模型 AI 学习资料已经上传优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费
】
