Java入门Spring AI应用开发
环境
-
JDK 17
-
Springboot3.5 +spring AI 1.0 (最新版本)
-
qwen模型 or deepseek R1
-
nodejs 22 这我这里懒得弄用的 18 做了一些小操作
前置了解
此文章是学习黑马spring ai+大模型教程的 笔记+思路理解
关于推理大模型的一些小知识 :
- 文中所提到的大模型 指 LLM 也就是大语言模型 (Large Language Models, LLM)目前很火的LLM模型大多基于一种源于NLP(自然语言处理)中的一个神经网络模型
Transformer - 这种模型可以对输入的参数进行推理 , 就是将我们给出的prompt作为开头 推理后续的内容 采用持续生成的方式 在海量的训练数据中推理出一句话 也就是比如 你问gpt 我是一个广东人 你推荐我今天吃什么 他会根据你的词 比如 广东 今天 从吃什么 去推理出 比如广东的数据里有早餐 有概率数据 比如多少人早上选择肠粉 那么他继续推理就可以推荐你今天早上吃肠粉
- 其他前置知识 比如什么是 llm 什么是ai应用 可以自行去搜索了解
环境选择

这里推荐两种方式 :
- 选择基于 ollama本地部署 deepseek r1:8b 模型用于开发学习
- 选择阿里云免费送100wtokens 的首次开通服务
阿里云
现在阿里云注册送很多 免费额度 可以直接查看底下的spring ai 开发简单ai应用了
本地部署
这里 博主的主机是 12g现存的 4070s 所以可以小玩一下 之后的演示 也会基于本地部署的r1:8b模型来展示一些操作
首先 打开 ollama 的官网下载 并且安装 ollama 然后搜索deepseek-r1 选择模型参数
官网地址 : https://ollama.com/
安装完成后 直接可以在cmd中查看到 ollama相关的命令

可以看到和 docker的命令非常的相似
这里我选择 8b 先试试水 因为也是第一次

打开 ollama的控制台 输入命令ollama run deepseek-r1:8b 直接复制即可


下载完成之后 就会启动大模型 我们就可以通过控制台和本地的模型对话了 因为参数低 可能会很慢
小贴士:
什么是大模型应用?
就是通过自己平台调用 推理模型返回结果的平台 比如目前非常常见的各大厂商免费的ai问答网站 都属于大模型应用的一种
RAG应用是什么
其实就是在大模型应用的基础上外挂了一层字典 也可以理解成知识库 可以通过这个知识库快速的检索问题 从而提升回复的精准性和可靠性, 核心思想就是通过实时检索外部知识库作为回复的根基 而不是纯靠大模型
Spring AI
简单的了解
Spring ai 帮我们把接入大模型到使用简化到了 三步:
- 正确的依赖引入
- 配置文件
- 简单的Spring注入
然后只需要按照官方文档提供的调用模式 调用client就可以完成对模型的prompt发送以及获取回复的信息

简单问答助手
创建全新Springboot 项目 ai-web
依赖
<properties>
<java.version>17</java.version>
<spring-ai.version>1.0.0</spring-ai.version>
</properties>
<dependencies>
<dependency>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-starter-web</artifactId>
</dependency>
<dependency>
<groupId>org.springframework.ai</groupId>
<artifactId>spring-ai-starter-model-ollama</artifactId>
</dependency>
<dependency>
<groupId>com.mysql</groupId>
<artifactId>mysql-connector-j</artifactId>
<scope>runtime</scope>
</dependency>
<dependency>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-starter-test</artifactId>
<scope>test</scope>
</dependency>
<dependency>
<groupId>org.projectlombok</groupId>
<artifactId>lombok</artifactId>
</dependency>
</dependencies>
编写配置文件 :
设置 模型的类型和ollama为我们提供的 默认在 localhost:11434端口下的 api 服务
Spring:
application:
name: ai-web
ai:
ollama:
base-url: http://localhost:11434
chat:
model: deepseek-r1:8b
server:
port: 8080
#用于查看会话日志
logging:
level:
org.springframework.ai.chat.client.advisor: debug
com.hyc.aiweb: debug
Spring ai 其实已经非常的成熟了 我们编写配置之后只需要少量的代码就可以完成 对大模型的调用
配置一下 client
package com.hyc.aiweb.config;
import org.springframework.ai.chat.client.ChatClient;
import org.springframework.ai.ollama.OllamaChatModel;
import org.springframework.</

最低0.47元/天 解锁文章
1353

被折叠的 条评论
为什么被折叠?



