Spring boot AI使用教程

application.yml

spring:
  application:
    name: chatmes
  ai:
    openai:
      base-url: https://dashscope.aliyuncs.com/compatible-mode
      api-key: *************************
      chat:
        options:
          model: qwen-max-latest
          temperature: 0.3
      embedding:
        options:
          model: text-embedding-v3
          dimensions: 1024


logging:
  level:
    org.springframework.ai: debug # AI对话的日志级别
    com.example.chatmes: debug # 本项目的日志级别

API调用

package com.example.chatmes.controller;

import org.springframework.ai.chat.client.ChatClient;
import org.springframework.beans.factory.annotation.Autowired;
import org.springframework.web.bind.annotation.RequestMapping;
import org.springframework.web.bind.annotation.RequestParam;
import org.springframework.web.bind.annotation.RestController;
import reactor.core.publisher.Flux;

@RestController
@RequestMapping("/ai")
public class HelloController {

    @Autowired
    private ChatClient chatClient;

    // 注意看返回值,是Flux<String>,也就是流式结果,另外需要设定响应类型和编码,不然前端会乱码
    @RequestMapping(value = "/chat", produces = "text/html;charset=UTF-8")
    public Flux<String> chat(@RequestParam(defaultValue = "介绍") String prompt, String chatId) {
        return chatClient
                .prompt(prompt)
                .advisors(a -> a.param(ChatMemory.CONVERSATION_ID, chatId))
                .stream() // 流式调用
                .content();
    }
}

配置

package com.example.chatmes.configs;


import org.springframework.ai.chat.client.ChatClient;
import org.springframework.ai.chat.client.advisor.MessageChatMemoryAdvisor;
import org.springframework.ai.chat.client.advisor.SimpleLoggerAdvisor;
import org.springframework.ai.chat.memory.ChatMemory;
import org.springframework.ai.chat.memory.MessageWindowChatMemory;
import org.springframework.ai.chat.model.ChatModel;
import org.springframework.context.annotation.Bean;
import org.springframework.context.annotation.Configuration;

@Configuration
public class CommonConfiguration {

    // 注意参数中的model就是使用的模型,这里用了Ollama,也可以选择OpenAIChatModel
    @Bean
    public ChatClient chatClient(ChatModel model, ChatMemory chatMemory) {
        return ChatClient.builder(model) // 创建ChatClient工厂实例
                .defaultSystem("你的名字叫xx。请以友好、乐于助人和愉快的方式解答学生的各种问题。")
                .defaultAdvisors(new SimpleLoggerAdvisor()) // 添加默认的Advisor,记录日志
                .defaultAdvisors(MessageChatMemoryAdvisor.builder(chatMemory).build())
                .build(); // 构建ChatClient实例
    }

    @Bean
    public ChatMemory chatMemory() {
        return MessageWindowChatMemory.builder()
                .maxMessages(20) // 保留最近20条消息
                .build();
    }
}

pox坐标

<?xml version="1.0" encoding="UTF-8"?>
<project xmlns="http://maven.apache.org/POM/4.0.0" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
         xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 https://maven.apache.org/xsd/maven-4.0.0.xsd">
    <modelVersion>4.0.0</modelVersion>
    <parent>
        <groupId>org.springframework.boot</groupId>
        <artifactId>spring-boot-starter-parent</artifactId>
        <version>3.5.7</version>
        <relativePath/> <!-- lookup parent from repository -->
    </parent>
    <groupId>com.example</groupId>
    <artifactId>chatmes</artifactId>
    <version>0.0.1-SNAPSHOT</version>
    <name>chatmes</name>
    <description>chatmes</description>
    <url/>
    <licenses>
        <license/>
    </licenses>
    <developers>
        <developer/>
    </developers>
    <scm>
        <connection/>
        <developerConnection/>
        <tag/>
        <url/>
    </scm>
    <properties>
        <java.version>17</java.version>
        <spring-ai.version>1.0.3</spring-ai.version>
    </properties>
    <dependencies>
        <dependency>
            <groupId>org.springframework.boot</groupId>
            <artifactId>spring-boot-starter-web</artifactId>
        </dependency>
        <dependency>
            <groupId>org.springframework.ai</groupId>
            <artifactId>spring-ai-starter-model-openai</artifactId>
        </dependency>


        <dependency>
            <groupId>org.springframework.boot</groupId>
            <artifactId>spring-boot-starter-test</artifactId>
            <scope>test</scope>
        </dependency>
    </dependencies>
    <dependencyManagement>
        <dependencies>
            <dependency>
                <groupId>org.springframework.ai</groupId>
                <artifactId>spring-ai-bom</artifactId>
                <version>${spring-ai.version}</version>
                <type>pom</type>
                <scope>import</scope>
            </dependency>
        </dependencies>
    </dependencyManagement>

    <build>
        <plugins>
            <plugin>
                <groupId>org.springframework.boot</groupId>
                <artifactId>spring-boot-maven-plugin</artifactId>
            </plugin>
        </plugins>
    </build>

</project>

### 如何在Spring Boot中集成和使用AI功能 #### 1. 准备工作 为了在Spring Boot项目中集成AI功能,首先需要确保环境已准备好。这包括安装Java开发工具包(JDK),并设置好Maven或Gradle作为构建工具[^2]。 #### 2. 添加依赖项 在`pom.xml`文件中添加必要的依赖项来支持Spring AI的功能。以下是示例代码: ```xml <dependency> <groupId>org.springframework.boot</groupId> <artifactId>spring-boot-starter-web</artifactId> </dependency> <!-- Spring AI dependency --> <dependency> <groupId>com.spring.ai</groupId> <artifactId>spring-ai-core</artifactId> <version>1.0.0</version> </dependency> ``` 这些依赖项允许开发者轻松地将AI能力引入到他们的Spring Boot应用程序中[^3]。 #### 3. 配置API密钥 要与像OpenAI这样的第三方服务通信,通常需要提供有效的API密钥。可以在项目的`application.properties`或`application.yml`文件中定义该密钥: ```properties openai.api.key=your-api-key-here ``` 这样做的好处是可以方便地管理敏感数据,并且便于切换不同的环境配置[^1]。 #### 4. 创建控制器和服务类 创建一个新的RESTful Web Service端点用于处理来自客户端的请求并将它们转发给相应的AI模型进行预测。下面是一个简单的例子展示如何做到这一点: ```java @RestController @RequestMapping("/ai") public class AiController { @Autowired private OpenAIService openAiService; @GetMapping("/generate") public String generateText(@RequestParam String prompt) { return openAiService.generate(prompt); } } ``` 在这个例子中,当接收到GET请求时,会调用`OpenAIService`中的方法完成实际的任务——向指定URL发送HTTP POST请求获取响应内容[^1]。 #### 5. 编写业务逻辑 继续完善上面提到的服务层组件,具体实现取决于所选框架的具体细节。这里给出一个可能版本如下所示: ```java @Service public class OpenAIServiceImpl implements OpenAIService { private final RestTemplate restTemplate; @Value("${openai.api.url}") private String apiUrl; @Value("${openai.api.key}") private String apiKey; public OpenAIServiceImpl(RestTemplateBuilder restTemplateBuilder){ this.restTemplate = restTemplateBuilder.build(); } @Override public String generate(String inputPrompt){ HttpHeaders headers=new HttpHeaders(); headers.setContentType(MediaType.APPLICATION_JSON); headers.setBearerAuth(apiKey); Map<String,Object> bodyMap=new HashMap<>(); bodyMap.put("model","text-davinci-003"); bodyMap.put("prompt",inputPrompt); HttpEntity<Map<String, Object>> requestEntity = new HttpEntity<>(bodyMap,headers); ResponseEntity<Map> response= restTemplate.exchange( apiUrl, HttpMethod.POST, requestEntity, Map.class ); return (String)((List<?>)response.getBody().get("choices")).get(0).get("text"); } } ``` 以上片段展示了如何通过RestTemplate库发起对外部资源(这里是OpenAI API)的异步调用过程[^3]。 --- ### 总结 综上所述,本文详细描述了一个完整的流程图说明怎样把强大的自然语言处理技术无缝接入现有的Spring生态系统里去。从基本概念介绍到最后实践操作都有涉及到了[^1][^2]。
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值