SpringAI实战:接入Ollama大模型之旅

引言

SpringAI已经到来,我们迎来了Java生态与大型语言模型Ollama的集成实战!

官方文档:https://spring.io/projects/spring-ai

图片

Spring AIAI工程的应用框架。其目标是将可移植性和模块化设计等Spring生态系统设计原则应用于AI领域,并将使用POJO作为应用程序的构建块推广到AI领域

Spring AI 提供了一套跨多个AI提供商的便携式API,不仅支持聊天、文本到图像生成以及嵌入模型等多种功能,还提供了同步和流API选项以满足不同场景的需求。它允许用户通过配置参数来访问特定的模型,使得集成变得更加灵活和便捷。

在聊天模型方面,Spring AI支持 OpenAI、Azure OpenAI、Amazon Bedrock 等主流提供商;在文本到图像生成方面,它支持 OpenAI 的 DALL-E 和 StabilityAI 等模型。

更令人惊喜的是,Spring AI 还支持在本地无GPU环境下运行AI模型,例如通过 Ollama支持的模型,为用户提供了更多选择和可能性。

快速开始

官方文档:https://docs.spring.io/spring-ai/reference/getting-started.html

Ollama

模型库

图片

Ollama是一个在本地启动并运行大型语言模型的工具,自动下载大模型,开箱即用,Ollama也支持大量的模型库。注意:您应该至少有8 GB可用RAM来运行7B模型,16 GB来运行13B模型,32 GB来运行33B模型。

安装运行

图片

  • 首页点击下载:Ollama Windows(preview),运行OllamaSetup.exe一键安装,install就好。

  • 本地执行:ollama run gemma:2b

图片

SpringBoot集成Ollama

ollama-embeddings(数据向量化)和ollama-chat为例:

图片

依赖引入
<?xml version="1.0" encoding="UTF-8"?>
<project xmlns="http://maven.apache.org/POM/4.0.0"
         xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
         xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd">
    <modelVersion>4.0.0</modelVersion>

    <groupId>org.example</groupId>
    <artifactId>spring-ai-demo</artifactId>
    <version>1.0-SNAPSHOT</version>

    <parent>
        <groupId>org.springframework.boot</groupId>
        <artifactId>spring-boot-starter-parent</artifactId>
        <version>3.2.3</version>
    </parent>


    <properties>
        <maven.compiler.source>17</maven.compiler.source>
        <maven.compiler.target>17</maven.compiler.target>
        <project.build.sourceEncoding>UTF-8</project.build.sourceEncoding>
    </properties>
    <dependencies>
        <!--spring web-->
        <dependency>
            <groupId>org.springframework.boot</groupId>
            <artifactId>spring-boot-starter-web</artifactId>
        </dependency>
        <dependency>
            <groupId>org.springframework.ai</groupId>
            <artifactId>spring-ai-ollama-spring-boot-starter</artifactId>
        </dependency>
        <dependency>
            <groupId>org.yaml</groupId>
            <artifactId>snakeyaml</artifactId>
            <version>2.2</version>
        </dependency>

    </dependencies>


    <dependencyManagement>
        <dependencies>
            <dependency>
                <groupId>org.springframework.ai</groupId>
                <artifactId>spring-ai-bom</artifactId>
                <version>0.8.0</version>
                <type>pom</type>
                <scope>import</scope>
            </dependency>
        </dependencies>
    </dependencyManagement>

    <repositories>
        <repository>
            <id>spring-milestones</id>
            <name>Spring Milestones</name>
            <url>https://repo.spring.io/milestone</url>
            <snapshots>
                <enabled>false</enabled>
            </snapshots>
        </repository>
        <repository>
            <id>spring-snapshots</id>
            <name>Spring Snapshots</name>
            <url>https://repo.spring.io/snapshot</url>
            <releases>
                <enabled>false</enabled>
            </releases>
        </repository>
    </repositories>
</project>
配置接入
spring:
  ai:
    ollama:
      ## 默认地址无需配置
      base-url: http://localhost:11434
      embedding:
        model: gemma:2b
      chat:
        model: gemma:2b
控制器

方式一:

@RestController
public class EmbeddingController {

    private final EmbeddingClient embeddingClient;

    @Autowired
    public EmbeddingController(EmbeddingClient embeddingClient) {
        this.embeddingClient = embeddingClient;
    }

    @GetMapping("/ai/embedding")
    public Map embed(@RequestParam(value = "message", defaultValue = "Tell me a joke") String message) {
        EmbeddingResponse embeddingResponse = this.embeddingClient.embedForResponse(List.of(message));
        return Map.of("embedding", embeddingResponse);
    }
}

方式二:

@RestController
public class ChatController {

    private final OllamaChatClient chatClient;

    @Autowired
    public ChatController(OllamaChatClient chatClient) {
        this.chatClient = chatClient;
    }

    @GetMapping("/ai/generate")
    public Map generate(@RequestParam(value = "message", defaultValue = "Tell me a joke") String message) {
        return Map.of("generation", chatClient.call(message));
    }

    @GetMapping("/ai/generateStream")
 public Flux<ChatResponse> generateStream(@RequestParam(value = "message", defaultValue = "Tell me a joke") String message) {
        Prompt prompt = new Prompt(new UserMessage(message));
        return chatClient.stream(prompt);
    }
}

测试:

图片

太吃资源了:

图片

现在,大家已经率先获取了第一手的信息差距,赶紧把握机会学习起来,以建立起认知和知识上的差距。最终,通过实际行动和持续练习,我们将形成执行和练习上的差距,从而在竞争中脱颖而出。

### SpringAI与DeepSeek本地模型集成 对于SpringAI与DeepSeek本地模型的集成,配置过程涉及多个方面。首先,在构建应用程序时,需确保项目依赖项已正确设置以便支持所需功能[^1]。 #### 添加依赖关系 为了使SpringAI能够调用DeepSeek本地模型服务,应在`pom.xml`文件中加入特定库的支持: ```xml <dependency> <groupId>com.deepseek</groupId> <artifactId>deepseek-client</artifactId> <version>${desired.version}</version> </dependency> ``` 这一步骤确保了应用可以访问到必要的API接口来操作DeepSeek模型实例[^2]。 #### 配置属性文件 接着要调整application.properties或者application.yml中的参数设定,以适应新的组件需求。例如指定DeepSeek服务器地址以及认证信息等关键数据[^3]: ```yaml spring.ai.deepseek: url: http://localhost:8080/deepseek-api/ apiKey: your_api_key_here ``` 通过这种方式定义连接细节,使得后续代码逻辑无需硬编码敏感资料即可正常工作[^4]。 #### 创建客户端类 创建一个新的Java类用于封装对DeepSeek API 的请求方法。此类内部实现具体业务流程的同时也负责处理异常情况并返回预期的结果对象给上层调用者[^5]。 ```java @Service public class DeepSeekClient { @Value("${spring.ai.deepseek.url}") private String deepSeekUrl; @Value("${spring.ai.deepseek.apiKey}") private String apiKey; public Response predict(ModelInput input){ RestTemplate restTemplate = new RestTemplate(); HttpHeaders headers = new HttpHeaders(); headers.set("Authorization", "Bearer "+apiKey); HttpEntity<ModelInput> entity = new HttpEntity<>(input,headers); ResponseEntity<Response> response = restTemplate.exchange( deepSeekUrl+"/predict", HttpMethod.POST, entity, Response.class ); return response.getBody(); } } ``` 上述示例展示了如何利用RestTemplate发起HTTP POST请求至远程端点完成预测任务,并接收响应体作为输出[^6]。 #### 测试验证 最后编写单元测试案例检验整个链路是否通畅无阻。借助MockMvc模拟外部环境交互行为从而达到全面覆盖的目的[^7]。 ```java @SpringBootTest(webEnvironment=WebEnvironment.MOCK) @AutoConfigureMockMvc class ApplicationTests { @Autowired MockMvc mockMvc; @Test void testPredict() throws Exception{ ModelInput input=new ModelInput(/*...*/); MvcResult result = this.mockMvc.perform(post("/api/predict") .contentType(MediaType.APPLICATION_JSON) .content(objectMapper.writeValueAsString(input))) .andExpect(status().isOk()) .andReturn(); assertNotNull(result.getResponse().getContentAsString()); } } ``` 以上就是关于将SpringAI同DeepSeek本地模型相结合的主要步骤概述[^8]。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值