Springboot 如何调用本地部署Ollama中的多个模型

Spring Boot调用本地Ollama多模型方法

下面我将介绍如何在Spring Boot应用中调用本地部署的Ollama中的多个模型,包括设置依赖、配置和调用代码。

1、添加依赖

首先,在 pom.xml 中添加必要的依赖:

<dependencies>
    <!-- Spring Boot Web -->
    <dependency>
        <groupId>org.springframework.boot</groupId>
        <artifactId>spring-boot-starter-web</artifactId>
    </dependency>
    
    <!-- HTTP Client -->
    <dependency>
        <groupId>org.apache.httpcomponents</groupId>
        <artifactId>httpclient</artifactId>
        <version>4.5.13</version>
    </dependency>
    
    <!-- JSON Processing -->
    <dependency>
        <groupId>com.fasterxml.jackson.core</groupId>
        <artifactId>jackson-databind</artifactId>
    </dependency>
    
    <!-- Lombok (可选) -->
    <dependency>
        <groupId>org.projectlombok</groupId>
        <artifactId>lombok</artifactId>
        <optional>true</optional>
    </dependency>
</dependencies>

2. 配置Ollama连接

application.propertiesapplication.yml中添加Ollama配置:

# application.properties
ollama.base-url=http://localhost:11434
ollama.models=llama2,gemma,mistral
ollama.timeout=30000

或者YAML格式:

# application.yml
ollama:
  base-url: http://localhost:11434
  models: llama2,gemma,mistral
  timeout: 30000

3. 创建配置类

import org.springframework.beans.factory.annotation.Value;
import org.springframework.context.annotation.Bean;
import org.springframework.context.annotation.Configuration;
import org.apache.http.impl.client.CloseableHttpClient;
import org.apache.http.impl.client.HttpClients;

@Configuration
public class OllamaConfig {
    
    @Value("${ollama.base-url}")
    private String baseUrl;
    
    @Value("${ollama.models}")
    private String[] models;
    
    @Value("${ollama.timeout}")
    private int timeout;
    
    @Bean
    public CloseableHttpClient httpClient() {
        return HttpClients.createDefault();
    }
    
    // Getter methods
    public String getBaseUrl() {
        return baseUrl;
    }
    
    public String[] getModels() {
        return models;
    }
    
    public int getTimeout() {
        return timeout;
    }
}

4. 创建请求和响应DTO

import lombok.Data;
@Data
public class OllamaRequest {
    private String model;
    private String prompt;
    private boolean stream = false;
    // 可以根据需要添加其他参数
}

@Data
public class OllamaResponse {
    private String model;
    private String response;
    // 可以根据实际响应结构添加更多字段
}

5. 创建服务类调用Ollama API

import org.apache.http.client.methods.CloseableHttpResponse;
import org.apache.http.client.methods.HttpPost;
import org.apache.http.entity.StringEntity;
import org.apache.http.impl.client.CloseableHttpClient;
import org.apache.http.util.EntityUtils;
import com.fasterxml.jackson.databind.ObjectMapper;
import org.springframework.beans.factory.annotation.Autowired;
import org.springframework.stereotype.Service;
import java.io.IOException;
import java.util.HashMap;
import java.util.Map;

@Service
public class OllamaService {
    
    private final CloseableHttpClient httpClient;
    private final OllamaConfig ollamaConfig;
    private final ObjectMapper objectMapper;
    
    @Autowired
    public OllamaService(CloseableHttpClient httpClient, OllamaConfig ollamaConfig, ObjectMapper objectMapper) {
        this.httpClient = httpClient;
        this.ollamaConfig = ollamaConfig;
        this.objectMapper = objectMapper;
    }
    
    public String generateText(String model, String prompt) throws IOException {
        String url = ollamaConfig.getBaseUrl() + "/api/generate";
        
        OllamaRequest request = new OllamaRequest();
        request.setModel(model);
        request.setPrompt(prompt);
        
        HttpPost httpPost = new HttpPost(url);
        httpPost.setHeader("Content-Type", "application/json");
        httpPost.setEntity(new StringEntity(objectMapper.writeValueAsString(request)));
        
        try (CloseableHttpResponse response = httpClient.execute(httpPost)) {
            String responseBody = EntityUtils.toString(response.getEntity());
            OllamaResponse ollamaResponse = objectMapper.readValue(responseBody, OllamaResponse.class);
            return ollamaResponse.getResponse();
        }
    }
    
    public Map<String, String> generateWithAllModels(String prompt) {
        Map<String, String> responses = new HashMap<>();
        
        for (String model : ollamaConfig.getModels()) {
            try {
                String response = generateText(model, prompt);
                responses.put(model, response);
            } catch (IOException e) {
                responses.put(model, "Error calling model: " + e.getMessage());
            }
        }
        
        return responses;
    }
}

6. 创建控制器

import org.springframework.web.bind.annotation.*;
import java.util.Map;

@RestController
@RequestMapping("/api/ollama")
public class OllamaController {
    
    private final OllamaService ollamaService;
    
    public OllamaController(OllamaService ollamaService) {
        this.ollamaService = ollamaService;
    }
    
    @PostMapping("/generate")
    public String generateText(@RequestParam String model, @RequestParam String prompt) {
        try {
            return ollamaService.generateText(model, prompt);
        } catch (Exception e) {
            return "Error: " + e.getMessage();
        }
    }
    
    @PostMapping("/generate-all")
    public Map<String, String> generateWithAllModels(@RequestParam String prompt) {
        return ollamaService.generateWithAllModels(prompt);
    }
}

7. 使用示例

启动Spring Boot应用后,你可以通过以下方式调用:

(1)调用单个模型:

POST /api/ollama/generate?model=llama2&prompt=Tell me about AI

(2)调用所有配置的模型:

POST /api/ollama/generate-all?prompt=Explain quantum computing

8. 高级功能扩展

如果需要更复杂的功能,可以考虑:

(1)添加模型切换策略

(2)实现流式响应

(3)添加模型健康检查

(4)实现模型性能监控

例如,添加模型健康检查:

public boolean isModelAvailable(String model) throws IOException {
    String url = ollamaConfig.getBaseUrl() + "/api/tags";
    HttpGet httpGet = new HttpGet(url);
    
    try (CloseableHttpResponse response = httpClient.execute(httpGet)) {
        String responseBody = EntityUtils.toString(response.getEntity());
        // 解析响应检查模型是否存在
        return responseBody.contains(model);
    }
}

注意事项

1、确保本地Ollama服务已启动并运行在默认端口(11434)

2、根据实际Ollama API版本调整请求和响应结构

3、在生产环境中添加适当的错误处理和日志记录

4、考虑添加请求超时和重试机制

 以上代码提供了一个完整的Spring Boot集成Ollama多个模型的实现方案,大家可以根据实际需求进行调整和扩展。

### 集成Spring AI与Ollama模型 为了在Spring Boot项目中集成Spring AI并调用本地部署Ollama模型,需先理解两者的工作原理以及它们之间的交互方式。Spring AI提供了用于构建AI驱动应用程序的支持工具和服务,而Ollama则是一个专注于自然语言处理的任务特定模型框架[^1]。 #### 添加依赖项 要在Spring Boot应用里引入必要的库文件,在`pom.xml`或`build.gradle`中加入对应的依赖声明: 对于Maven用户而言: ```xml <dependency> <groupId>org.springframework.ai</groupId> <artifactId>spring-ai-core</artifactId> <version>${spring-ai.version}</version> </dependency> <!-- 如果需要其他组件 --> ``` Gradle用户的配置如下所示: ```groovy implementation 'org.springframework.ai:spring-ai-core:${springAiVersion}' // 如有额外需求可继续添加更多条目 ``` #### 创建客户端实例 通过创建一个继承自`RestTemplate`类的对象来初始化HTTP请求模板,并利用它向运行于本机上的Ollama服务发送API调用。这通常涉及到设置基础URL和其他连接参数。 ```java @Bean public RestOperations restTemplate() { SimpleClientHttpRequestFactory requestFactory = new SimpleClientHttpRequestFactory(); // 可选:调整超时时间等属性 return new RestTemplate(requestFactory); } ``` #### 编写业务逻辑 定义具体的接口方法实现对Ollama API的操作,比如预测功能。这里假设已经有一个可用的服务端点可以接收POST请求并将输入文本作为JSON对象传递过去。 ```java @Service public class NlpService { private final String ollamaEndpointUrl; @Autowired public NlpService(@Value("${ollama.endpoint.url}") String url){ this.ollamaEndpointUrl=url; } /** * 使用Ollama进行推理操作. */ public PredictionResult predict(String inputText) throws Exception{ HttpHeaders headers=new HttpHeaders(); headers.setContentType(MediaType.APPLICATION_JSON); Map<String,Object> requestBody=Map.of( "text",inputText ); HttpEntity<Map<String, Object>> entity = new HttpEntity<>(requestBody,headers); ResponseEntity<PredictionResult> response= restTemplate.postForEntity(ollamaEndpointUrl+"/predict", entity, PredictionResult.class); if(response.getStatusCode().is2xxSuccessful()){ return response.getBody(); }else{ throw new RuntimeException("Failed to get prediction from Ollama."); } } } ``` 上述代码片段展示了如何封装一次简单的RESTful POST请求到指定路径下的/predict资源上,并期望返回结构化的响应数据。注意这里的`PredictionResult`应该被适当地定义为Java实体类以便能够映射来自服务器的回答内容。 #### 应用程序属性配置 最后一步是在项目的application.properties(application.yml)文件内指明目标微服务的具体位置以及其他可能影响通信行为的关键字参数。 ```properties # application.properties example ollama.endpoint.url=http://localhost:8080/your_ollama_service_path ``` 或者采用YAML风格书写相同的信息: ```yaml # application.yml example ollama: endpoint: url: http://localhost:8080/your_ollama_service_path ``` 这样就完成了整个流程的设计工作,现在可以从控制器层或者其他地方注入NlpService Bean并通过其提供的公共成员函数轻松访问远程托管着的Ollama能力了。
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

IT_LOSER

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值