Solon AI —— 初体验

说明

关于 Solon Cloud 目前正在准备「熔断与限流」 的部分,想使用 sentinel 的插件,但我之前只用过 Spring 集成的 Hystrix,还需要先学习下 sentinel,目前还在准备当中,不会那么快更新。Solon AI 是 《Solon 实用教程》的第六部分,算是新增章节,恰好之前有使用过 agents-flex,准备起来更容易些,因此先开始更新 Solon AI 部分。

在这里插入图片描述

Solon 将在 3.1.0 版本引入 AI 相关插件,现在已经发布 SNAPSHOT 版本,现在接口和功能还不稳定,只建议尝鲜。

从官网的介绍中(https://solon.noear.org/article/learn-solon-ai),可以看到Solon AI 对大模型的支持是比较完整的,聊天模型接口支持同步调用,流式调用,Function Call,记忆功能,多种消息角色和多种消息格式,提供 RAG 支持和流程编排。

在初体验中,我测试的是聊天模型的同步调用,流式调用,Function Call这几个功能。

前置

本地测试使用了 ollama,需要安装好 ollama (https://ollama.com/download),并下载好模型,我这里演示用的两个模型一个是deepseek-r1:7b(基于 qwen2.5 的蒸馏的一个推理模型)和 qwen2.5:7b(支持tools,在ollama 可以通过点击 tools 标签查看哪些模型支持 tools)。

ollama run deepseek-r1:7b
ollama run qwen2.5:7b

如果无法调用 ollama 接口时,可做如下配置,主要处理跨域或者局域网调用。

vi .zshrc

export OLLAMA_ORIGINS="*"
export OLLAMA_HOST=0.0.0.0:11434

source .zshrc

依赖

增加 solon-ai 的依赖,solon-web-rx 和 solon-web-sse 用于支持流式调用。

dependencies {
    implementation platform(project(":demo-parent"))

    implementation("org.noear:solon-web")
    implementation("org.noear:solon-ai")
    implementation("org.noear:solon-logging-logback")
    implementation("org.noear:solon-openapi2-knife4j")
    implementation("org.noear:solon-web-rx")
    implementation("org.noear:solon-web-sse")

    testImplementation("org.noear:solon-test")
}

配置

我这里使用 ollama 服务时,需要配置 provider。如果使用云服务时,设置 apiKey。

这里配置 timeout 是避免使用推理模型时,接口调用时间过长报错问题,可以根据自己的模型和机器的配置情况进行调整。

demo:
  llm:
    apiUrl: "http://127.0.0.1:11434/api/chat" # 使用完整地址(而不是 api_base)
    # apiKey: "xxxx"
    provider: "ollama"
    # model: "deepseek-r1:7b"
    model: "qwen2.5:7b"
    timeout: 600s

实现

LlmConfig

通过注入的方式获取配置,并初始化ChatModel,这里可以根据自在的需求进一步配置ChatModel。

package com.example.demo.ai.llm.config;

import org.noear.solon.ai.chat.ChatConfig;
import org.noear.solon.ai.chat.ChatModel;
import org.noear.solon.annotation.Bean;
import org.noear.solon.annotation.Configuration;
import org.noear.solon.annotation.Inject;

/**
 * @author airhead
 */
@Configuration
public class LlmConfig {
  @Bean
  public ChatModel build(@Inject("${demo.llm}") ChatConfig config) {
    return ChatModel.of(config).build();
  }
}

Controller

package com.example.demo.ai.llm.controller;

import com.example.demo.ai.llm.service.LlmService;
import io.swagger.annotations.Api;
import io.swagger.annotations.ApiOperation;
import java.io.IOException;
import org.noear.solon.annotation.*;
import org.noear.solon.core.util.MimeType;
import reactor.core.publisher.Flux;

/**
 * @author airhead
 */
@Controller
@Mapping("/llm")
@Api("聊天")
public class LlmController {
  @Inject private LlmService service;

  @ApiOperation("chat")
  @Post
  @Mapping("chat")
  public String chat(String prompt) {
    return service.chat(prompt);
  }

  @Produces(MimeType.TEXT_EVENT_STREAM_UTF8_VALUE)
  @Mapping("stream")
  public Flux<String> stream(String prompt) throws IOException {
    return service.stream(prompt);
  }

  @ApiOperation("functionCall")
  @Post
  @Mapping("functionCall")
  public String functionCall(String prompt) {
    return service.functionCall(prompt);
  }
}

Service

package com.example.demo.ai.llm.service;

import java.io.IOException;
import org.noear.solon.ai.chat.ChatModel;
import org.noear.solon.ai.chat.ChatResponse;
import org.noear.solon.annotation.Component;
import org.noear.solon.annotation.Inject;
import reactor.core.publisher.Flux;

/**
 * @author airhead
 */
@Component
public class LlmService {
  @Inject private ChatModel chatModel;

  public String chat(String prompt) {
    try {
      ChatResponse response = chatModel.prompt(prompt).call();

      return response.getMessage().getContent();
    } catch (IOException e) {
      throw new RuntimeException(e);
    }
  }

  public Flux<String> stream(String prompt) throws IOException {
    return Flux.from(chatModel.prompt(prompt).stream())
        .filter(ChatResponse::hasChoices)
        .map(resp -> resp.getMessage().getContent());
  }

  public String functionCall(String prompt) {
    try {
      ChatResponse response =
          chatModel.prompt(prompt).options(o -> o.functionAdd(new Tools())).call();

      return response.getMessage().getContent();
    } catch (IOException e) {
      throw new RuntimeException(e);
    }
  }
}

Tools

Solon 提供了多种设置 Fuction Call 的方式,这里只是从官网拿过来的一个例子,更多内容看这里 https://solon.noear.org/article/921 。

package com.example.demo.ai.llm.service;

import org.noear.solon.ai.chat.annotation.FunctionMapping;
import org.noear.solon.ai.chat.annotation.FunctionParam;

public class Tools {
  @FunctionMapping(description = "获取指定城市的天气情况")
  public String get_weather(
      @FunctionParam(name = "location", description = "根据用户提到的地点推测城市") String location) {
    if (location == null) {
      throw new IllegalStateException("arguments location is null (Assistant recognition failure)");
    }

    return "晴,24度"; // 可使用 “数据库” 或 “网络” 接口根据 location 查询合适数据;
  }
}

验证

同步调用

在这里插入图片描述

流式调用

可以在浏览器中直接进行测试,目前的情况是,如果使用了推理模型 think 可能不显示,如果推理时间过长,可能出现超时的情况。作者在最新版本的SNAPSHOT中已处理,但我暂时还拉取不到最新版本。

在这里插入图片描述

Function Call

我们可能看到这例子里面只简单返回了 “晴,24度” 的天气情况。经过大模型的处理,内容就更完整丰富了。

在这里插入图片描述

小结

这里我只测试了 Solon AI 的基础功能,可以说是非常容易上手,通过简单的配置就能调用本地的服务了,如果是云服务也是一样的,增加配置 apiKey 就可以了。后续我将继续测试 Solon AI 的 RAG 和 Flow 的功能。

### Solon AI MCP 示例代码与教程 Solon AI MCP 是一种用于构建 MCP 服务器的强大框架,支持多种 Java 版本(如 Java 8 及以上),并且可以轻松嵌入到其他流行的框架中,例如 Spring Boot、JFinal 和 Vert.x[^2]。 下面是一些关于如何使用 Solon AI MCP 进行 Java 开发的具体示例代码和教程。 #### 1. 安装与环境准备 首先,确保您的项目环境中包含了 Solon AI MCP 的依赖项。如果您正在使用 Maven 构建工具,可以在 `pom.xml` 文件中添加以下内容: ```xml <dependency> <groupId>org.noear.solon</groupId> <artifactId>solon-ai-mcp</artifactId> <version>最新版本号</version> </dependency> ``` 此配置将导入 Solon AI MCP 所需的核心库[^3]。 #### 2. 创建一个简单的 MCP Server 接下来,我们将通过编写一些基本代码来启动一个 MCP Server。这里展示了一个非常基础的例子,演示了如何接收客户端请求并返回响应数据。 ##### 主程序入口 ```java import org.noear.solon.Solon; import org.noear.solon.core.AopContext; public class MainApp { public static void main(String[] args) { AopContext.context().scan("com.example.mcp"); Solon.start(MainApp.class, args); } } ``` 这段代码设置了扫描包路径以便自动加载控制器和其他组件,并启动了应用程序实例[^4]。 #### 3. 配置 Controller 处理 HTTP 请求 现在我们定义一个 controller 类用来处理传入的 HTTP 请求。假设我们要实现一个 RESTful API 接口,该接口接受 POST 方法并将接收到的信息回显给调用方。 ```java package com.example.mcp.controller; import org.noear.solon.annotation.Controller; import org.noear.solon.annotation.Mapping; import org.noear.solon.annotation.Param; import org.noear.solon.core.handle.ModelAndView; @Controller @Mapping("/api/mcp") public class McpController { @Mapping(value = "echo", method = "POST") public ModelAndView echo(@Param("message") String message){ ModelAndView mv = new ModelAndView(); mv.put("result", "Echo: "+message); return mv; } } ``` 在这个例子中,当有 POST 请求到达 `/api/mcp/echo` 路径时,参数中的 'message' 字段会被读取出来并通过视图模型对象返回给前端显示[^5]。 #### 4. 测试您的新服务 最后一步就是测试我们的新创建的服务是否正常运作。您可以借助 Postman 或 curl 命令行工具向刚才部署好的 URL 发送模拟请求验证其行为表现。 例如,如果运行的是本地主机上的默认端口号 (通常是 8080),那么可以用下面这样的命令试试看效果: ```bash curl --location --request POST 'http://localhost:8080/api/mcp/echo' \ --header 'Content-Type: application/x-www-form-urlencoded' \ --data-urlencode 'message=Hello World!' ``` 预期输出应该是类似于这样的一条记录: ```json { "result": "Echo: Hello World!" } ``` --- ###
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值