Python 错误处理详解

部署运行你感兴趣的模型镜像

皆涎史右一、功能对比

LangChain4j 和 Solon AI 的功能是比较类似的,甚至两者可以配合使用,例如使用 Solon AI 实现 MCP 服务器端,再使用 LangChain4j 实现 MCP 客户端调用 Solon AI,二者可以无缝对接。而且,都可以嵌入到任何第三方框架中使用。那二者的区别是啥呢?

接口或体验 LangChain4j Solon AI

LLM 接口 有 有

LLM 体验 复杂 简单

RAG 接口 有 有

RAG 体验 复杂 简单

MCP 接口 有 有

MCP 体验 复杂 简单

总体来说,LangChain4j 提供的功能更多,尤其是 RAG 方面,提供了更丰富的适配。

二、使用和学习成本

LangChain4j 的使用和学习成本比 Solon AI 高很多,举个例子,例如 Solon AI 要实现流式对话,只需要一行代码就搞定了:

@Produces("text/event-stream")

@Mapping("/streamChat")

public Flux streamChat(String msg) {

return Flux.from(chatModel.stream(msg).map(resp -> resp.getContent()));

}

而 LangChain4j 实现步骤如下:

添加 langchain4j-reactor 依赖。

设置配置文件,配置 streaming-chat-model api-key 和 model-name。

创建 AI Service 并返回 Flux 对象。

调用 Ai Service 才能实现流式输出。

类似的场景还有很多,例如 Solon AI 实现 MCP Client 只需要添加依赖,然后:

一行就构建 mcp 客户端

一行 defaultToolsAdd 或 toolsAdd 设置就可以实现了与 llm 的整合

如下代码:

McpClientProvider mcpTools = McpClientProvider.builder()

.channel(McpChannel.STREAMABLE)

.apiUrl("http://localhost:8080/mcp")

.build();

ChatModel chatModel = ChatModel.of("http://127.0.0.1:11434/api/chat") //使用完整地址(而不是 api_base)

.provider("ollama")

.model("llama3.2")

.defaultToolsAdd(mcpTools)

.build();

但 LangChain4j 的实现就非常复杂了,除了添加依赖之后,你还需要:

创建传输协议 McpTransport。

创建 MCP 客户端 McpClient。

创建 Tools(提供者)对象 ToolProvider。

构建 AiService。

执行 MCP Server 调用。

具体实现代码如下:

@Mapping("/chat")

public String chat(String question) {

// 1.创建传输协议

McpTransport transport = new HttpMcpTransport.Builder()

.sseUrl("http://localhost:8686/sse")

.logRequests(true) // if you want to see the traffic in the log

.logResponses(true)

.build();

// 2.创建 MCP 客户端

McpClient mcpClient = new DefaultMcpClient.Builder()

.transport(transport)

.build();

// 3.创建 Tools(提供者)对象

ToolProvider toolProvider = McpToolProvider.builder()

.mcpClients(List.of(mcpClient))

.build();

// 4.构建 AiService

ToolsAiService aiService = AiServices.builder(ToolsAiService.class)

.chatLanguageModel(chatModel)

.toolProvider(toolProvider)

.build();

// 5.调用 MCP Server

return aiService.chat(question);

}

除了 LangChain4j 的使用复杂之外,源代码量很大,LangChain4j 的文档也不全,要么是没有关键实现代码案例、要么是干脆文档写的都是错的,LangChain4j 的坑比较多,最后只能通过看最新的源码才能解决和使用相关功能,所以 LangChain4j 学习和使用成本是非常高的。

三、小结

如果是简单功能、开发周期又紧可以使用 Solon AI;如果功能复杂,且定制型要求比较多,可以使用功能和灵活度更高的 LangChain4j。但使用 LangChain4j 这就意味着你需要忍受 LangChain4j 不够简洁的写法,以及学习和使用成本比较高的问题。

您可能感兴趣的与本文相关的镜像

ComfyUI

ComfyUI

AI应用
ComfyUI

ComfyUI是一款易于上手的工作流设计工具,具有以下特点:基于工作流节点设计,可视化工作流搭建,快速切换工作流,对显存占用小,速度快,支持多种插件,如ADetailer、Controlnet和AnimateDIFF等

内容概要:本文详细介绍了“秒杀商城”微服务架构的设计与实战全过程,涵盖系统从需求分析、服务拆分、技术选型到核心功能开发、分布式事务处理、容器化部署及监控链路追踪的完整流程。重点解决了高并发场景下的超卖问题,采用Redis预减库存、消息队列削峰、数据库乐观锁等手段保障数据一致性,并通过Nacos实现服务注册发现与配置管理,利用Seata处理跨服务分布式事务,结合RabbitMQ实现异步下单,提升系统吞吐能力。同时,项目支持Docker Compose快速部署和Kubernetes生产级编排,集成Sleuth+Zipkin链路追踪与Prometheus+Grafana监控体系,构建可观测性强的微服务系统。; 适合人群:具备Java基础和Spring Boot开发经验,熟悉微服务基本概念的中高级研发人员,尤其是希望深入理解高并发系统设计、分布式事务、服务治理等核心技术的开发者;适合工作2-5年、有志于转型微服务或提升架构能力的工程师; 使用场景及目标:①学习如何基于Spring Cloud Alibaba构建完整的微服务项目;②掌握秒杀场景下高并发、超卖控制、异步化、削峰填谷等关键技术方案;③实践分布式事务(Seata)、服务熔断降级、链路追踪、统一配置中心等企业级中间件的应用;④完成从本地开发到容器化部署的全流程落地; 阅读建议:建议按照文档提供的七个阶段循序渐进地动手实践,重点关注秒杀流程设计、服务间通信机制、分布式事务实现和系统性能优化部分,结合代码调试与监控工具深入理解各组件协作原理,真正掌握高并发微服务系统的构建能力。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值