- 博客(11)
- 收藏
- 关注
原创 SpringBoot + MyBatis-Plus 批量插入失败问题详解
编写自定义批量插入逻辑:如果项目要求较高,可以通过继承 MyBatis-Plus 的方法,覆写saveBatch的逻辑,避免使用默认的反射获取泛型过程。在 ServiceImpl 中指定实体对应的 Mapper:通过手动传递实体与 Mapper 之间的映射关系,保证批量插入时使用正确的数据库表。在采用多层抽象设计的同时,一定要留意框架内部依赖反射实现的机制,合理安排泛型的传递,确保最终业务逻辑能够获取准确的类型信息。适当减少不必要的抽象层次,能有效避免因反射机制局限性而引发的各种问题。
2025-04-12 18:28:37
865
原创 LangChain4j 性能优化与监控:构建高效的 AI 应用(详细版)
通过对 LLM 调用优化、向量数据库与多模态处理调优、并发处理与缓存机制以及监控调试策略的详细说明,本文为开发者提供了系统化的性能优化方案。未来,在业务持续扩展和 AI 技术不断更新的背景下,持续的性能调优、自动化监控和智能预警机制将成为保障系统稳定运行和高效响应的关键。希望这份详细的指南能够为各位开发者在项目中提供切实可行的参考,并不断推动 LangChain4j 在各类应用场景中的实践与落地。
2025-03-26 08:45:00
1387
原创 企业级安全与隐私保护:在 LangChain4j 中实现安全的 LLM 代理与知识库集成(详细版)
在 LangChain4j 集成过程中,安全性与隐私保护不仅是技术实现的问题,更关乎企业整体战略。通过完善的身份认证、细粒度权限管理、数据传输加密、敏感数据脱敏、日志审计和分布式追踪等多层次安全防护措施,企业可以在确保 AI 应用高效运行的同时,有效防范各类安全风险,并满足严格的法规与合规要求。希望本文详细的实践经验和代码示例能为各位开发者在设计和实施企业级安全架构时提供有力的参考和指导,为未来的安全演进奠定坚实基础。
2025-03-26 08:45:00
1297
原创 LangChain4j 与 LLM 代理(Agent)机制的深度结合
动态规划:根据上下文决定下一步动作调用外部工具:如搜索引擎、数据库、API、计算器等长期记忆:在多轮对话中保持上下文状态执行复杂任务:如数据分析、代码生成、自动化任务等一个 LLM 代理通常由以下核心组件组成:LLM:提供核心的自然语言处理能力(如 GPT-4、Claude、Gemini)Planner(计划器):决定下一步动作,例如调用工具或直接回答Tools(工具):代理可以使用的外部工具,如计算器、Web 搜索、数据库等Memory(记忆):存储历史交互信息,以便代理进行上下文理解。
2025-03-25 08:45:00
840
原创 LangChain4j 与知识库的高效整合
在构建 AI 应用时,单纯依赖 LLM(大语言模型)往往不足以满足企业级需求。知识库(Knowledge Base)提供了一种增强 LLM 能力的方法,尤其是在需要特定领域知识、长期记忆或动态更新信息的场景下。本篇文章将深入探讨。
2025-03-25 08:45:00
1200
原创 深入集成 LangChain4j:向量数据库、多模态 AI 与自定义插件开发
LangChain4j 允许我们创建 自定义插件,扩展 AI 处理能力。例如,我们可以开发一个 货币汇率查询插件,让 AI 可以调用 API 查询汇率信息。
2025-03-24 09:00:00
845
原创 在 Spring Boot 项目中集成 LangChain4j 进行 AI 能力扩展
import dev@Tool("查询指定城市的天气信息") public String getWeather(String city) {// 这里可以调用真实的天气 API,示例中返回假数据 return "当前" + city + "的天气是晴,气温 25°C。} }@Tool("查询指定城市的天气信息") public String getWeather(String city) {
2025-03-24 08:45:00
1043
原创 Spring Boot 集成 LangChain4j:项目初始化与 LLM 配置
LangChain4j 是 LangChain 在 Java 生态中的实现,支持 OpenAI、Azure OpenAI、Mistral、Ollama 等多个大语言模型(LLM)。在本系列的第一篇,我们将介绍如何,并完成。
2025-03-23 10:55:19
974
原创 Nginx 代理导致流式数据丢失的解决方案
但当我把项目部署到服务器,并通过 Nginx 代理后,前端收到的数据变成了一次性推送,而不是流式返回。为了解决流式数据丢失的问题,我们需要在 Nginx 配置文件中进行调整,可能会导致数据流式失效,所有数据被合并成一条再推送给前端。在流式数据传输(如 SSE)中,Nginx 默认的。
2025-03-23 08:45:00
415
原创 使用 SseEmitter 实现 Spring Boot 后端的流式传输和前端的数据接收
使用SseEmitter创建流式数据传输以及使用infetch接收流式数据。
2025-03-22 12:25:12
987
原创 深入浅出大语言模型:原理、应用与未来展望
从 OpenAI 的 GPT 系列到 Google 的 Gemini,这些模型正在以惊人的速度发展,并在各个领域展现出巨大的潜力。随着计算能力的提升和技术的不断进步,LLM 的应用将越来越广泛,影响我们的学习、工作和生活。未来,大语言模型的发展将更加智能、高效、安全,并在多模态方向迎来新的突破。大语言模型是一种基于深度学习的自然语言处理(NLP)模型,通常拥有数十亿甚至数万亿个参数,能够进行文本生成、翻译、代码编写、对话交互等任务。未来,如何优化模型结构,提高计算效率,是一个重要的研究方向。
2025-03-22 11:06:09
905
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人