自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(16)
  • 收藏
  • 关注

原创 RAG 召回差?先别怪向量:切片策略(硬切 / 语义切 / 父子块)一次讲透

RAG中你可能会遇到这些典型现象:问题往往不在模型,而在证据:切片策略,就是 RAG 的“证据组织方式”。证据组织错了,检索和生成都会一起翻车。2.2 application.properties2.3 核心模型与工具2.3.1 Chunk 数据结构2.3.2 Chunker 接口2.3.3 文本工具:normalize + 简易句子切分2.4 Chunker 实现(硬切 / 语义切 / 父子块)2.4.1 策略枚举2.4.2 硬切:FixedSizeChunker2.4.3

2026-01-06 15:49:46 763

原创 企业级 Prompt 管理中心:分流 + 曝光埋点 + 可回溯,版本化/AB/DSL/可观测全齐

很多团队把大模型接入做成一个 ChatController -> ChatModel 就上线了,但运行一段时间很快会遇到三类问题:这篇文章给你一套可运行的工程化方案:✅ Prompt 版本化 + 发布(ACTIVE/ARCHIVED)✅ 实验分流(权重 0~10000)+ 人群圈选(SpEL)✅ Prompt DSL(Mustache)渲染✅ 曝光记录落库(requestId 级追踪)✅ LangChain4J 统一对话入口1.2 四张

2025-12-16 14:00:58 36

原创 企业级 Neo4j GraphRAG:向量检索 + 图谱扩散怎么融合?Neo4j GraphRAG 给你答案

第一篇 AI 数据治理:LangChain4J 文本分类器在字段对标中的高级玩法第二篇 LangChain4J + OpenTelemetry:AI 调用全链路可观测方案很多团队的 RAG 都止步于:切 Chunk → 向量化 → TopK 相似度召回 → 拼上下文 → 让 LLM 回答。这条链路上线很快,但实际落地后经常遇到三个硬问题:命中不稳定:问题表达一变,向量召回就漂;尤其是术语、代码 token、配置项这类文本。解释性弱:为什么命中这段?为什么没命中那段?很难从“纯相似度”讲清楚。词表维护成本高

2025-12-15 22:49:01 70

原创 LangChain4J + OpenTelemetry:AI 调用全链路可观测方案

AI 服务的“慢 / 贵 / 不稳定”,往往不是单点问题,而是链路问题Prompt 组装是否过重?工具调用是否抖动?LLM 推理是否超时 / 限流?Token 是否在某些场景突然暴涨?✅没有可观测,你只能靠猜;有可观测,你能靠数据定位。本文用一个可运行的 Demo,把一次/api/chat请求拆成清晰的入口 → 工具 → LLM → 返回,并把 Trace / Metrics / Logs 同时打通。组件它负责什么你能得到什么。

2025-12-13 15:59:24 427

原创 AI 数据治理:LangChain4J 文本分类器在字段对标中的高级玩法

在数据治理项目中,字段标准化(字段对标)不同部门字段命名完全不一样文档不全、别名模糊、上下游对不上靠人工“翻 Excel + 查库 + 问业务”效率极低一个主题域通常需要 1~2 天人工对标而且最关键的问题是:命名不一致 → 语义碎片化 → 数据治理无法规模化推进因此,大多数企业数据治理建设到 2.0 阶段都会推行:✔ 字段标准库✔ 字段别名体系✔ 字段含义统一描述✔ 字段采集规范但依旧绕不开——字段需要一个字段地“对标”。Embedding + 语义分类器。

2025-12-12 14:30:17 181

原创 多模型路由 + Resilience4j 熔断降级,Java 大模型服务的降级与兜底体系

现在做 AI 接入,很容易进一个“单模型思维陷阱”:只接了一个云端大模型:效果很好,但贵、对外网依赖强;成本可控、数据安全,但效果和稳定性未必始终在线;一些场景追求质量(复杂问答、长文总结);一些场景追求时延(聊天、实时联机);还有一些场景天然适合本地部署(SQL 助手、和数据库在同一内网)。于是,多模型共存 + 智能路由 + 熔断降级QUALITY优先,作为主力模型;本地模型:作为FAST/ 专用场景 / 熔断降级的备份;

2025-12-12 13:16:42 1045

原创 「企业级智能体」LangChain4j Multi-Agent:角色分离 + 协同编排实战

在大部分 Java 项目里,“接入大模型Controller 收到一个 question调用大模型接口拿到 answer把结果原样丢回前端这种玩法可以叫「高配搜索框模式一个 Agent 要写 Prompt、要查数据库、还要改写文案,太忙了不同角色(创作者、编辑、审稿人)的职责混在一起,难以维护想复用其中一段能力(比如只要润色)也不方便把大任务拆成多个 “角色清晰的 Agent”,再编排它们像流水线一样协同完成任务。CreativeWriter:负责创作故事。

2025-12-10 16:47:12 1190

原创 「Java AI实战」LangChain4J - 文本分类器实践

前端给个输入框后端用 Java 调用大模型返回一段回答模型只会“说话”,不会“打标签”。用户这段描述偏内向还是外向?候选人简历更像分析型工程师还是创意型产品?用户反馈属于功能建议 / 体验吐槽 / Bug 报告哪一类?EmbeddingModelTextClassifier(文本向量分类器)来实现一个轻量的文本分类服务。这篇文章,我们就用一个完整的 Spring Boot Demo,做一个:✨ 基于LangChain4j + 阿里云百炼 DashScope的 “性格分析小助手。

2025-12-10 10:23:19 934

原创 「Java AI实战」LangChain4J - 记忆缓存

本文介绍了如何在Java项目中为AI对话系统添加"记忆"功能,通过LangChain4J框架实现多轮对话上下文保存。文章首先分析了纯问答模式的局限性,如缺乏长期记忆和个性化体验。随后详细讲解了技术实现方案: 基础配置:搭建Spring Boot + LangChain4J环境,配置本地Xinference大模型接入 内存记忆实现:使用MessageWindowChatMemory实现单机版会话记忆 分布式记忆:支持Redis持久化存储,实现跨实例的会话共享 效果展示:AI能记住用户身份信

2025-12-09 14:56:13 1073

原创 LangChain4j + MCP:从工具协议到生产级 Agent

这两年,很多团队都已经把「大模型问答」接入到系统里了:前端一个输入框,后端调一下 OpenAI / DeepSeek / 本地模型,返回一段回答——这类 「简单问答型」AI 功能它只能说,不会做:不会主动查数据库,不会调用你的接口,不会帮你真正执行脚本;面对复杂一点的需求,比如「帮我生成这个报表的 SQL 并执行一下」,普通 ChatGPT 式的问答就开始力不从心了。而Agent 智能体想解决的,就是这件事:不只是回答你「怎么做」,而是能自己思考、自己决定要不要用工具、再用工具把事做完。

2025-12-09 13:03:36 856

原创 「Java AI实战」LangChain4J - 向量数据库接入与语义检索

相比 Python 社区的 LangChain,LangChain4J 为 Java 提供了相似的链式语言模型编排能力,兼顾工程化可维护性与复杂场景的灵活性。而在众多场景中,向量数据库(如 FAISS、Milvus、Qdrant)扮演了大模型“记忆体”的角色,尤其适用于构建基于语义理解的问答系统(RAG)、文档检索、智能客服等系统。在传统数据库中,检索通常依赖于关键词、精确匹配或范围查询。而在自然语言处理、图像识别等 AI 场景中,我们更需要的是语义相似度检索,即“查找与某个内容在语义上最接近的内容”。

2025-05-02 21:37:52 1901

原创 「Java AI实战」LangChain4J - ChatAPI 及常用配置

本文将聚焦于 LangChain4J 提供的 Chat API ,结合本地模型(通过 Xinference 部署的deepseek-chat 模型,通过maxkb创建应用,这两块的文档见往期文章)进行调用演示,帮助快速理解其核心机制,完成从模型接入到对话响应的 Java 化实现。本文简单的介绍了 LangChain4J 中 Chat API 的基本原理和使用方式,成功实现了与本地大模型的对话集成。

2025-05-02 06:15:34 1098

原创 「Java AI实战」LangChain4J接入Xinference本地大模型

随着大语言模型(LLM)的持续火热,LangChain 成为构建智能应用的事实标准。而对于 Java 开发者而言,LangChain4J 则是一把通往 AI 应用开发的新钥匙。它不仅封装了与 OpenAI、HuggingFace、Baidu、Azure 等模型服务的接入能力,更提供了类似 LangChain 的链式调用编排、上下文管理、Agent 机制、工具集成等核心功能,让 Java 开发者也能便捷地构建问答系统、RAG 应用、多轮对话、智能代理等 LLM 应用。

2025-04-27 22:48:39 1494

原创 LLaMA Factory 微调框架数据加载

随着大语言模型(Large Language Models)的快速发展,如何高效地对模型进行微调,已成为模型开发和应用中的重要环节。而在微调过程中,数据预处理与加载是确保模型性能的基础环节。面对庞大且复杂的数据集,合理的预处理策略和高效的数据加载机制,不仅能提高训练效率,还能有效改善模型的泛化能力。

2025-01-13 19:47:56 2904

原创 LLaMA Factory 微调框架的部署

在深度学习的浪潮中,预训练大语言模型(Large Language Models, LLMs)逐渐成为各领域的核心工具。然而,由于大规模模型的复杂性和计算资源需求,直接使用这些模型来解决特定任务往往效率低下。微调(Fine-tuning)技术因此成为了模型开发者们的关键手段,通过针对特定任务的数据调整模型的权重,可以大幅提升模型的效果LLaMA(Large Language Model Meta AI)作为近年来大受欢迎的开源大语言模型,因其性能优异和架构灵活被广泛应用。

2025-01-12 20:27:38 1637

原创 Xinference 分布式推理框架的部署

例如:随着AI模型的不断发展,AI模型的应用也越来越重要,Xinference部署则是学习的基石,本文就介绍了Xinference的模型部署与管理。

2025-01-12 11:12:26 2052 3

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除