- 博客(611)
- 收藏
- 关注
原创 操作教程丨MaxKB+Ollama:快速构建基于大语言模型的本地知识库问答系统
MaxKB是一款基于LLM(Large Language Model)大语言模型的知识库问答系统。MaxKB的产品命名内涵为“Max Knowledge Base”,为用户提供强大的学习能力和问答响应速度,致力于成为企业的最强大脑。
2025-06-15 08:00:00
546
原创 【AI大模型】搭建大模型知识库流程,以及基于langchain实现大模型知识库案例
说到底大模型产生以上三个问题的主要原因就是知识不足,因此RAG——检索增强生成技术就出现了。RAG技术配合知识库技术,就能够补充大模型知识不足的问题,知识库的作用就相当于给大模型配置一个资料室,遇到不懂的就去资料室里查。今天,我们就来讨论一下本地知识库的实现步骤,以及代码。
2025-06-14 08:00:00
796
原创 大模型Agent的下一阶段:可自我进化的AI-Agent
在人工智能以前所未有的速度席卷全球的今天,似乎每天都在见证奇迹。从大模型的对答如流,到Sora的以假乱真,再到DeepSeek的深度思考,大语言模型(LLM)在模拟人类语言和创造力方面,已经达到了令人惊叹的高度。而现在研究者们正在探索一个更加令人兴奋的前沿领域:让AI学会自我反思、自我改进,甚至重写自己的"思维逻辑"。
2025-06-13 10:59:26
811
原创 小白学大模型从表面到深入,利用知识图谱和大模型整合外部知识以生成跟进问题
在对话系统中,基于上下文动态生成跟进问题可以帮助用户探索信息并提供更好的用户体验。人类通常能够提出涉及一些普遍生活知识的问题,并展示出更高阶的认知技能。然而,现有方法生成的问题常常局限于浅层的上下文问题,这些问题的启发性不足,与人类水平存在较大差距。本文提出了一种三阶段的外部知识增强的跟进问题生成方法,该方法通过识别上下文主题、在线构建知识图谱(KG),最后将其与大型语言模型结合来生成最终问题。该模型通过引入外部常识知识并执行知识融合操作,生成信息丰富且具有探索性的跟进问题。实验表明,与基线模型相比,我们的
2025-06-13 10:19:01
955
原创 【AI大模型】为什么用错奖励,模型也能提分?新研究:模型学的不是新知识,是思维
强化学习对下游任务的提升,关键不仅在于奖励的准确性,而更在于模型是否能够产生高质量的思考过程。仅通过奖励模型输出中关键思考词的出现频率,而非基于答案正确性的奖励,语言模型依然能够在下游任务中取得非常高的峰值表现。这表明,强化学习对下游任务的提升,更多来源于让模型学会采用恰当的思考路径接近正确答案。而相关的解题基础能力,模型已在预训练阶段获得。因此,预训练阶段的能力提升依然至关重要
2025-06-12 11:39:27
619
原创 AI大模型从入门到精通,一文搞懂大模型的部署(Ollama和vLLM),零基础小白建议收藏!!
Ollama是一款专注于简化大型语言模型本地部署和运行的开源框架,基于Go语言实现,支持跨平台运行,并以“开箱即用”为核心理念,适合个人开发者和轻量化场景。而vLLM是一个高效的大模型推理与服务引擎,基于PyTorch构建,创新性地引入了PagedAttention技术,旨在解决大模型服务中的显存效率与吞吐量瓶颈,支持张量并行和流水线并行,可横向扩展至多机多卡集群。
2025-06-12 10:37:54
870
原创 AI大模型微调之基础篇:模型微调概念以及微调框架,零基础小白收藏这一篇就够了!!
什么是模型微调?定义:在预训练大模型(如GPT、BERT)的基础上,使用特定领域或任务的数据进行额外训练,使模型适应新任务。类比:类似“博士生在通识教育(预训练)后,专攻某个研究方向(微调)”。
2025-06-11 11:51:13
957
原创 超强!阿里开源 Qwen3 Embedding 系列模型,多语言文本嵌入与重排的新标杆
前两天阿里通义实验室重磅开源了 Qwen3-Embedding 系列模型,不仅提供了文本嵌入 Embedding 模型,还提供了重排 Reranker 模型。作为千问家族的最新成员,这个系列在 MMTEB、MTEB 及 MTEB-Code 三大权威评测中全面达到 SOTA 性能,并且支持多达 119 种语言处理任务,每个类别还提供了 0.6B/4B/8B 多参数版本。Qwen3 Embedding 系列模型目前已经在 HuggingFace 和 ModelScope 开源,并支持阿里云百炼平台 API 一键
2025-06-11 10:46:48
814
原创 大模型推理上限再突破:「自适应难易度蒸馏」超越R1蒸馏,长CoT语料质量飞升
近年来,「思维链(Chain of Thought,CoT)」成为大模型推理的显学,但要让小模型也拥有长链推理能力却非易事。中兴通讯无线研究院「大模型深潜团队」从 「数据静态经验流」 的角度切入,首创 「LLM 自适应题目难度蒸馏」 方法,一举将高质量 CoT 语料的生产效率与效果同步拉满。
2025-06-10 11:26:52
719
原创 3B小模型吊打72B巨头!轻量级文档解析OCR,性能超Gemini,高效且精准!
MonkeyOCR 以其轻量级设计和SRR三元组范式,为文档解析领域带来了新的“血液”。其3B参数模型更是在英文文档解析中超越Gemini 2.5 Pro和Qwen2.5-VL-72B,多页文档处理速度达0.84页/秒,公式和表格识别分别提升15.0%和8.6%。
2025-06-10 10:10:52
600
原创 一篇文章说清楚AI三大核心技术:RAG、大模型、智能体,零基础小白收藏这一篇就够了!!
前阵子刷到一篇图解AI三大核心技术:RAG、大模型、智能体的文章,但是原图都是都是英文的,很多人看不懂。粉丝还把文章还转发给了我,所以我就硬着头皮用 AI 辅助翻译,并加了一些自己的理解,用中文给大家再普及一下AI三大核心技术:RAG、大模型、智能体的区别。(本文比较长,大家可以先收藏,后续遇到的时候再看)
2025-06-09 11:25:37
506
原创 【AI大模型】如何使用 Graph Maker 简化文本到知识图谱的构建?看完这一篇你就知道了!!
本文将介绍一个 Python 库 —— Graph Maker,它可以根据指定的本体(Ontology),从一组文本语料中自动生成知识图谱。Graph Maker 使用的是开源大语言模型(LLM),如 Llama 3,Mistral, Mixtral,Gemma。这些模型被用于从文本中提取出知识图谱(KG)。
2025-06-09 10:43:25
994
原创 一文带你详细了解:大模型MoE架构(含DeepSeek MoE详解),建议收藏起来慢慢看!!
混合专家模型 (Mixed Expert Models,简称 MoEs) ,最早是随着 Mixtral 8x7B 的推出而逐渐引起人们的广泛关注。最近随着DeepSeek的爆火,MoE又进一步引起大家的关注。本文作者将带你了解 MoEs的发展史、核心组件、训练方法,推理中各因素考量和DeepSeek MoE详解。
2025-06-08 08:00:00
581
原创 从理论到实践:RAG、Agent、微调等6种常见的大模型定制策略,建议收藏!!
大语言模型(LLM)是基于自监督学习预训练的深度学习模型,训练数据量庞大、训练时间长,并且包含大量的参数。LLM在过去两年中彻底改变了自然语言处理领域,展现了在理解和生成类人文本方面的卓越能力。然而,这些通用模型的开箱即用性能并不总能满足特定的业务需求或领域要求。LLM单独使用时无法回答依赖于公司专有数据或封闭环境的问题,这使得它们在应用中显得相对通用。
2025-06-07 15:11:19
698
原创 一个残酷真相!工作流在 80%场景吊打 Agent!
在大模型技术爆发的当下,开发者们常常陷入"Agent 崇拜"的迷思:似乎只有构建具备自主决策能力的智能体才能体现技术先进性。但 OpenAI 和 Anthropic 的最新研究揭示了一个被忽视的真相——在多数场景下,精心设计的工作流(Workflow)可能比复杂 Agent 更可靠高效。
2025-06-07 11:02:33
847
原创 AI Agent 概念、类型、构成与工作流程全解析,非常详细,零基础小白必看!!
在人工智能领域,Agent 是一个能够感知其环境并通过执行行动来实现目标的计算实体。Agent 不仅仅是被动地接收指令,而是能够根据感知到的信息和内部状态做出决策并采取行动。
2025-06-06 14:34:47
483
原创 AI编程到底有没有护城河?RL+Agent重塑代码世界!
AI编程视角下的RL写代码不像写文章,AI不仅要生成token,还要调用各种工具(比如Linter、编译器、测试框架),每一步的选择都非常多。那到底怎么才算“好代码”?这个问题思考清楚了,才能理解coding RL的奖励函数要怎么去做。仅仅通过测试用例是不够的。代码的可读性、简洁性、优雅性怎么衡量?之前分享过,不管是cursor、还是claude。似乎都用了一些高质量的“ground truth diff”作为信号,就是模型生成的代码与人类工程师的修改差异。
2025-06-06 11:31:55
819
原创 Agent 进入工程时代!吴恩达详解 AI Agent 构建全流程,核心不在模型,而是任务拆解与评估机制
在最新的 LangChain Interrupt 峰会上,AI Fund 创始人吴恩达与 LangChain 联合创始人 Harrison Chase 展开了一场对话。作为 AI 教育和创业孵化的重要推动者,吴恩达围绕 Agent 构建方法论、评估机制、语音与协议基础设施,以及开发者与创业者应具备的直觉判断力展开系统性阐述。他提出,“agenticness” 应被理解为连续程度,而非标签判断;未来 AI 构建者的核心竞争力,不在提示设计,而在流程建模与执行速度。
2025-06-05 11:56:02
720
原创 从传统 RAG 到知识图谱 + Agent,知识库 AI 问答成功率终于达到 95% 了,来自蚂蚁集团的经验
本文来自蚂蚁集团的知识库专家关于「领域知识管理和 AI 问答」的分享。介绍了从传统 RAG 到知识图谱再到 Search Agent,一步一步把 RAG 的正确率从 60% 最终提升到 95%。收获非常大,强烈推荐!知识库问答业务场景专家分享的 AI 助手是基于企业内研发知识库,主要目标是降低研发参与咨询工单带来的人力成本消耗,月度工单量数万条。
2025-06-05 11:14:19
952
原创 量级开源AI多智能体框架!智能路由+上下文管理,前后端接口支持!
随着多智能体系统成为对话式 AI 的新趋势,如何协调多个专精 AI 的分工协作,成为构建下一代智能客服、规划助手、企业 Copilot 的关键挑战。最近在 GitHub 发现了一个轻量级高灵活性的多 AI 智能体协调框架:Agent-Squad。
2025-06-04 11:44:18
828
原创 仅靠大模型充当评估者救不了产品,关键在于优化流程
很多人对产品评估(product evals)存在误解。一些人认为,只要增加新的评估工具、指标,甚至是让大模型(LLM)充当评估者(LLM-as-judge),就能解决问题、挽救产品。但这恰恰是绕开了核心问题,逃避了真正要做的工作。
2025-06-04 10:53:35
787
原创 【AI大模型部署】本地部署开源大模型的完整教程:LangChain + Streamlit+ Llama,小白教程!!
大型语言模型(llm)是指能够生成与人类语言非常相似的文本并以自然方式理解提示的机器学习模型。这些模型使用广泛的数据集进行训练,这些数据集包括书籍、文章、网站和其他来源。通过分析数据中的统计模式,LLM可以预测给定输入后最可能出现的单词或短语。
2025-06-03 18:35:59
682
原创 如何使用DeepSeek做数据分析?看完这一篇你就知道了!!
在数据爆炸的时代,传统数据分析依赖人工处理,效率低下、误差率高,成为众多从业者的 “心头痛”。DeepSeek 作为数据分析的 “瑞士军刀”,凭借智能算法与自动化流程,颠覆了传统模式,让数据处理从 “耗时耗力” 变为 “轻松高效”,尤其适合企业、教育、金融等多领域用户快速挖掘数据价值。
2025-06-03 11:25:55
974
原创 【AI大模型】不止语义检索,Milvus+LangChain全文检索RAG教程来了
最近,OpenAI和LangChain杠上了。一个是大模型扛把子,一个是最受欢迎的大模型框架而抬杠的原因很简单LangChain觉得OpenAI 根本不懂agent:但总结一句话来说,就是对于agent开发,OpenAI更倾向于高级抽象能加速开发;而LangChain则觉得大模型要能真正发挥作用,需要精确控制能确保可靠性 ,因此workflow和agent都必不可少。
2025-06-02 08:00:00
695
原创 Qwen3开源发布:Think Deeper, Act Faster!社区推理、部署、微调、MCP调用实战教程来啦!
今天,通义千问Qwen团队正式开源推出 Qwen3,这是 Qwen 系列大型语言模型的最新成员。最新的Qwen3系列模型具备双模推理能力(深入思考/快速响应)、支持119种语言及方言,并强化了Agent功能与代码执行能力,全面满足复杂问题处理与全球化应用需求。其中,旗舰模型 Qwen3-235B-A22B 在代码、数学、通用能力等基准测试中,与 DeepSeek-R1、o1、o3-mini、Grok-3 和 Gemini-2.5-Pro 等顶级模型相比,表现出极具竞争力的结果。此外,小型 MoE 模型
2025-06-01 08:00:00
715
原创 【小白教程】从零开始的DeepSeek微调训练实战(SFT)
本文重点介绍使用微调框架unsloth,围绕DeepSeek R1 Distill 7B模型进行高效微调,并介绍用于推理大模型高效微调的COT数据集的创建和使用方法,并在一个medical-o1-reasoning-SFT数据集上完成高效微调实战,并最终达到问答风格优化&知识灌注目的。
2025-05-31 08:00:00
899
原创 RAG其实并没有你想的那么简单,Late Chunking vs Contextual Retrieval解决上下文难题
RAG是一种将外部知识库检索与生成模型相结合的技术,不过最近的Agent,MCP喧嚣至上,包括DS-R1模型的热度,让RAG的技术热度下降了很多。甚至我和一些AI的从业者讨论基本技术的时候,大家对RAG嗤之以鼻。其实RAG一点都不简单,我今天就总结了一下RAG的经常遇到的“左右手”怎么选的问题,算是给自己的学习做个总结。
2025-05-30 10:59:21
1046
原创 【大模型实战】3个实操案例,学会用DeepSeek做VBA开发,实现Excel自动化
Excel一定是每一个办公人绕不过去的坎——不论现在的AI有多牛逼、产品多有逼格,最终落到实操环节都离不开Excel。但Excel的操作本身就比较繁琐,更不用说大量重复性操作的场景,就令人很烦。此时,我们可以借助VBA的工具,通过AI写代码的方式完成Excel自动化处理
2025-05-30 10:16:54
1057
原创 再这么搞下去,程序员失业是迟早的事!
开年AI应用大火,让“内卷”、“取代”、“裁员”等词频频威胁着技术人的职业命运。大批传统技术岗被降薪淘汰,大厂却一边裁员一边60K*16薪招AI大模型人才。从模型微调到AI应用场景化落地,每一个环节都在重构技术人的核心竞争力!很多人纷纷入局,不是跟风,是真看到了价值优势!
2025-05-29 12:00:58
684
原创 如何微调推理大模型?以Qwen3/DeepSeek-R1为例
刚好最近在做一个推理训练任务,现在有现成的训练集,推理模型这么强的情况下,怎么把之前传统对话大模型+指令微调训练模式转变成推理大模型+指令微调任务?后训练广义可能范围比较大,包括微调、强化学习等。 可能我们构造强化学习数据集或者思维链数据集的成本比较高的,所以今天咱们就聊一聊怎么偷懒地将把之前的指令数据集或者指令微调的工作推演到推理大模型训练上呢?有没有比较省事或者比较规范的做法呢?
2025-05-29 11:18:40
964
原创 注意注意!!AI编程来了,这群程序员最先出局
I替代人类的风,正在加速吹向程序员群体。近两年,ChatGPT、Midjourney等AI工具的出现,让文案编辑、插画师等职业群体瑟瑟发抖,此刻,程序员也陷入了被AI取代的焦虑之中。尤其是最近,美国AI独角兽公司Anthropic发布新升级的大模型Claude4系列,再次让全球的程序员感受到压力。该系列包含Claude Opus 4和Claude Sonnet 4,最大特点是编程时长和理解能力突出,尤其是Claude Opus 4能持续编写代码7小时,被称为“全球首款不用手动修改”便能生成高质量代码
2025-05-28 11:53:53
470
原创 Cursor + 12306 MCP,打造AI智能选票系统,超酷的!
于是,我想借助 AI 打造一种新型的选票方式。在 Cursor 中,借助 12306 MCP 就可以实现。当把一切准备工作配置好后,我只需要对着 Cursor 的 AI 对话框,用大白话输出我的需求。他就能给我精选出最合适的车次以及余票信息。
2025-05-28 11:00:20
989
原创 不需要AI和数学知识背景,这篇文章带你学会大模型应用开发!!看到就是赚到!!
最近几年,大模型在技术领域的火热程度属于一骑绝尘遥遥领先,不论是各种技术论坛还是开源项目,大多都围绕着大模型展开。大模型的长期目标是实现AGI,这可能还有挺长的路要走,但是眼下它已经深刻地影响了“编程”领域。各种copilot显著地提升了开发者的效率,但与此同时,开发者也变得非常地焦虑。因为开发者们实实在在感受到了它强大的能力,虽然目前只能辅助还有很多问题,但随着模型能力的增强,以后哪天会不会就失业了?与其担忧,我们不如主动拥抱这种技术变革。
2025-05-27 19:02:10
958
原创 Agent可以自己进化了?看完这一篇你就懂了!!
这篇论文最颠覆的设定是:让Agent扮演Agent设计师的角色。传统Agent系统需要人类工程师手动设计工作流程(比如先推理再验证),而这里提出的"元代理"(Meta Agent)能够自动生成新的代理设计方案,就像一位不断创新的工程师。
2025-05-27 18:13:26
749
原创 实用主义×客户至上:大模型落地不能玩虚的
大模型正是处于这样的关键节点。一方面, scaling law驱动的参数上升斜度呈现趋缓迹象,训练与推理的价格战也如火如荼,技术创新的狂热期似乎告一段落;另一方面, 生成式AI加速渗透的脚步并未停歇,各种新兴应用层出不穷,整个人工智能产业对大模型全面落地寄予厚望。
2025-05-26 14:19:12
650
原创 MCP实战进阶:集成DeepSeek模型与MCP的天气信息助手
今天,我们将更进一步,将DeepSeek大模型集成到MCP客户端中,打造一个真正智能的天气助手。DeepSeek与MCP的结合优势将DeepSeek等大模型与MCP结合,能够带来以下优势:自然语言理解:用户可以用自然语言提问,无需记忆特定命令格式上下文感知:模型可以记住对话历史,提供连贯的体验智能推理:根据用户需求自动选择合适的工具和参数信息整合:将工具返回的原始数据转化为易于理解的格式
2025-05-26 11:28:06
1105
原创 中国AI应用繁荣:互联网模式可以参考,不能照搬——2025,把大模型的门槛打下来
大模型产业熬过了“没有超级应用”的2024年,熟悉的论调又再度出现——“2025年AI应用会井喷式增长”。横跨互联网和AI创业的张岩发现,行业好像有两股风向,一股是大模型看起来很美好,但很难落地;另一股是“狼真的要来了”,大模型应用就要走到临界点,错过这一波等于错过未来十年。这种分歧,即便是在最具有创新精神的互联网行业也无法完全避免。
2025-05-25 08:00:00
644
原创 关于大模型的分类和应用,AI大模型除了聊天还能做什么?看完这一篇你就懂了!!
“大模型由于其快速迭代的原因,因此大模型分类存在很多困难;而作为大模型应用的使用者和开发者我们需要做的就是不断去尝试和体验模型的功能。”大模型技术发展到今天,其功能可以说是日新月异;并且很多企业已经在探索大模型的应用场景和技术实现;但是很多人到现在对大模型的了解仅仅只限于能聊个天,问个问题。但实际上,大模型能够做的事要远比我们想象中的要多的多;因此,今天我们就从用户和技术两个角度来介绍一下大模型的应用。
2025-05-24 12:01:14
871
原创 RAG不好用?试试MCP这个“知识库优化大师”,真的很香!!
在企业数字化转型浪潮中,如何有效管理和利用内部知识资产已成为关键挑战。随着大型语言模型(LLM)技术的成熟,检索增强生成(RAG)应用正逐渐成为连接企业知识与AI能力的重要桥梁。然而,传统RAG实现常面临检索质量不佳、实时更新困难等痛点问题。本文将通过实战案例,详细介绍如何基于模型上下文协议(MCP)构建一套高性能企业RAG系统,帮助企业快速打造智能知识库应用。
2025-05-24 11:32:20
897
原创 Claude 4发布!AI编程新基准、连续编码7小时,混合模型、上下文能力大突破
其中,Claude Opus 4是全球顶尖的编码模型,擅长复杂、长时间运行的任务,在AI智能体工作流方面性能极为出色。而Claude Sonnet 4,则是对Sonnet 3.7 的重大升级,编码和推理能力都更出色,还能更精准地响应指令。
2025-05-23 11:35:03
873
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人