自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(952)
  • 收藏
  • 关注

原创 用Deepseek建立个人知识库,这个方案更适合普通人

方法有很多,但是有些方法对小白不太友好,例如Cherry Studio + DeepSeek API,AnythingLLM + DeepSeek本地模型等。很多事情,多一个环节或者步骤,就会劝退很多人。对我们普通用户来说,更多的需求还是希望简化流程,更方面地使用AI。

2025-04-04 08:00:00 571

原创 【AI大模型】RAG 架构图解:从基础到高级的7种模式,看到就是赚到!!

RAG 技术通过在 AI 生成过程中引入外部知识检索,从基础的文档查询发展到多模态、Multi-Agent 体协同的智能架构,让 AI 回答更准确、更全面

2025-04-03 11:28:16 361

原创 【AI大模型】深入浅出大模型:预训练、监督微调、强化学习、RLHF,收藏这一篇就够了!!

2025年年初随着DeepSeek的爆火,人们对LLM(Large Language Model,大语言模型)兴趣与日激增,很多人觉得LLM常常显得近乎魔法般神奇。接下来我们就来揭开LLM的神秘面纱。我想退一步,拆解一下LLM的基本原理——深入探讨这些模型是如何构建、训练和微调,最终成为我们今天所使用的AI系统的。这篇深入解析是我一直想做的,如果你有时间,本文绝对值得一看。

2025-04-03 09:08:02 369

原创 Docker 重磅更新!无需配置复杂环境就能轻松管理和运行AI大模型,小白也能轻松拿捏!!

Docker 在其最新的 4.40 版本中引入了 Docker Model Runner 功能,使在本地环境中运行 AI 模型变得简单和便捷。这项功能的推出标志着 Docker 向 AI 开发领域迈出了重要一步,为开发者提供了一种无需配置复杂环境就能轻松管理和运行大型语言模型的方式,同时避免了对外部云服务的依赖。

2025-04-02 12:00:26 847

原创 【一文看懂】60+图解详解LLM智能体的‘大脑升级’之路,建议人手一份,收藏起来慢慢学!!

LLM(大语言模型)智能体正在快速普及,正在取代我们熟悉的"常规"对话式 LLM。这些功能需要多个组件协同工作。这篇文章包含 60 多幅插图,带你了解 LLM 智能体领域、其主要组件以及多智能体框架。为了便于理解我们对以下名词进行解释:LLM: 大语言模型,基于深度学习的自然语言处理模型,如GPT-4、Claude等LLM Agents: 大语言模型智能体,具备感知-规划-行动循环的自主系统token: 词元,AI处理文本的最小单位

2025-04-02 11:14:27 524

原创 要想吃透大模型,不实操怎么行?快来一起探索!!!

相信大家都在各个不同的资源平台开始接触到大模型和深度学习这类方法概念,但是很多非科班出身的工程师都还是对这些概念比较模糊,或者说感到比较抽象。笔者认为,要想真正理解一门理论知识,一次性的实践操作相较于理论知识的累积来的更加实际、直接,也更容易为人所理解。基于此,本文将为深度学习读者介绍一款特别好用的GPU共享云资源代码实操平台,并将基于深度学习的一些基本知识点结合到代码编辑中,以一个能够运行的实例为大家展示如何将你写的代码放到这个云资源平台上进行运行。

2025-04-01 11:33:08 608

原创 【AI大模型】一文读懂 RAGFlow 知识库接入 Dify 的全流程,零基础小白收藏这一篇就够了!!

如果知识库配置RAPTOR策略的话,需要配置大模型,此处跟Dify上配置模型类似,rerank模型,embedding模型已经默认配置好,无需再配置,只需配置chat模型即可,配置上后,方便其他地方使用。

2025-04-01 10:48:06 432

原创 2025年,做大模型增量预训练(continue pretrain)的注意事项!!!

去年,国内大模型赚钱最爽的一个方向,就是卖数据。我也跟一些卖数据团队咨询过,他们把国内各个你能想到的主流中文平台的数据都爬下来,打包卖了。国内的头部玩家,手头数据是一定不缺的,买就行了。同时,这些玩家显卡资源管够的情况下,肯定是会把能train的数据都train一轮。除非是预训练数据有大的更新,例如清洗的质量更高了,生成数据有大的突破。或者训练手段有大的迭代,重训大模型的价值是在不断降低的。

2025-03-31 21:47:24 891

原创 【AI大模型】Transformer 架构无敌?当前是否存在挑战 Transformer 架构的新型架构?看完这篇你就懂了!!

自2017年Google提出Transformer架构以来,Transformer在自然语言处理(NLP)和计算机视觉等领域取得了显著的成功。然而,随着模型规模的扩大和应用场景的多样化,Transformer在计算复杂度和资源消耗方面暴露出一些局限性。为此,研究人员正在积极探索新的架构,以期在保持性能的同时,克服Transformer的不足。本文将探讨当前是否存在挑战Transformer的新型架构,并对这些架构进行分析。

2025-03-31 21:17:25 507

原创 玩转 DeepSeek-R1 本地部署+知识库搭建+多轮RAG,保姆级教程!

最近,深度求索开源的 DeepSeek-R1 系列模型火遍全球,但因为“服务器繁忙”劝退不少人。为了解决这个问题,我们将以 UltraRAG 框架为例,为大家介绍 DeepSeek-R1 的本地部署流程,同时带领大家熟悉 UltraRAG 的细节和功能。在成功跑通 VanillaRAG 后,我们还简单尝试了在 DeepSeek-R1 加持下的 Adaptive-Note,提出法律领域的问题,效果居然出乎意料地好,有截图为证:

2025-03-30 08:00:00 844

原创 必知!大模型时代超常用的训练、微调、推理、部署框架,收藏这一篇就够了!!

必知!大模型时代超常用的训练、微调、推理、部署框架,收藏这一篇就够了!!

2025-03-29 15:10:15 573

原创 阿里深夜开源Qwen2.5-Omni,7B参数完成看、听、说、写!!!

这是 Qwen 系列中全新的旗舰级多模态大模型,专为全面的多模式感知设计,可以无缝处理包括文本、图像、音频和视频的各种输入,同时支持流式的文本生成和自然语音合成输出。

2025-03-29 13:52:48 537

原创 AI Agent究竟是什么?可以应用在哪些领域?看完这一篇你就懂了!!

AI Agent,即人工智能代理(Artificial Intelligence Agent),是一种能够自主感知环境、进行决策和执行动作的智能实体。它们通常基于机器学习和人工智能技术,具备自主性和自适应性,在特定任务或领域中能够自主地进行学习和改进。

2025-03-28 11:42:42 737

原创 构建智能化企业架构:通过API接口与Agent引擎实现高效融合,收藏这一篇就够了!!

随着技术的飞速发展,企业面临着前所未有的机遇与挑战。如何在竞争激烈的市场中脱颖而出,成为众多企业关心的问题。数字化转型已不再是口号,而是企业实现高效运营、提升竞争力的必由之路。在这场变革中,智能化技术的应用成为了企业获得竞争优势的重要工具。

2025-03-28 11:30:25 826

原创 25岁程序员如何利用AI大模型改变35岁被淘汰的命运?看完这一篇你就知道了!!!

随着ChatGPT的横空出世,大模型时代正式来临。千亿甚至万亿参数的大模型陆续出现,各大企业、高校纷纷推出自己的大模型,这标志着通用智能时代的到来。对于25岁的程序员来说,如何在这个新时代中抓住机遇,避免35岁时被淘汰的命运?我认为,人工智能大模型方向是一个值得认真审视的方向。你可以选择通过它创业,也可以选择进入这个领域,因为它是一个更加开放的领域,为程序员提供了更多的选择和无限的可能。

2025-03-27 15:10:03 288

原创 Java + LangChain = 王炸!

在本教程中,我们将详细探讨 LangChain[1],一个用于开发基于语言模型[2]的应用程序的框架。我们将首先了解语言模型的基础概念,这些知识将对本教程有所帮助。尽管 LangChain 主要提供 Python 和 JavaScript/TypeScript 版本,但也可以在 Java 中使用 LangChain。我们会讨论 LangChain 作为框架的构建模块,然后尝试在 Java 中进行实验。

2025-03-27 11:20:39 1020

原创 基于RAG的智能知识问答探索企业知识边界,零基础小白收藏这一篇就够了!!

信息时代到来,企业积累的数字文档知识数量巨大,文档中蕴含的信息对业务发展至关重要,与企业相关的数据价值难以估量。企业利用好现有资源,将企业资源合理配置,将数据串联,产生更大的效益,这才是企业最需要的。然而,传统的搜索技术常常因只能进行关键字查询而无法满足对文档深层次理解的需求。因此需要建立一个面向企业级知识管理的智能问答,对知识进行统一管理,通过精准的信息检索加上严格的权限控制,帮助企业内部员工挖掘企业多年沉淀下来的知识,提升工作效率,增强企业竞争力。

2025-03-26 11:44:36 641

原创 腾讯混元、英伟达都发混合架构模型,Mamba-Transformer要崛起吗?

在过去的一两年中,Transformer 架构不断面临来自新兴架构的挑战。在众多非 Transformer 架构中,Mamba 无疑是声量较大且后续发展较好的一个。然而,与最初发布时那种仿佛「水火不容」的局面不同,最近一段时间,这两种架构似乎正在走向融合。

2025-03-26 10:48:12 892

原创 必知!AI大模型背后的6大核心技术!建议收藏起来慢慢学!!!

Transformer模型,无疑是大型语言模型的坚实基石,它开启了深度学习领域的新纪元。在早期阶段,循环神经网络(RNN)曾是处理序列数据的核心手段。尽管RNN及其变体在某些任务中展现出了卓越的性能,但在面对长序列时,它们却常常陷入梯度消失和模型退化的困境,令人难以攻克。为了解决这一技术瓶颈,Transformer模型应运而生,它如同黎明中的曙光,照亮了前行的道路。

2025-03-25 14:32:01 702

原创 微调碾压RAG?大模型意图识别工程化实践,看完这一篇就懂了!!

本文重点介绍大模型意图识别能力在智能电视核心链路中的落地过程和思考,对比了基础模型、RAG 、以及7b模型微调三种方案的优缺点。

2025-03-25 11:46:21 673

原创 一文搞懂什么是多模态大模型?为什么需要多模态大模型?

“ 多模态大模型,就是支持多种数据格式的模型”很多人都听说过多模态,也知道多模态大模型,但如果让你介绍一下什么是多模态大模型,它有什么优点和缺点,以及为什么需要多模态,这时可能就有点傻眼了。‍‍从应用角度来说,垂直应用的大模型才应该是未来的趋势,那么为什么还要研究多模态大模型呢?‍‍‍‍‍‍‍‍‍‍今天我们就来了解一下什么是多模态大模型,以及为什么需要多模态大模型。‍‍

2025-03-24 13:53:09 727

原创 这才是真正的Agent模型:自我思考与行动,彻底摆脱外部工具

今天刷xhs看到这篇论文,讲述了一个关于AI如何从“只会聊天”进化到“能动手干活”的故事。想象一下,你有一个AI助手,它不仅能回答你的问题,还能主动帮你查资料、做决策,甚至帮你完成任务。听起来是不是很酷?这篇论文就是关于如何让AI从“思考者”变成“行动者”的。

2025-03-24 10:55:11 271

原创 DeepSeek黑科技炸场!手搓本地知识库+RAG调优,教你打造企业级AI管家!

你是否曾希望能够直接向 PDF 或技术手册提问?本文将向你展示如何使用开源推理工具 DeepSeek R1 和运行本地 AI 模型的轻量级框架 Ollama 来构建检索增强生成(RAG)系统。

2025-03-23 08:00:00 649

原创 Qwen2.5-Max全面拥抱DeepSeek技术路线看到就是赚到!!

人们普遍认为Scaling Law(缩放定律)是一种通向 AGI 的可能的路径,即持续扩大数据规模和模型规模可以显著提升模型的智能水平。然而,无论是密集模型还是专家混合(MoE)模型,研究和工业界在有效扩展极大规模模型方面的经验有限。关于这一扩展过程的许多关键细节,直到最近发布的DeepSeek V3、R1模型才得以披露,让大家了解到超大规模 MoE 模型的效果及实现方法(强化学习和知识蒸馏)。与此同时,阿里通义千问团队正在研发超大规模的 MoE 模型 Qwen2.5-Max,一个经过超过20万亿个

2025-03-22 11:38:54 658

原创 深入浅出大模型:预训练、监督微调、强化学习、RLHF,看到就是赚到!!

2025年年初随着DeepSeek的爆火,人们对LLM(Large Language Model,大语言模型)兴趣与日激增,很多人觉得LLM常常显得近乎魔法般神奇。接下来我们就来揭开LLM的神秘面纱。我想退一步,拆解一下LLM的基本原理——深入探讨这些模型是如何构建、训练和微调,最终成为我们今天所使用的AI系统的。

2025-03-22 10:51:44 947

原创 Agent四大范式 | 综述:全面理解Agent工作原理,建议收藏起来慢慢学!!

随着大型语言模型(LLMs)展现出显著的智能,将其应用于自主代理规划模块的研究受到了广泛关注。本综述首次系统性地审视了基于 LLM 的代理规划,涵盖了提升规划能力的最新研究成果。我们对现有的 LLM-代理规划研究进行了分类,将其分为任务分解、计划选择、外部模块、反思和记忆等类别,并针对每个方向进行了深入分析。同时,我们也探讨了该研究领域面临的挑战。

2025-03-21 11:28:07 520

原创 大模型+RAG,全面介绍!零基础小白建议收藏起来慢慢学!!

大型语言模型(LLMs)在处理特定领域或高度专业化的查询时存在局限性 ,如生成不正确信息或“幻觉”。 缓解这些限制的一种有前途的方法是检索增强生成(RAG),RAG就像是一个外挂,将外部数据检索集成到生成过程中,增强模型提供准确和相关响应的能力。

2025-03-21 10:40:21 808

原创 【AI大模型】Transformer-从模型框架到维度变换,收藏这一篇就够了!!!

自2017年Google在《Attention is All You Need》中提出Transformer模型以来,Transformer已经成为自然语言处理(NLP)领域的核心架构之一。本文将详细介绍Transformer的架构、维度变换的过程等,并结合翻译例子,更好地理解Transformer的工作原理。

2025-03-20 14:22:41 970

原创 基于文档层级架构的RAG系统,提升人工智能检索效率,看完这一篇你就懂了!!

文档层级架构作为优化 RAG 系统的核心要素,在提高检索效率、深化上下文理解以及实现更精准的响应生成方面,发挥着举足轻重的作用。今天我们一起聊一下基于文档层级架构的RAG方案。

2025-03-20 10:45:19 564

原创 【AI大模型】一文读懂 RAG 中的 embedding model,建议收藏起来慢慢看!!

在当今人工智能的浪潮中,RAG(检索增强生成)技术大放异彩,像是 RAGFlow、Qanything、Dify、FastGPT 等 RAG 引擎,逐渐走进大家的视野。在这些强大的 RAG 引擎背后,有一个关键组件起着不可或缺的作用,它就是嵌入模型(Embedding Model)。今天,就让我们一起深入了解一下这个神秘的嵌入模型吧!

2025-03-19 11:35:41 515

原创 大语言模型优化方法简介:Prompt、RAG、Fine-tuning

GPT、LLama、Gemini等大语言模型虽展现出强大能力,但在实际应用中仍有问题,例如在准确性、知识更新速度和答案透明度方面,仍存在挑战。

2025-03-19 10:24:23 1023

原创 【AI大模型部署】本地大模型构建知识库 Ollama + LobeChat + AnythingLLM

在本地使用大模型搭建知识库,可以充分保障数据的隐私和安全,同时由于不需要依赖网络连接方便企业内部使用此外,最重要的是能够对模型和知识库进行定制化,根据具体需求进行调整,从而更好地满足特定业务场景的要求,既能供企业内部使用,也能做成Server供客户使用。

2025-03-18 11:27:15 298

原创 【保姆级教程】DeepSeek R1+RAG,基于开源三件套10分钟构建本地AI知识库

目前在使用 DeepSeek 在线环境时,页面经常显示“服务器繁忙,请稍后再试”,以 DeepSeek R1 现在的火爆程度,这个状况可能还会持续一段时间,所以这里给大家提供了 DeepSeek R1 +RAG 的本地部署方案。最后实现的效果是,结合本地部署的三个开源工具,包括 1Panel、Ollama、MaxKB,可以快速搭建一个本地知识库。

2025-03-18 10:53:06 1265

原创 AI 本地部署中的 ollama 是什么?一文带你搞懂!!!

Ollama 是一个开源工具,专为在本地计算机上高效运行大型语言模型(LLM,如 deepseek-r1、qwen2.5 等)而设计。它简化了模型的下载、部署和管理流程,让用户无需复杂配置即可在本地体验和开发基于大语言模型的应用。从 ollama 的网站上可以查看所有的模型信息:

2025-03-17 14:00:59 631

原创 14.3k star 的开箱即用的 AI 知识库问答系统,建议收藏!!

之前介绍了很多 AI 大模型以及如何编写 AI Prompt 的文章,但从实际应用的维度来看,我们在使用这些 AI 产品时一般都是将它作为一个搜索引擎来使用的,并没有发挥出它应有的价值。

2025-03-17 11:12:12 672

原创 聊聊大模型多agent的思考——多LLM下的多agent实现

目前来说,Prompt依旧是大模型agent的核心,实现的重要手段之一。目前业界普遍认为,AI Agent技术包括四大核心部分:角色定义模块。Agent在此阶段需要和人类一样,对任务执行中的背景资料和具体要求保持关注,这一环节实质上是构建角色定位的数据集合。记忆模块。其功能是信息的存储与检索,分为短期记忆和长期记忆两种形式。短期记忆基本上等同于模型处理的即时上下文,长期记忆则通常来源于外部存储如向量数据库。

2025-03-16 08:00:00 544

原创 【一文读懂】大模型微调 Fine-Tuning,看到就是赚到,建议收藏!!

众所周知,大模型微调(Large Model Fine-Tuning)是一种机器学习技术,用于提高特定任务的模型性能。本篇我将为各位同学简单扼要地介绍一下 Fine-Tuning,这里没有羞涩难懂的语言,也不强求深入了解Fine-Tuning的工作原理,目的是用中学生都能看懂的方式讲明白大模型微调 Fine-Tuning究竟是什么回事。

2025-03-15 08:00:00 514

原创 让RAG更进一步的利器:教你使用两种出色的Rerank排序模型

在高级RAG的应用中,常常会有一些“检索后处理(Post-Retrieval)”的环节。顾名思义,这是在检索出输入问题相关的多个Chunk后,在交给LLM合成答案之前的一个处理环节。在这个环节中,可以做一些诸如相似度过滤、关键词过滤、chunk内容替换等处理。其中,**Rerank(重排序)**是一种常见的,也是在RAG应用优化中很常见的一种技术处理环节。

2025-03-14 13:44:33 1341

原创 如何微调(Fine-tuning)大语言模型?看完这一篇你就懂了!!

本文介绍了微调的基本概念,以及如何对语言模型进行微调。从 GPT3 到 ChatGPT、从GPT4 到 GitHub copilot的过程,微调在其中扮演了重要角色。什么是微调(fine-tuning)?微调能解决什么问题?什么是 LoRA?如何进行微调?

2025-03-14 10:48:58 775

原创 AI模型部署:Triton+vLLM部署大模型Qwen-Chat实践,收藏这一篇就够了!!

Triton是NVIDIA推出的模型推理服务器,vLLM是伯克利大学推出的大模型推理引擎。一般而言,Triton主要负责调度策略来提高服务的吞度,比如动态批处理、多实例并发等,配合TensorRT、ONNX等后端来联合使用,后者负责推理内核来降低延迟;而在Triton+vLLM的组合中,Triton不会做任何的调度处理,而是将请求全部打给vLLM,让vLLM根据PagedAttention和异步API自行处理请求,vLLM的调度策略更适配大语言模型decode场景的KV-Cache,提高GPU的利用率,因

2025-03-13 14:50:13 729

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除