- 博客(1047)
- 收藏
- 关注
原创 10分钟教你用Ollama + OpenWebUI搞定私人AI知识库
你是不是总在羡慕别人能用AI秒答专业问题、自动写代码,甚至整理私人笔记?但一看到“大模型” “GPU” “Docker”这些词就头大?别慌!今天教你用两个神器——Ollama和Open WebUI,在本地电脑零代码搭建一个专属AI知识库,隐私不联网、免费不限量,连你家的老Mac都能跑!
2025-08-22 11:27:33
368
原创 ollama+deepseek+AnythingLLM,手把手带你部署个人知识库
ollama:一个用于在本地运行大型语言模型(LLM)的开源框架,旨在简化LLM的部署和运行。它支持多种模型,并提供了丰富的API接口和聊天界面,可用于文本生成、翻译、问答和代码生成等。
2025-08-22 11:24:43
400
原创 大模型应用开发:如何搭建自己的MCP服务
之前介绍了如何使用别人提供的MCP服务,今天我们来看一看如何搭建自己的MCP服务。目前MCP Server 官方给出了两种语言的SDK,分别是 NodeJS 以及 Python,由于笔者自工作以来一直使用Python,因此使用该语言来开发MCP Server和Client。
2025-08-21 18:47:00
671
原创 如何基于 Ollama与 本地大模型实现 ChatGPT AI 聊天系统
本文讲述路径:本地安装 Ollama本地安装 LLMOllama 基本指令(部分)Ollama API 调用前端代码
2025-08-21 18:44:23
747
原创 指定式Tuning:高效微调的精准策略,一文读懂
指定式Tuning(Specification-based Tuning)是参数高效微调(Delta Tuning)的核心方法之一,其核心思想是仅对预训练模型中指定的特定参数进行微调,而冻结其余大部分参数。这种方法通过精准定位关键参数,实现了计算资源的高效利用,同时保持了模型的强大泛化能力。
2025-08-20 19:36:03
548
原创 十分钟弄懂LoRA,让AI又好又便宜
1. 大型语言模型 (Large Language Models, LLMs): 这是我们的研究对象,比如 GPT-3、RoBERTa 等拥有数十亿甚至上千亿参数的模型。2. 自适应 (Adaptation): 指的是让一个已经预训练好的通用大模型,去“适应”一个特定的下游任务,比如情感分析、文章摘要、代码生成等。这个过程通常叫做“微调 (fine-tuning)”。3. 低秩 (Low-Rank): 这是这篇论文提出的核心技术。先别担心这个数学术语,我们后面会用非常形象的类比来解释它。你可以暂时把它理
2025-08-20 19:34:04
382
原创 超详细!DeepSeek+Docker+Dify 知识库搭建教程!
随着 DeepSeek 不断爆火,越来越多的个人和企业都在搭建属于自己行业或自己的私域知识库,那么我们应该怎么使用 DeepSeek 来搭建只属于自己的私域知识库呢,其实不难,就让我们来一探究竟。基于 DeepSeek 搭建个人私域知识库的流程图如下所示:
2025-08-14 19:37:31
673
原创 个人知识库搭建方式详解,我们为什么需要搭建知识库?
一.哪些人需要搭建个人知识库二.搭建个人知识库的平台AnythingLLMDifyMaxKB秘塔搜索在线知乎直达ima搭建个人知识库三.个人知识库的执行流程①第一阶段:知识库构建 (准备数据,供后续查询)②第二阶段:用户问答响应 (用户提问,系统检索并回答)四.RAG的理解什么是RAG为什么需要RAG
2025-08-14 19:33:59
723
原创 Obsidian+Ollama搭建本地知识库!让大模型有RAG的能力!
在工作中领导常常会下发一些陌生的,让人摸不着头脑的 “难题”。或者工作本身就会有需要攻克未知领域的难题。当我们把这些摸不着头脑的问题一股脑全丢给大模型,它的回答可能都是一些正确的废话,也给不了什么建设性的意见。这时我们一遍又一遍的优化着prompt,但回答还是模棱两可。这时就会陷入迷茫不知道从何下手.......
2025-08-11 19:26:25
767
原创 AI知识库落地:AI时代,怎么构建自己的个人知识库?
下载好 Ollama 安装包之后,不要先执行默认安装,只需要先按下面几步操作执行,就可以把 Ollama 工具安装到其他磁盘目录下,下载的大模型也都放到其他目录下,谁试谁知道这样的好处
2025-08-11 19:24:37
865
原创 【Ollama全攻略】从0实现企业级AI私有化
Ollama 是一个开源免费的本地化大型语言模型(LLM)管理工具,旨在简化大模型在个人设备上的部署、运行和管理。它支持跨平台操作(Windows、macOS、Linux),提供命令行和API接口,适合开发者、研究人员及爱好者快速体验和集成大模型能力。
2025-08-04 22:02:06
1166
原创 大模型其实很简单!Ollama这样学就够了!
启动运行大语言模型。这就是ollama官网简单朴素的介绍。大模型时代,ollama可以很方便地管理运行你本地大模型的一个工具。我们可以很快地使用ollama启动一个任何现在市面上主流的大模型,并且提供模型能力出去,供外部去调用。
2025-08-04 21:58:07
830
原创 探索AI大模型的50个应用场景:让科技改变生活。
随着人工智能技术的迅猛发展,AI大模型在各个领域的应用日益广泛。百度创始人、董事长兼首席执行官李彦宏在2024年世界人工智能大会上表示,目前AI技术发展路线发生了方向性改变,已从过去辨别式人工智能转向了未来生成式人工智能。他更是呼吁:“大家不要卷模型,要卷应用!”
2025-08-01 13:52:47
1040
原创 DeepSeek+Dify本地化部署教程,企业知识库3分钟上线!
说到知识库又不得不提一提大语言模型LLM(Lager Language Model)的一些痛点:1.大模型经过海量文本数据的训练后,能将这些文本数据以一种黑盒形式压缩在模型参数中,遇到知识更新又会涉及到二次训练,因此知识更新成为最大的痛点。
2025-08-01 13:51:02
512
原创 终于有人把大模型11种微调方法说清楚了!
前缀调优(PrefixTuning)是一种轻量级的微调替代方法,专门用于自然语言生成任务。前缀调优的灵感来自于语言模型提示,前缀就好像是“虚拟标记”一样,这种方法可在特定任务的上下文中引导模型生成文本。前缀调优的独特之处在于它不改变语言模型的参数,而是通过冻结LM参数,仅优化一系列连续的任务特定向量(即前缀)来实现优化任务,如图1所示
2025-07-31 11:41:33
720
原创 大语言模型(LLM)微调
随着大语言模型(LLM)热潮兴起并在企业中的加速落地,其在自然语言处理(NLP)领域展现出强大的能力,已被广泛认可。然而,许多团队也逐渐意识到,仅依赖大模型本身仍存在一系列不可忽视的问题:
2025-07-31 11:37:05
896
原创 如何基于RAGFlow构建大模型企业知识库
包括:大模型学习线路汇总、学习阶段,大模型实战案例,大模型学习视频,人工智能、机器学习、大模型书籍PDF。带你从零基础系统性的学好大模型!😝有需要的小伙伴,可以保存图片到。
2025-07-10 17:43:59
1062
原创 超详细!使用 DeepSeek+Docker+Dify 搭建个人知识库
随着 DeepSeek 不断爆火,越来越多的个人和企业都在搭建属于自己行业或自己的私域知识库,那么我们应该怎么使用 DeepSeek 来搭建只属于自己的私域知识库呢,其实不难,就让我们来一探究竟。
2025-07-10 17:40:42
692
原创 AI大模型的前世今生:Deepseek底层逻辑和技术详解
AI大模型的发展,既是技术的跃迁,更是人类智慧的延伸。从DeepSeek的崛起到全球开源社区的繁荣,我们见证了一个更开放、更智能的时代正在到来。未来,AI将不仅是工具,而是成为人类探索未知、实现普惠的伙伴。让我们以技术为舟、以合作为桨,共同驶向智能时代的星辰大海!
2025-07-08 20:26:28
857
原创 大模型友好型全新注意力架构,Meta掀起大模型底层架构革命!
当大家还在疯狂“堆料”冲大模型时,这篇论文反手掏出了一个“精装修”的注意力模块,证明了干活儿不能只靠人多,脑子聪明更重要。
2025-07-08 20:14:39
966
原创 什么是RAG?
Retrieval-Augmented Generation (RAG) 是帮助大模型更好地回答问题的一种方式。在大模型的应用场景中,一个非常常见的需求是:我们手里有一堆文档,当遇到一个问题时,希望通过其中的一段文本来找到答案。这时,RAG(检索增强生成)技术就能派上用场。它的作用就是从这些文档中找到最相关的信息,然后利用大模型生成精准的回答。简单来说,RAG 就是帮助大模型‘找到’并‘利用’最相关的信息来回答你的问题,就像一个聪明的助手快速翻阅资料给你最合适的答案。如下图所示:
2025-07-07 11:57:20
689
原创 一文带你了解RAG(检索增强生成) | 概念理论介绍+ 代码实操
尽管 LLM 已展现出显著的能力,但以下几个挑战依然值得关注:幻觉问题:LLM 采用基于统计的概率方法逐词生成文本,这一机制内在地导致其可能出现看似逻辑严谨实则缺乏事实依据的输出,即所谓的“郑重其事的虚构陈述”;时效性问题:随着 LLM 规模扩大,训练成本与周期相应增加。鉴于此,包含最新信息的数据难以融入模型训练过程,导致 LLM 在应对诸如“请推荐当前热门影片”等时间敏感性问题时力有未逮;
2025-07-07 11:54:56
1101
原创 大模型全解:RAG基础知识
RAG(Retrieval Augmented Generation,检索增强生成),是一种将预先训练的大语言模型功能与外部数据源相结合的技术。这种方法将GPT-3或GPT-4等LLM的生成能力与专门的数据搜索机制的精度相结合,从而形成了一个可以提供确定性响应的系统。本文详细地探讨了检索增强生成,并给出了一些实际示例,以及一些资源来帮助您了解更多关于LLM的信息。
2025-07-03 19:53:49
772
原创 【通俗易懂说AI之RAG系列】RAG基础概念科普
欢迎来到我们的新开的专题,通俗易懂说AI之RAG,在开始这篇文章的正文之前还是需要先简单的讲述下为什么会有这个系列?主要的原因有以下:(1)智能体在25年开始变得越发的火爆;(2)各种大模型日新月异;(3)大模型相关的技术也越来越多的进入人们的视野中,其中当仁不让的就是RAG;
2025-07-03 19:51:13
915
原创 ToB or ToC?深度盘点:2025年国内AI大模型发展境遇
2022年全球AI爆发后,国内已经催生了上千个AI产品,涵盖从头部大厂到高等院校再到初创企业的广泛阵容:大厂如百度,阿里、字节、腾讯、华为等;高校如清华、北大、浙大、上交等;初创企业有六小虎之称的月之暗面、智谱,以及DeepSeek背后的幻方量化等。不过两年的市场变化,有的大模型一跃成为全民应用,如DeepSeek,有的接入政务系统被称为豆书记的豆包,还有主抓B端工业场景的华为盘古……更多的则是还未成名就已考虑转型的初创企业。今天我们就来深入盘点一下,截至2025年这些AI大模型的发展境遇。
2025-07-02 20:22:37
958
原创 从采用到优势:2025年企业大语言模型十大发展趋势
Kong Research发布的2025年企业大语言模型采用报告基于550名IT领导者调研,揭示了企业生成式AI从谨慎探索转向战略必需的十大趋势:投资大幅增长,72%企业预计支出上涨;谷歌以69%使用率领先OpenAI;企业偏好付费解决方案;安全隐私仍是主要障碍;国际供应商获得认可;混合策略兴起;客户支持和开发者生产力成主要应用场景;开源模型受青睐;成本仍是关键障碍;82%企业对AI影响持乐观态度。
2025-07-02 20:21:02
1009
原创 【大模型微调】一文掌握7种大模型微调的方法
本篇文章深入分析了大型模型微调的基本理念和多样化技术,细致介绍了LoRA、适配器调整(Adapter Tuning)、前缀调整(Prefix Tuning)等多个微调方法。详细讨论了每一种策略的基本原则、主要优点以及适宜应用场景,使得读者可以依据特定的应用要求和计算资源限制,挑选最适合的微调方案。
2025-07-01 20:06:32
1045
原创 清晰讲解大模型原理:基于 GPT-4 和 ChatGPT
GPT-4 和 ChatGPT 究竟是什么?本章的目标是深入探讨这些 AI 模型的基础、起源和关键特性。通过了解这些模型的基础知识,你将为构建下一代以 LLM 驱动的应用程序打下坚实的基础。
2025-06-30 19:12:05
772
原创 基于知识图谱技术增强大模型RAG知识库应用效果
本文是AI落地实践的优秀案例,利用RAG技术(Retrieval-Augmented Generation,检索增强生成)的知识库实践为背景,介绍了RAG技术的发展及存在的不足,以及知识图谱相关的知识,利用RAG技术去完善和智能化知识图谱。在AI技术大量涌现,但应用不足的情况下,指明了现有应用场景、技术与AI结合的具体做法。
2025-06-30 19:06:00
794
原创 大模型算法架构:DeepSeek技术演进及剖析
随着 ChatGPT 迅速走红,这两年大家在日常工作中使用 LLM 进行的场景越来越多。本系列将针对主流算法架构进行讲解。大模型算法演进大模型算法架构:QWen技术演进及剖析大模型算法架构:DeepSeek技术演进及剖析大模型算法架构:LLaMA3 技术剖析大模型算法架构:Baichuan-7B技术剖析
2025-06-27 20:39:28
819
原创 AI模型蒸馏:大语言模型的“瘦身革命”
模型蒸馏是一种机器学习新技术,其基本思想是让较小的模型(学生)模仿较大的模型(老师)的行为。当前,已经存在几种方法可以实现这一技术(将在下文中展开具体介绍),但其目标都是在学生模型中获得比从头开始训练更好的泛化能力。
2025-06-27 20:31:51
954
原创 纯干货!快收藏!大模型技术应用架构演进
话不多说,直接上干货,让我们来看看那些隐藏在应用背后,现在大模型都有哪些常用的架构模式,可以为您的企业应用建设提供参考:
2025-06-26 20:14:46
645
原创 从基础到部署:解密 AI 大模型应用架构全景
近年来,AI大模型技术如星火燎原般席卷各行各业,成为推动数字化、智能化转型的核心驱动力。但在“模型即平台、能力即服务”的趋势下,大模型不再是某个单点工具,而是一整套涵盖数据、算力、算法与业务协同的完整能力体系。本文将借助一张全景图,全面拆解大模型应用架构的五大层级:基础层、模型层、能力层、应用层与部署层。帮助你读懂从底层资源到业务部署之间,AI大模型是如何“由内而外”推动企业智能跃迁的。
2025-06-26 20:11:06
1024
原创 Milvus向量数据库学习总结,打造自己的知识库系统!
我们知道 LLM的知识库是通过现有的网络公开的数据作为数据源来训练的,现在公开的很多模型他们基于的训练数据会比我们现在网络上公开的数据早很多,那自然就会产生一种问题,网络上最新的数据和知识 LLM是不知道。还有一种情况就是很多企业他们对自己的数据的安全做的很好,也就是私有化数据(这些数据是有价值的,也是企业的立足之本)。这些数据网络上肯定是不存在,那自然 LLM也是不知道的。
2025-06-25 10:44:09
551
原创 大模型基础:基本概念、Prompt、RAG、Agent及多模态(非常详细)零基础入门到精通,收藏这一篇就够了
随着大模型的迅猛发展,LLM 作为人工智能的核心力量,正以前所未有的方式重塑着我们的生活、学习和工作。无论是智能语音助手、自动驾驶汽车,还是智能决策系统,大模型都是幕后英雄,让这些看似不可思议的事情变为可能。本文将从以下5个方面介绍大模型相关内容:
2025-06-25 10:40:25
525
原创 ChatOllama实现与本地大语言模型的对话并搭建本地知识库进行问答
现在有很多支持本地运行大预言模型的项目和使用知识库的项目或者平台,之所以想介绍ChatOllama是因为个人使用过后感觉比其他项目好用。特别是它的本地知识库,也就是RAG问答效果,是我到现在用过的几个知识库中能检索到信息最准确的
2025-06-24 11:47:31
841
原创 大模型如何从技术侧向商业侧落地转化?
从目前企业端观察到的情况来看,基于大模型的知识库是一个比较有潜力和价值的应用场景,能够帮助企业大幅提高知识的整合和应用效率。然而由于通用预训练大模型的训练数据主要来源于公开渠道,缺乏企业专业和私有知识,直接使用将难以支撑企业内部的专业知识问答。
2025-06-24 11:44:02
811
原创 大模型应用开发平台dify部署(进阶篇)
国内已经有很多开源的大模型,但即使我们拥有强悍的硬件,在本地部署了满血版的开源模型,比如DeepSeek R1 671B,用起来还是跟官网有差别,各大平台接入的DeepSeek R1用起来也是各不相同。这是因为各平台在部署的过程中会进行优化,包括接入知识库、创建智能体、训练、超参数调整等,用户使用的是平台提供的应用程序,而不是单纯的开源模型。
2025-06-23 10:50:43
1300
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人