自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(805)
  • 收藏
  • 关注

原创 AI如何像人类那样思考?大模型思维方式大揭秘!

在思维节奏这件事上,人类早已形成一种独特而复杂的模式。我们习惯让 AI 模仿人类思维方式:先依赖直觉快速反应(System 1),再慢慢进入逻辑推理(System 2);答题时先给出初步判断,再自我反思逐步修正……模仿人类的推理节奏,已经成为语言模型推理策略的默认路径。

2025-07-08 20:38:09 615

原创 未来核心!多模态大模型的三层架构设计大揭秘

多模态大模型的实践,是技术与场景的双轮驱动。它需要算法专家的“深度思考”,需要工程团队的“精细打磨”,更需要产品团队的“敏锐洞察”。只有把三者结合,才能在激烈的市场竞争中抢得先机。如果你也在多模态架构的落地道路上披荆斩棘,欢迎在评论区分享你的经验和思考。让我们一起,把 AI 的想象力,变成触手可及的现实

2025-07-08 20:32:18 632

原创 一文详解几种常见本地大模型个人知识库工具部署、微调及对比选型

知识库侧主要是指更加偏向于能够直接读取文档并处理大量信息资源,包括文档上传、自动抓取在线文档,然后进行文本的自动分割、向量化处理,以及实现本地检索增强生成(RAG)等功能的工具,近期较为热门的主要包括:AnythingLLM、MaxKB、RAGFlow、FastGPT、Dify 、 Open WebUI 这六种。

2025-07-07 17:06:50 940

原创 使用Ollama开源软件,本地部署DeepSeek R1大模型!

现在AI模型遍地开花,大家用的都是在线的AI服务,可你用过本地部署的AI大模型吗?今天,我就来教大家在15分钟内部署一个本地AI大模型。不需要太高的电脑硬件配置,就能让你跟进时代的浪潮,还不快来试试?

2025-07-07 17:03:26 716

原创 AI Agent 主题系列基础概念入门

2023年初OpenAI用ChatGPT-4点燃了AI革命的导火索,全球科技界在惊叹与焦虑中仓促迎战。而今年以来,随着DeepSeek以黑马姿态破圈,通用大模型的混战终于显现出清晰的格局。随之而来的,一个更本质的问题浮出水面:在褪去概念光环之后,AI究竟能在多少真实场景中扎根生长?这场从"技术爆炸"到"价值沉淀"的转向,正在重新划定行业竞争的起跑线。大家将目光转向了 AI Agent。

2025-07-03 19:58:51 729

原创 一文搞懂 AI Agent 八大核心概念

AI Agent 就像人工智能应用的 “大脑”,在很多地方都派上了用场。接下来,咱们就一起聊聊 AI Agent 的八个关键概念,把它讲得明明白白。

2025-07-03 19:57:00 1147

原创 万字长文综述大模型核心技术:微调、推理与优化指南

大语言模型(LLM)是非常庞大的深度学习模型,它们在大量数据上进行预训练。其底层的Transformer是一组神经网络,由具有自注意力能力的编码器和解码器组成。编码器和解码器从文本序列中提取含义,并理解其中单词和短语之间的关系。

2025-07-02 20:27:52 1211

原创 大模型微调知识与实践分享

本文详细介绍了大型语言模型(LLM)的结构、参数量、显存占用、存储需求以及微调过程中的关键技术点,包括Prompt工程、数据构造、LoRA微调方法等。

2025-07-02 20:25:51 848

原创 大模型微调系列:一文了解如何准备高质量数据集

经常有同学问:"为什么我的模型微调效果总是不理想?"80%的情况下,问题都出在数据集上。就像让一个学生用错误的教材学习,再好的老师和教学方法也无济于事。今天,我们就来聊聊大模型微调中最关键的一环--数据集准备。

2025-07-01 20:14:10 862

原创 微调篇「数据集构建」保姆级教程来了!

在寻找优质数据集时,建议先抽取约1000条数据进行初步测试微调,以评估其效果是否符合需求。如果微调后的结果令人满意,再考虑将该数据集作为构建标准数据集的参考依据。在后续构建自己的额外数据集时,应遵循循序渐进的原则。先构建少量数据并进行微调测试,观察效果。只有在确认效果达到预期后,才继续扩充数据集规模。

2025-07-01 20:11:05 860

原创 大模型落地差异分析:智能问答→RAG→Agent的提示词结构对比

本文以容易理解的信息化视角,将LLM视作一个黑盒的文字系统,通过比较输入提示词+输出成果在几种LLM应用模式下的不同,来分析这些应用模式的差异,本质上也是对使用LLM的过程做一个“祛魅”。

2025-06-30 19:17:49 970

原创 大模型如何“练成”?详解训练、微调与强化学习的基础逻辑

本文对这些概念和模式进行梳理汇总,并结合DeepSeek和Qwen两个案例进行说明,方便像我一样从信息化领域转型过来刚入门的同学也能快速了解“训练”的范围和基础逻辑。

2025-06-30 19:15:10 746

原创 一文看懂Agent搭建策略:从稳妥到激进路线,及VLLM图片分辨率策略

一个是Agent,看看推理大模型规划能力搭建Agent应用的一些变化,那些是稳妥、次稳妥、激进的思路。一个是技术侧看文档智能,主要看多模态大模型的分辨率处理策略,看目前有哪些主流应对方案。

2025-06-27 20:46:47 1051

原创 如何使用LangChain构建Agent

Agent(智能代理)是一种能够感知环境、自主决策并执行任务的实体(可以是软件、机器人或系统)。它的核心能力在于自动化、智能化和适应性,广泛应用于多个领域。以下是Agent能做的事情,按场景分类说明:

2025-06-27 20:44:30 936

原创 检索增强生成(RAG)、微调(Fine-tuning)与知识蒸馏(Knowledge Distillation):核心差异与技术

在自然语言处理(NLP)领域,大型预训练语言模型(如GPT、BERT系列)的崛起彻底改变了技术生态。面对实际业务场景中模型效果优化与资源效率平衡的永恒命题,开发者主要依赖三大技术路径:检索增强生成(Retrieval-Augmented Generation, RAG)、模型微调(Fine-tuning)和知识蒸馏(Knowledge Distillation)。本文将通过技术原理拆解、典型应用场景对比和实战选型策略三个维度,深入解析这三种技术的本质差异。

2025-06-26 20:28:04 1179

原创 RAG 或微调,应该如何选型

在企业级AI应用开发中,我们经常面临一个核心问题:如何让通用大语言模型具备特定领域的专业能力?目前主流的两种技术路线是检索增强生成(RAG)和模型微调(Fine-Tuning)。虽然网上已有不少相关介绍,但本文将从基本原理出发,结合企业实际需求,提出一个清晰的选型框架,并探讨可能的混合方案。

2025-06-26 20:23:05 876

原创 最全高质量大模型预训练数据集(不定期更新)

最全高质量大模型预训练数据集(不定期更新)

2025-06-25 10:51:03 502

原创 三个大模型微调方式全解!

监督微调(SFT)确实在大型语言模型(LLM)领域取得了重大进展。但是,仍可能发生意外行为,例如重复内容生成以及困惑度 (PPL) 分数与生成功能之间的不一致。

2025-06-25 10:49:11 949

原创 什么是Top-p采样与Top-k采样?大模型推理时如何同时设置?

在自然语言生成(NLG)和大规模语言模型推理中,Top-k采样 和 Top-p采样 是两种常用的解码策略,用于控制生成文本的多样性和质量。它们在生成过程中对词汇选择有不同的约束方式,可以通过调整生成过程的随机性来得到更符合需求的输出。接下来,我们将分别介绍这两种采样方法,并讨论它们如何在大模型推理时同时设置。

2025-06-24 11:51:50 768

原创 LoRA微调GLM-4、Qwen2

在大模型掀起新一轮的AI热潮以来,各类大语言模型百花齐放,算法模型由原来的几万、几十万的参数,上升到现在的数十亿、百亿、千亿的情况。  以前我们比较熟悉的是全量微调,即利用新数据对模型所有参数全部进行调整。但对于大语言模型而言,想要在消费级显卡上完成模型的全量微调根本无法实现。目前对于大模型来说,主流的微调技术叫做高效微调,这种方式是通过微调大模型少量或者额外的一些参数,固定预训练模型大语言模型参数,以此来降低计算和存储成本,同时,还可以在一定程度上实现与全量参数微调相当的性能。  高效微调方法有很多种

2025-06-24 11:50:17 646

原创 基于RAG搭建大模型知识库

LLM具有强大的语言理解和生成能力,当下存在一些局限性,失效受制、专业能力有限和定制成本高。有两种开发范式RAG(实时更新)和Finetune(个性化微调)。

2025-06-23 11:04:21 904

原创 大模型LoRA微调实战(完整代码带数据)

通过数据反馈、模型微调和算法优化,AI大模型问答系统能够不断进化。这使得系统不仅能够适应新兴问题,还能处理日益复杂的用户需求,为用户提供更加智能的服务。

2025-06-23 11:02:34 1198

原创 大模型微调的核心技术LoRA原理讲解,如何让大模型低成本、高效率地完成法律问答、医学对话或者某企业内部知识问答等特定任务

在人工智能领域,大语言模型(LLMs)如Claude、LLaMA、DeepSeek等越来越强大,但想要让这些模型适应特定任务,比如法律问答、医学对话或者某企业内部知识问答,传统的方法是「微调」(Fine-tuning)模型。然而,这背后通常意味着巨大的计算开销和高昂的资源成本。有没有办法低成本、高效率地完成微调?

2025-06-21 19:51:33 677

原创 大模型技术RAG(检索增强生成)一文全解

包括:大模型学习线路汇总、学习阶段,大模型实战案例,大模型学习视频,人工智能、机器学习、大模型书籍PDF。带你从零基础系统性的学好大模型!😝有需要的小伙伴,可以保存图片到。

2025-06-21 19:47:23 893

原创 大模型如何通过 lora训练学习法律条文

包括:大模型学习线路汇总、学习阶段,大模型实战案例,大模型学习视频,人工智能、机器学习、大模型书籍PDF。带你从零基础系统性的学好大模型!😝有需要的小伙伴,可以保存图片到。

2025-06-19 19:06:45 805

原创 【AI大模型】深入理解预训练与微调,为什么需要预训练,什么是微调?

大模型需要先经过模型设计和实现,然后再进行预训练获得通用能力,最后通过微调强化能力今天我们就来深入理解一下预训练与微调。从本质上来说,大模型就是一种使用一种机器学习的架构去模仿人类大脑神经元的过程;而大模型的学习本质上是基于神经网络模型,通过概率实现的归纳总结。也就是说,虽然大模型无法实现和理解人类的思考方式,但大模型可以通过一种架构去学习不同语义下某个参数出现的概率,其本质上是一个概率模型。而预训练的作用,就是让大模型在什么都不知道的情况下,通过对大量输入数据进行归纳总结,建立自己的概率模型;

2025-06-19 19:04:55 1203

原创 AI大模型RAG:通俗地说说RAG及其与大模型的结合

RAG 全称 Retrieval-Augmented Generation,翻译成中文是检索增强生成。这一年多,在大模型应用领域,RAG频繁地出现。为什么它这么热?需要怎么理解看待RAG?RAG解决了一个大模型无法实时获取外部数据的问题,是一个非常大的进步。但RAG方案真的很好吗?我觉得不够好。打个比方,这个外部查询数据再送给大模型的方法,有点类似于一个教授在写论文,但它依靠的输入是一个小学生查的资料,并且这个资料它还必须用。你说教授能写出好论文?但当前也没有更好的方案来解决这个问题。

2025-06-19 19:03:16 852

原创 大模型全解全过程:从零开始训练大语言模型

本文将详细梳理从零开始训练大语言模型的全过程,包括预训练阶段、指令微调、奖励模型和强化学习的实现方式。

2025-06-18 10:32:13 793

原创 基于LoRA的Llama 2二次预训练实践:高效低成本的大模型领域适配

近年来,大语言模型(LLM)如Meta的Llama 2系列凭借其强大的生成和理解能力成为NLP领域的核心工具。然而,直接将通用预训练模型应用于垂直领域(如医疗、法律、金融)时,常面临领域知识不足的问题。传统全参数微调(Fine-tuning)虽能提升领域表现,但存在计算成本高、易过拟合等缺陷。本文介绍如何通过LoRA(Low-Rank Adaptation技术,对Llama 2进行二次预训练(Continued Pre-training),实现高效低成本的领域适配。

2025-06-18 10:29:11 1067

原创 一文让你读懂大模型推理常见采样:Top-k, Top-p, Temperature, Beam Search

思路:直接选择分布中概率最大的token当作解码出来的词,但是该问题在于,总是选择概率最大的词,将会生成很多重复的句子优点:计算简单高效缺点:文本重复,没有多样性。

2025-06-17 11:56:50 1066

原创 大模型训练完整教程大揭秘,小白必看!

包括:大模型学习线路汇总、学习阶段,大模型实战案例,大模型学习视频,人工智能、机器学习、大模型书籍PDF。带你从零基础系统性的学好大模型!😝有需要的小伙伴,可以保存图片到。

2025-06-17 11:54:32 969

原创 大模型微调实战:LORA微调

是一种高效的参数高效微调方法,其核心思想是通过在预训练模型的权重矩阵中引入低秩适配矩阵(低秩分解矩阵 A 和 B),仅对这部分新增参数进行训练,从而大幅减少计算和显存开销。与传统全参数微调相比,LORA 通过冻结原始模型参数,仅更新适配层参数,实现了轻量化训练。在涉及到矩阵相乘的模块,在原始的PLM旁边增加一个新的通路,通过前后两个矩阵A,B相乘,第一个矩阵A负责降维,第二个矩阵B负责升维,中间层维度为r,从而来模拟所谓的本征秩(intrinsic rank)。

2025-06-16 14:15:57 1105

原创 本地服务器部署deepseek模型测试一文全攻略

包括:大模型学习线路汇总、学习阶段,大模型实战案例,大模型学习视频,人工智能、机器学习、大模型书籍PDF。带你从零基础系统性的学好大模型!😝有需要的小伙伴,可以保存图片到。

2025-06-16 14:04:53 795

原创 如何基于ChatGLM3-6B+Lora构建基本法律常识大模型?

包括:大模型学习线路汇总、学习阶段,大模型实战案例,大模型学习视频,人工智能、机器学习、大模型书籍PDF。带你从零基础系统性的学好大模型!😝有需要的小伙伴,可以保存图片到。

2025-06-13 11:52:07 741

原创 大模型全析:本地化部署开源大模型ChatGLM3-6B

ChatGLM3-6B有3个参数可以设置。max_length:模型的总token限制,包括输入和输出的tokens。temperature:模型的温度。温度只是调整单词的概率分布。它最终的宏观效果是,在较低的温度下,我们的模型更具确定性,而在较高的温度下,则不那么确定。数字越小,给出的答案越精确。top_p:模型采样策略参数。每一步只从累积概率超过某个阈值 p 的最小单词集合中进行随机采样,而不考虑其他低概率的词。只关注概率分布的核心部分,忽略了尾部。

2025-06-13 11:49:27 931

原创 大模型学习路线(超全面!超详细!)收藏这一篇就够了!

近年来,深度学习技术的快速发展推动了大模型在学术界和工业界的广泛应用。大模型通常具有数亿到数十亿的参数,能够处理复杂任务,但也对计算资源和数据量提出了更高要求。学习大模型需要掌握深度学习基础、编程技能(如Python)、深度学习框架(如TensorFlow或PyTorch)以及特定领域知识(如自然语言处理、计算机视觉等)。此外,理论基础、实践经验和持续学习也是关键。大模型的出现得益于数据丰富性和计算资源的提升,尽管面临训练时间长、资源需求高等挑战,其在多个领域的卓越表现使其成为深度学习的重要方向。

2025-05-15 21:41:39 837

原创 大模型在智能客服领域的应用思考

大模型技术在智能客服领域的应用前景广阔,尤其是在呼入和呼出场景中展现了显著潜力。在呼入场景中,大模型可以通过生成相似问题库提升问答机器人的识别准确率,同时利用其主题抽取能力自动生成话务小结,减少人工操作,提高效率。此外,大模型还能通过生成提示性短语和增强检索功能,优化多轮对话的处理,提升客户体验。在呼出场景中,大模型可以根据用户属性标签定制个性化外呼策略,提升转化率。总体而言,大模型在智能客服中的应用有望显著降低运营成本,提升服务质量和效率。

2025-05-15 16:53:26 1052

原创 大模型技术:基于大模型构建本地知识库!

随着人工智能技术的进步,大模型在智能系统中扮演着关键角色,但在特定场景下仍面临响应速度和准确性的挑战。为此,构建基于大模型的本地知识库成为解决方案。本地知识库专注于特定领域,提供精确信息支持,通过数据采集、知识处理、检索与推荐引擎及Web展示层等模块,实现高效的知识管理和智能问答。利用大模型的语义理解和文本生成能力,结合检索增强生成(RAG)技术,本地知识库能够提升系统的智能性和效率。此外,Streamlit框架和LangChain接口的引入,进一步简化了开发流程,增强了系统的实时更新和自然语言处理能力。通

2025-05-15 15:39:48 1010

原创 或许是全网最全的 DeepSeek 使用指南,90% 的人都不知道的使用技巧

从 DeepSeek R1 发布那天开始,我就开始写文章介绍 DeepSeek,没想到这几天这么火爆了。不过我在翻看评论区时,发现很多朋友并没有很好的发挥出 DeepSeek R1 的潜能。朋友们,我真是着急啊。心急之下,赶紧写了这篇文章,教大家一些有用的技巧,并提供一些案例,来让 DeepSeek R1 成为咱们的得力干将。为照顾一些新手朋友,这里还是先说下在哪使用 DeepSeek,老手跳过这部分就行了。

2025-05-13 15:43:32 3687

原创 Open-WebUI上DeepSeek-R1本地部署全攻略:高效使用技巧

本文介绍了如何在Tesla P40显卡上部署DeepSeek-R1模型,由于该显卡不支持官方推荐的vllm、ollama和SGLang部署方式,作者选择使用fastapi编写接口服务,使老显卡重新发挥作用。文章详细说明了官方部署方式(适用于支持vllm的显卡)以及使用docker镜像安装open-webui的步骤。作者还分享了开发DeepSeek-R1服务API的关键代码,并提到流式输出时遇到的bug,最终通过屏蔽yield实现非流式返回。文末提供了大模型AGI-优快云独家资料包。

2025-05-13 15:17:11 1292

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除