- 博客(998)
- 收藏
- 关注
原创 大模型超详细盘点:常用的大模型及其优缺点、有潜力的大模型、国内大模型行业落地的现况、国内大模型优势、挑战与前景
包括:大模型学习线路汇总、学习阶段,大模型实战案例,大模型学习视频,人工智能、机器学习、大模型书籍PDF。带你从零基础系统性的学好大模型!😝有需要的小伙伴,可以保存图片到。
2025-06-13 11:35:38
396
原创 2025年国内8个常用AI大模型的适用性比较
在知识学习与内容创作方面它可以进行要素抽取、问题生成,帮助知识学习和内容创作领域产生更丰富更有用的智能体,结合外部知识进行合理拓展。用户可使用体验文档一键生成、AI撰写助手、多语种文档生成、AI 自动配图、多种模板选择、演讲备注等功能。通过提问获取生活常识、医学知识、政策解读等内容。讯飞星火会分析问题的前提条件和假设来推理出答案或解决方案,给出新的想法和见解。在科研任务中,它可以使用已有的数据和信息进行推断、预测和验证。它还可以解决方程求解、立体几何、微积分、概率统计等数学问题。在。
2025-05-15 17:07:02
1440
原创 如何使用大模型进行文本分类任务?
文本分类是自然语言处理(NLP)中的一项基础任务,应用范围从情感分析到内容分类。传统上,它需要大量的数据预处理、特征工程和模型训练。大型语言模型的出现彻底改变了这一过程,提供了一种强大且高效的替代方案。今天,我们将探讨如何使用大模型进行文本分类任务,并提供几个实际示例来展示如何实现它们。让我们看看如何使用大模型进行文本分类,并通过一些代码示例来说明。我们将通过OpenAI的GPT模型API展示二元分类和多类分类任务。
2025-05-15 16:38:04
817
原创 【LLM】大模型值得探索的十个研究方向,收藏这一篇就够了!
清华刘致远老师在知乎上的回答总结了大模型领域的三个主要研究方向。首先,大模型的基础理论问题探讨了大模型在Few/Zero-Shot Learning、In-Context Learning等方面的独特特性,并提出了What、How、Why三个核心问题,涉及大模型的学习内容、训练规律及其优越性的理论解释。其次,大模型的网络架构问题关注能否找到比Transformer更高效的网络框架,如非欧空间Manifold网络框架等新颖研究方向。最后,大模型的高效计算问题则聚焦于如何优化大模型的计算效率。这些研究为大模型的
2025-05-15 15:23:49
1208
原创 DeepSeek单条视频100万+播放:拆解可复制的爆款文案公式
作者通过新建立的视频号,借助DeepSeek热点,成功打造了一条百万播放量的爆款视频,带来了1.6万粉丝增长。文章详细拆解了视频的文案结构和成功因素,分享了作者自创的短视频公式,并利用DeepSeek进行二次分析,总结出可复制的爆款逻辑。作者强调,虽然爆款难以完全复制,但通过科学的思维和已验证的公式,可以逐步接近成功。文章还提供了大模型学习资料,帮助读者系统学习大模型相关知识。
2025-05-13 15:33:34
1418
原创 利用 RAGFlow 的 RAG 功能构建 Text2SQL Agent
Text2SQL 代理通过将自然语言转换为结构化查询语言(SQL),弥合了非技术用户与数据库之间的鸿沟。其主要优势包括:帮助非技术用户无需掌握SQL即可查询数据、提高SQL开发效率、减少手动编写查询时的错误、提升数据分析能力、支持自动化集成以及理解多种语言和表达方式。RAGFlow 基于 RAG 的 Text2SQL 解决方案利用现有的大型语言模型(LLM),无需额外微调,降低了部署和维护成本。其工作流程包括数据准备、配置知识库(如DDL、DB_Description、Q->SQL等)以及整合同义词库
2025-05-13 15:08:34
1457
原创 大模型微调实战指南:从零开始手把手教你微调大模型
本文手把手教你从零开始微调大模型,使用阿里魔塔社区提供的集成环境,无需高配置电脑,仅需浏览器即可完成。文章以零一万物的Yi开源大语言模型为例,详细介绍了账号和环境准备、模型下载、微调实战等步骤。通过LLaMA-Factory开源框架,用户可以轻松进行微调操作。文章旨在帮助读者了解大模型微调的基本流程,并提供了相关资源和工具,适合初学者入门。
2025-05-13 14:46:55
1253
原创 大模型高效微调-LoRA原理详解和训练过程深入分析
LoRA(Low-Rank Adaptation of LLMs)是一种参数高效微调方法,旨在通过低秩分解近似全参数微调的增量参数,从而减少显存占用和计算成本。其核心思想是在冻结预训练模型权重的基础上,将可训练的低秩矩阵注入到Transformer架构的每一层中,显著减少下游任务的可训练参数量。LoRA假设微调得到的增量参数矩阵是低秩的,通过低秩分解近似表示这些参数,既保持了模型性能,又在推理时不增加额外开销。具体实现中,LoRA将增量参数矩阵ΔW表示为两个低秩矩阵B和A的乘积,大幅减少了参数量。这种方法在
2025-05-13 14:26:29
1215
原创 大模型是什么?大模型可以在哪些场景应用落地?
大模型是什么?大模型是指模型具有庞大的参数规模和复杂程度的机器学习模型。在深度学习领域,大模型通常是指具有数百万到数十亿参数的神经网络模型。大模型是指模型具有庞大的参数规模和复杂程度的机器学习模型。在深度学习领域,大模型通常是指具有数百万到数十亿参数的神经网络模型。这些模型需要大量的计算资源和存储空间来训练和存储,并且往往需要进行分布式计算和特殊的硬件加速技术。大模型的设计和训练旨在提供更强大、更准确的模型性能,以应对更复杂、更庞大的数据集或任务。
2025-05-12 15:43:09
1122
原创 企业大模型微调项目落地实施中有哪些关键岗位角色?
企业大模型微调项目的成功实施依赖于多个关键岗位的协同合作。主要角色包括:项目经理负责整体规划与资源协调;数据工程师处理数据采集与清洗,确保数据质量;算法工程师负责模型微调与优化;开发工程师搭建和维护模型训练平台;产品经理沟通业务需求,指导模型优化;运维工程师确保模型的高可用性;业务专家提供业务领域知识支持;质量保证团队负责项目测试与验收。这些角色共同协作,确保大模型微调项目顺利落地并满足业务需求。
2025-05-12 14:52:22
753
原创 LLM大模型技术总结:RAG+Agent智能体
Prompt Engineering(提示词工程)是人与大模型交互的重要媒介,通过指令和内容两部分构成,帮助大模型完成任务。常见的Prompt类型包括Zero-shot、Few-shot、Role、Instruction、Chain-of-thought和Multimodal等,适用于不同场景。RAG(Retrieval-Augmented Generation)技术结合检索和生成,提升大语言模型在知识密集型任务中的性能。RAG通过索引、检索和生成三个阶段,利用外部知识库生成更准确、相关的回答,解决LLM的
2025-05-12 14:23:28
793
原创 大模型基础:基本概念、Prompt、RAG、Agent及多模态(非常详细)零基础入门到精通,收藏这一篇就够了
大模型(LLM)作为人工智能的核心技术,正在深刻改变我们的生活、学习和工作方式。本文从五个方面探讨了大模型的相关内容:1)LLM基础知识,包括其概念、发展历史及参数规模的影响;2)Prompt Engineering,介绍了提示词的设计原则与类型,如Zero-Shot、Few-Shot、思维链(CoT)等;3)RAG(检索增强生成)的应用;4)Agent的应用;5)多模态模型的发展。文章还提供了大模型AGI-优快云的独家资料包,帮助读者深入理解大模型的技术与应用前景。
2025-05-10 21:54:14
1216
原创 带你了解三种大模型的应用技术范式: Prompt、Agent、 RAG
大模型(LLM)是基于大量数据预训练的超大型深度学习模型,自2019年以来能力显著提升,OpenAI ChatGPT的发布是其发展的重要里程碑。当前大模型应用广泛,技术范式主要包括提示词工程、Agent和RAG三种。提示词工程通过优化输入提升模型响应效果,应用于Chatbot、角色扮演和NLP工具等场景。Agent技术则通过增强LLM的推理规划能力,实现复杂任务的自主执行,典型应用包括ChatGPT插件和Agent构建平台。RAG技术结合私有数据源,增强大模型的文本生成能力,应用于ChatPDF、培训助手等
2025-05-10 21:15:55
986
原创 一文读懂RAG和LLM微调,教你结合业务场景落地LLM应用
随着大型语言模型(LLM)应用的普及,开发者面临如何提升其性能的挑战。主要方法包括检索增强生成(RAG)和模型微调。RAG通过检索外部信息增强模型生成能力,适合需要动态数据源和透明度的场景;而微调则通过特定数据集调整模型权重,适合需要深度定制和稳定数据的任务。两者并非互斥,选择取决于应用需求,如是否需要外部数据、模型行为定制、抑制幻觉、数据动态性及可解释性等。通过评估这些因素,开发者可以更有效地选择适合的技术,提升LLM应用的性能和用户体验。
2025-05-10 14:55:53
879
原创 一文讲清楚检索增强生成(RAG)
检索增强生成是用从其他地方检索到的附加信息来补充用户输入到ChatGPT等大语言模型(large language model, LLM)的过程。然后,LLM可以使用该信息来增强其生成的回复。前排提示,文末有大模型AGI-优快云独家资料包哦!下图显示了它在实践中的工作原理:它从用户的问题开始。例如首先发生的是检索步骤。这是接受用户问题并从知识库中搜索可能回答该问题的最相关内容的过程。检索步骤是迄今为止RAG链中最重要、最复杂的部分。
2025-05-08 15:20:09
842
1
原创 基于Ollama与AnythingLLM搭建本地自己RAG知识库
上传完成后做将文档向量化并存储,处理结束后,便可开始问答,如图:Ollama:是一个轻量级可扩展的框架,它可以轻易地帮你管理本地的众多开源大模型,并支持众多的开源大模型,包括llama 3 、qwen2、gemma等,并允许用户自定义和创建自己的模型。开始搭建自己的知识库……1、配置说明要求:电脑配置,内存至少8GB,显存至少2GB(当然越高越好),硬盘至少60GB,CPU近几年电脑基本都能满足。本文所用电脑配置,CPU酷睿2G,4核;内存16GB,共享显存1.5GB,硬盘为2TB。2、环境说明。
2025-05-08 14:39:33
1060
原创 构建专属知识库:RAG实操教程结合LangChain与Milvus向量数据库
本文主要是 Milvus 向量数据实战总结。LLM 痛点以及解决方案RAG 是什么,为什么选用RAG。langchain文档加载器,chat model文档拆分的注意点,chat model区别。chat 示例代码。读者福利:如果大家对大模型感兴趣,这套大模型学习资料一定对你有用如果你是零基础小白,想快速入门大模型是可以考虑的。一方面是学习时间相对较短,学习内容更全面更集中。二方面是可以根据这些资料规划好学习计划和方向。
2025-05-08 14:20:24
1122
原创 手把手教学,零代码搭建你的个人RAG知识库
上面就是一个简单的利用Coze,不需要写任何一行代码就可以实现简单的个人知识库,这对于普通人来说是极大便捷的。当然它还有其他功能,通过添加插件可以实现“网页文章提取”、“ppt生成”、“图片生成”等等的功能,感兴趣的读者都可以去尝试一下,打造一个属于自己的AI小助理读者福利:如果大家对大模型感兴趣,这套大模型学习资料一定对你有用如果你是零基础小白,想快速入门大模型是可以考虑的。一方面是学习时间相对较短,学习内容更全面更集中。二方面是可以根据这些资料规划好学习计划和方向。
2025-05-08 13:55:44
912
原创 AI大模型企业知识库搭建秘籍
在AI大模型的赋能下,企业知识库正迎来前所未有的发展机遇。通过深入理解知识库的价值、选择合适的AI大模型、制定合理的建设步骤和策略以及持续优化和维护知识库,我们可以打造一个高效、智能、安全的企业知识库,为企业的发展提供有力支持。希望我的分享能够为您在企业知识库建设过程中提供有益的参考和帮助。读者福利:如果大家对大模型感兴趣,这套大模型学习资料一定对你有用如果你是零基础小白,想快速入门大模型是可以考虑的。一方面是学习时间相对较短,学习内容更全面更集中。二方面是可以根据这些资料规划好学习计划和方向。
2025-05-07 15:51:17
928
原创 怎么看AI大模型(LLM)、智能体(Agent)、知识库、向量数据库、知识图谱,RAG,AGI 的不同形态?
在 AI 人工智能时代,智能体将会是未来最主流的大模型应用方式?人人都有机会通过智能体,解锁成为【超级个体】。
2025-05-07 15:01:40
895
原创 AI 时代之下,如何构建企业专属的智能知识库?
想象一个由人工智能管理的强大数据库,它不仅存储信息,还能理解、分析和运用这些信息。这就是AI知识库——一个能够自我学习、不断进化的智能系统。
2025-05-07 14:44:18
893
原创 RAG知识库搭建:手把手教你从零搭建自己的知识库
Word2Vec是一种用于处理自然语言处理的模型,它是在2013年由Google的研究员Mikolov等人首次提出的。Word2Vec通过训练海量的文本数据,能够将每个单词转换为一个具有一定维度的向量。这个向量就可以代表这个单词的语义。因为这个向量是在大量语境中学到的,所以这个向量能很好的表达这个单词的语义。Word2Vec包括Skip-Gram和CBOW两种模型,主要是通过优化模型计算词与词之间的关系,从而获得词的向量表示。Skip-Gram模型是通过一个词预测其上下文。
2025-05-06 16:52:42
1549
原创 AI 时代之下,如何构建企业专属的智能知识库?
想象一个由人工智能管理的强大数据库,它不仅存储信息,还能理解、分析和运用这些信息。这就是AI知识库——一个能够自我学习、不断进化的智能系统。
2025-05-06 16:34:35
1057
原创 【AI大模型】一文带你速通RAG、知识库和LLM!
定制知识库是指一系列紧密关联且始终保持更新的知识集合,它构成了 RAG 的核心基础。这个知识库可以表现为一个结构化的数据库形态(比如:MySQL),也可以表现为一套非结构化的文档体系(比如:文件、图图片、音频、视频等),甚至可能是两者兼具的综合形式。
2025-05-06 15:27:14
821
原创 一文带你速通RAG、知识库和LLM!
定制知识库是指一系列紧密关联且始终保持更新的知识集合,它构成了 RAG 的核心基础。这个知识库可以表现为一个结构化的数据库形态(比如:MySQL),也可以表现为一套非结构化的文档体系(比如:文件、图图片、音频、视频等),甚至可能是两者兼具的综合形式。
2025-04-28 17:06:09
1161
原创 2025大模型面试八股(含100道答案)收藏这一篇就够了!
最近秋招正在如火如荼地进行中,看到很多人的简历上都包含大模型相关的工作,各家大厂和初创都很舍得给钱,动辄百万年包也变得不再稀奇。前排提示,文末有大模型AGI-优快云独家资料包哦!因此在大模型纵横的这个时代,不仅大模型技术越来越卷,就连大模型相关的岗位和面试也开始越来越卷了。本文总结了100道大模型算法岗常见的面试题(含答案),点击下方领取完整版:一、基础篇1、目前主流的开源模型体系有哪些?Transformer体系:由Google提出的Transformer 模型及其变体,如BERT、GPT 等。PyTo
2025-04-28 16:52:58
883
原创 AI大模型面试终极指南:答案揭晓,助你一臂之力!
AI 大模型技术经过2024年的狂飙,2025年必将迎来应用的落地,对 IT 同学来讲,这里蕴含着大量的技术机会,越来越多的企业开始招聘 AI 大模型岗位。本文梳理了 AI 大模型开发技术的面试之道,从等不同知识维度,试图找到一个共同的面试速成模式,希望对 IT 同学有所助益。
2025-04-28 16:31:38
814
原创 【2025年超全汇总】大模型常见面试题及详细答案解析
注意力机制是一种模拟人类注意力分配过程的模型,它能够在处理大量信息时,选择性地关注对任务更重要的信息,忽略无关信息。在自然语言处理中,注意力机制常用于机器翻译、文本摘要、问答系统等任务中,帮助模型捕捉输入序列中的关键信息。在计算机视觉中,注意力机制也用于图像识别、目标检测等任务,使模型能够关注图像中的关键区域。
2025-04-28 15:59:50
986
原创 大语言模型私有化部署和个性化调优的技术实践
本文介绍如何在不依赖任何三方服务的情况下,私有化部署和使用大语言模型,以及如何以较低成本让大语言模型使用自己的数据来产生个性化输出。
2025-04-28 15:42:41
921
原创 【玩转 GPU】本地私有化部署大模型--chatGLM
本文主要介绍ChatGLM-6B 的本地部署,提供更保姆级别的教程,让完全不懂技术的同学,也能在本地私有化部署大模型~在19年曾经尝试过使用GPT2进行代码补全,当时就被大模型效果惊艳到啊,只是没想到短短3年多,大模型效果提升这么快。学不完,根本学不完…大模型实在太火了,终于还是忍不住对它下手。今天介绍如何在本地部署大模型尝鲜,后面有时间会持续出大模型技术原理篇。大语言模型(Large Language Model),是一种人工智能模型,旨在理解和生成人类语言。
2025-04-27 14:49:21
562
原创 AI 入门,从零搭建完整 AI 开发环境,并写出第一个 AI 应用
在本文中,我们从零开始,一步步搭建了一个完整的AI开发环境,并创建了一个简单的AI应用。您学习了如何安装Python、Anaconda、TensorFlow,以及如何使用Jupyter Notebook进行开发。通过这个简单的手写数字识别应用,您不仅学习了AI的基本概念,还亲身体验了AI的应用。AI是一个广阔而充满机遇的领域,希望这个教程能够激发您继续深入学习和探索AI的兴趣。
2025-04-27 14:28:52
1139
原创 一文读懂大模型显存需求:从0.5B到70B,你的显卡够用吗?
大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。包括:大模型学习线路汇总、学习阶段,大模型实战案例,大模型学习视频,人工智能、机器学习、大模型书籍PDF。观看零基础学习书籍和视频,看书籍和视频学习是最快捷也是最有效果的方式,跟着视频中老师的思路,从基础到深入,还是很容易入门的。以大模型平台应用与开发为主,通过星火大模型,文心大模型等成熟大模型构建大模型行业应用。如果你是零基础小白,想快速入门大模型是可以考虑的。
2025-04-27 14:13:04
1290
原创 最全面的大模型私有化+精调:面向垂直行业与特定场景之需
大模型私有化(Model Private Deployment)指的是将预训练的大型人工智能模型(如GPT、BERT等)部署到企业自己的硬件环境或私有云平台上。与公有云服务或模型即服务(Model-as-a-Service)相比,私有化部署能够给企业带来更高级别的数据安全性和自主控制能力。对数据隐私和安全要求高、需要自主控制AI模型运行环境的企业而言,或者在特定地理位置因法律法规限制不能使用公有云服务的情况下,这种需求是确实存在的。
2025-04-27 13:50:28
563
原创 大模型微调技术有哪些?我敢说这是大模型微调最全总结!
大模型微调技术通常指的是在大型预训练模型的基础上,通过少量的参数调整来适应特定任务或领域的技术。这是大型模型微调中最常见的技术。在这种方法中,预训练模型的参数会根据特定任务进行调整。这通常涉及到在模型的顶部添加一个新的输出层,并针对新任务对模型进行训练。在这种方法中,预训练模型的底层被用作特征提取器,其顶层被替换或修改以适应新任务。底层模型的参数在微调过程中保持不变。在微调过程中,可以冻结预训练模型的部分层,只对模型的某些层进行训练。这有助于减少过拟合,并保持模型在原始任务上学到的知识。
2025-04-26 09:30:00
696
原创 一文了解什么是大模型?到底大模型有什么用呢?
这些模型通常由深度神经网络构建而成,拥有数十亿甚至数千亿个参数。大模型的设计目的是为了提高模型的表达能力和预测性能,能够处理更加复杂的任务和数据。大模型在各种领域都有广泛的应用,包括自然语言处理、计算机视觉、语音识别和推荐系统等。大模型通过训练海量数据来学习复杂的模式和特征,具有更强大的泛化能力,可以对未见过的数据做出准确的预测。
2025-04-26 09:00:00
788
原创 大模型私有化与精细调优,满足垂直行业与特定场景的定制化需求
大模型私有化(Model Private Deployment)指的是将预训练的大型人工智能模型(如GPT、BERT等)部署到企业自己的硬件环境或私有云平台上。与公有云服务或模型即服务(Model-as-a-Service)相比,私有化部署能够给企业带来更高级别的数据安全性和自主控制能力。对数据隐私和安全要求高、需要自主控制AI模型运行环境的企业而言,或者在特定地理位置因法律法规限制不能使用公有云服务的情况下,这种需求是确实存在的。
2025-04-25 15:37:01
768
原创 大模型本地部署,详细教程,私有化部署体验 Dify!
Dify是一个开源的 LLM 应用开发平台。其直观的界面结合了 AI 工作流、RAG 管道、Agent、模型管理、可观测性功能等,让您可以快速从原型到生产。前排提示,文末有大模型AGI-优快云独家资料包哦!AI大模型作为人工智能领域的重要技术突破,正成为推动各行各业创新和转型的关键力量。抓住AI大模型的风口,掌握AI大模型的知识和技能将变得越来越重要。学习AI大模型是一个系统的过程,需要从基础开始,逐步深入到更高级的技术。读者福利:如果大家对大模型感兴趣,这套大模型学习资料一定对你有用。
2025-04-25 15:17:17
930
原创 一文细数大模型 RAG 十二大痛点及解决方案
暑期实习基本结束了,校招即将开启。不同以往的是,当前职场环境已不再是那个双向奔赴时代了。求职者在变多,HC 在变少,岗位要求还更高了。最近,我们又陆续整理了很多大厂的面试题,帮助一些球友解惑答疑,分享技术面试中的那些弯弯绕绕。检索增强式生成(RAG)是一种使用检索提升语言模型的技术。具体来说,就是在语言模型生成答案之前,先从广泛的文档数据库中检索相关信息,然后利用这些信息来引导生成过程。这种技术能极大提升内容的准确性和相关性,并能有效缓解幻觉问题,提高知识更新的速度,并增强内容生成的可追溯性。
2025-04-25 14:55:48
982
原创 大模型RAG实战:RAG原理、应用与系统构建
大模型爆火后的RAG系统发展,大体可以将其分为3个阶段,初级、高级、超级。初级阶段更多的是搭建起系统的pipeline;高级阶段是在召回生成测修修补补,根据badcase反推流程上的优化技巧;超级对应了从Agentic RAG、RAG不存在了、多模态RAG、结构化RAG、GraphRAG、MemoryRAG等技术飞速发展的阶段。
2025-04-25 14:22:26
1200
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人