- 博客(348)
- 收藏
- 关注
原创 手把手教会你搭建属于自己的智能体
本期为大家介绍如何搭建自己的智能体,本期用到的工具是扣子(Coze),Coze 是一个由字节跳动推出的 AI 开发平台,主要用于快速构建、调试和部署基于人工智能的对话机器人(Bot)和智能体(Agent)。它类似于其他低代码/无代码 AI 平台,但更注重灵活性和扩展性,支持用户通过可视化工具或代码深度定制 AI 应用。本期将演示如何通过Coze搭建地址标准化智能体,内容具体包括:注册Coze、以及。**、注册****Coze**在首页点击登录,填写手机号收验证码即可完成注册和登录。**、创建知识库**
2025-05-13 15:58:07
1141
原创 零基础Coze搭建AI智能体,王奶奶也能学会的保姆级教程(新手必备)
Coze是新一代 AI 应用开发平台,定位是零代码或低代码的AI开发平台。用户不需要编程基础,就能快速搭建出基于大模型的各类 AI项目,满足个性化需求、实现商业价值,比如聊天机器人、客服助手、私人助手、文案生成器等等。可以通过 API 或 SDK 将 AI 应用集成到你的业务系统中。国内版网址:www.coze.cn国外版网址:www.coze.com(需科学上网)
2025-05-13 15:57:32
1784
原创 一文图解Agent智能体:60张图、14个技术点回顾Agent的基本认知
要了解LLM agent是什么,首先来探索LLM的基本能力。传统上,LLM不过是一个接一个地进行下一个token预测。通过连续采样许多token,可以模拟对话,并使用LLM对问题给出更详细的答案。然而,当继续“对话”时,任何给定的LLM都会展示出它的一个主要缺点,它不记得对话。
2025-05-13 15:56:57
874
原创 一文带你了解大模型——智能体(Agent)
大语言模型很强大,就像人类的大脑一样拥有思考的能力。如果人类只有大脑,没有四肢,没有工具,是没办法与世界互动的。如果我们能给大模型配备上四肢和工具呢?大模型是不是就会打破次元壁,从数字世界走向现实世界,与现实世界实现梦幻联动呢?大语言模型(后文将用 LLM 指代)可以接受输入,可以分析&推理、可以输出文字\代码\媒体。然而,其无法像人类一样,拥有思考能力、运用各种与物理世界互动,以及拥有人类的能力。如果我们给 LLM 配备上:与物理世界互动的工具、记忆能力、规划思考能力。
2025-05-13 15:56:15
746
原创 智能体5级分类:从规则到大语言模型
智能体被定义为能够感知环境、做出决策并采取行动的人工实体。受汽车工程师协会(SAE)自动驾驶六级分类的启发,智能体也根据其功能和能力被划分为以下层级:L0——无 AI,具备工具(有感知能力)和行动;L1——使用基于规则的 AI;L2——用基于模仿学习(IL)/强化学习(RL)的 AI 替代基于规则的 AI,增加推理和决策能力;L3——应用基于大型语言模型(LLM)的AI 替代基于 IL/RL 的 AI,并设置记忆和反思功能;L4——在 L3 的基础上,实现自主学习和泛化能力;
2025-05-13 15:55:38
831
原创 一文带你了解RAG(检索增强生成)
在如今的大模型时代背景下,RAG 巧妙地引入非模型训练所使用的外部数据源,比如截止模型训练时使用的数据之后的更为实时的数据,或者是一些没有公开的内部数据等,为大模型赋予了更准确和更实时的信息检索实力,从而显著提升了信息查询和生成的答案的质量。Embeddings是将文字转换为向量编码,这些向量存储在向量数据库中,以便于于相似度计算和快速查找。当接收到用户输入时,AI会根据输入向量在数据库中找到最相似的向量,也就是相关的知识片段,随后,这些片段会与大模型的智慧相结合,为用户生成更精确和全面的回答。
2025-04-14 16:00:44
577
原创 大模型RAG中的分块策略
分块涉及将文本划分为可管理的单元或“块”,以实现高效处理。这种分割对于语义搜索、信息检索和生成式 AI 应用等任务至关重要。每个块都保留上下文和语义完整性,以确保结果连贯。
2025-04-14 16:00:10
957
原创 Neo4j + LangChain:如何构建基于知识图谱的最强RAG系统?
这个工作流程结合了许多步骤,而我在这里没有讨论所有步骤。然而,我承认,仅使用 LangChain 构建高级 GraphRAG 应用程序遇到了一些困难。通过使用 LangGraph 解决了这些困难。最让我沮丧的是无法在提示模板中引入所需的多个输入变量,并将该模板传递给 LangChain Expression Language 中的 Graph QA 链。起初,LangGraph 看起来需要大量的学习,但一旦你克服了这个障碍,它就会变得顺畅起来。未来,我会尝试将代理引入到工作流程中。
2025-04-14 15:58:45
1008
原创 大模型应用开发LangChain4j核心知识点和学习路线图
定义:RAG 通过在向 LLM 发送提示前检索并注入相关信息,减少失误,提升回答准确性。向量搜索:通过嵌入模型将文本转换为向量,基于余弦相似度匹配相关内容。混合搜索:结合向量搜索与关键词搜索(如 Azure AI Search 支持)。
2025-04-14 15:55:22
799
原创 来了!10个构建Agent的大模型应用框架
【引】Agentic AI 将引入一种以目标为导向的数字劳动力,这种劳动力能够自主制定计划并采取行动,是劳动力的延伸。—— Gartner随着生成式人工智能()的蓬勃发展,基于大型模型的应用已经悄然融入我们的日常工作和生活,它们在诸多领域中显著提升了生产力和工作效率。为了更便捷地构建这些基于大模型的应用程序,开源社区和产品开发者们正以前所未有的速度进行创新。在这些创新中,面向智能体()的应用,即所谓的,已经崭露头角,成为近年来生成式AI系统中最具潜力的明星。
2025-04-14 15:54:09
672
原创 必知!大模型时代超常用的训练、微调、推理、部署框架
PyTorch*:动态图优先的深度学习框架,以灵活性和研究友好性著称。:⭐️⭐️⭐️⭐️⭐️(适合快速原型开发)。:学术研究、模型实验、小规模训练。。:与Hugging Face、ONNX、TensorBoard集成,社区庞大。静域AI,赞2:高性能AI推理服务器,支持多框架、多硬件部署。:配置复杂,需管理模型仓库和YAML文件。:⭐️⭐️⭐️(适合生产环境专家)。:云/边缘推理服务、高吞吐在线服务。。:与NVIDIA生态(TensorRT、CUDA)深度绑定。:跨平台推理加速引擎,支持ONNX格式模型。
2025-04-14 15:53:28
988
原创 Spring Boot集成LangChain来实现Rag应用
LangChain 是一个用于开发由语言模型驱动的应用程序的框架。可以将 LLM 模型与外部数据源进行连接允许与 LLM 模型进行交互LLM 模型:Large Language Model,大型语言模型。
2025-04-01 11:59:41
1063
原创 一文学会基于LangChain开发大模型RAG知识问答应用
RAG全称是Retrieval-Augmented Generation,即检索增强生成。通俗来讲,就是在用户提的问题的基础上,引入相关资料信息,把“问题+相关资料” 一起给大模型,让大模型在参考资料的约束或提示下回答问题而不是随意发挥,从而期望大模型生成质量更高、更准确的答案,改善大模型”幻觉“、训练数据过时、 知识范围有限等带来的负面问题。在涉及到专业领域知识或企业内部知识的应用场景中,这项技术发挥着重要作用。相比于,RAG时间成本、经济成本和技术难度都更低。
2025-04-01 11:57:55
1033
原创 LangChain 大语言模型的新篇章
阿里妹导读本文介绍了LangChain框架,它能够将大型语言模型与其他计算或知识来源相结合,从而实现功能更加强大的应用。接着,对LangChain的关键概念进行了详细说明,并基于该框架进行了一些案例尝试,旨在帮助读者更轻松地理解LangChain的工作原理。引言近期,大型语言模型(LLM)如GPT系列模型引领了人工智能领域的一场技术革命。开发者们都在利用这些LLM进行各种尝试,虽然已经产生了许多有趣的应用,但是单独使用这些LLM往往难以构建功能强大的实用应用。
2025-04-01 11:57:14
698
原创 有史以来最详细的卷积神经网络(CNN)及其变体讲解!!!
卷积神经网络是多层感知机(MLP)的变种,由生物学家休博尔和维瑟尔在早期关于猫视觉皮层的研究发展而来,视觉皮层的细胞存在一个复杂的构造,这些细胞对视觉输入空间的子区域非常敏感,称之为感受野。
2025-04-01 11:56:41
804
原创 新手小白必看:大模型训练微调【Fine-tuning】详解(上)
一种是用Meta推出的Llama factory;另一种是用Unsloth这款工具;我们来看一下它们的之前的对比情况⬇️⬇️。
2025-03-19 15:35:24
1034
原创 微调碾压RAG?大模型意图识别工程化实践
检索增强生成(Retrieval-Augmented Generation,RAG)指的是在LLM回答问题之前从外部知识库中检索相关信息,RAG有效地将LLM的参数化知识与非参数化的外部知识库结合起来,使其成为实现大型语言模型的最重要方法之一早期的神经网络模型,在处理需要依赖外部知识或特定信息的任务时遇到了瓶颈。LLM的问题:幻觉、依赖信息过时、缺乏专业领域知识。RAG的提出,是为了解决如何将广泛的、分布式的外部信息库与生成模型相结合,从而提高模型在问答、摘要等任务中的性能和准确度。
2025-03-19 15:33:31
1098
原创 利用大模型构造数据集,并微调大模型
目前大模型的微调方法有很多,而且大多可以在消费级显卡上进行,每个人都可以在自己的电脑上微调自己的大模型。但是在微调时我们时常面对一个问题,就是数据集问题。网络上有许多开源数据集,但是很多时候我们并不想用这些数据集微调模型,我们更希望使用某本书、某个作者的作品、我们自己的聊天记录、某个角色的对话来微调模型。用于微调的数据通常是成千上万的问答对,如果手工搜集,需要花费大量时间。文本将介绍一种方式,利用大模型来构造自己的数据集,并使用我们构造的数据集来微调大模型。
2025-03-19 15:31:45
1192
原创 大模型怎么做好角色扮演?最大的真实数据集、SoTA开源模型、最深入的评估在这里
角色扮演 AI(Role-Playing Language Agents,RPLAs)作为大语言模型(LLM)的重要应用,近年来获得了广泛关注。无论是用于情感陪伴、故事创作、游戏中的 AI 角色,还是真人的数字分身,都需要模型能够准确捕捉和模拟特定角色的设定、个性和行为模式。特别是当扮演小说、动漫中的知名角色时,模型需要获取并利用关于这些角色的大量知识。然而,现有的角色扮演 AI 面临两大核心挑战:缺乏高质量的真实角色数据集,以及缺少有效的评估方法。
2025-03-19 15:30:07
942
原创 大模型系列之LLaMA Factory微调学习
本文介绍了使用LLaMA Factory进行微调的步骤,包括环境搭建、数据准备、参数配置、训练和效果评估等,最终成功微调模型并使用Ollama部署,提升了模型表现,达到了预期的效果。有一点感受是跟之前接触的安全实验不太一样:大多数的安全实验都是我打了这个Payload,就一定会出现确定的结果,不管是弹计算器还是反弹Shell,一切都是确定的。而大模型的训练往往充满了玄学成分,可能需要多实验几次才知道什么是最优参数。
2025-03-19 15:29:34
1818
原创 【大模型实战教程】LLaMA-Factory微调入门指南
随着自然语言处理技术的飞速发展,预训练语言模型已成为推动各种NLP任务进步的关键力量。对于我们每一个普通用户或者作为个人兴趣的开发者来说,从0开始训练一个大规模语言模型无疑是一件十分困难的事。那么我们是否有机会接触到真正的大模型训练呢?答案是有的,利用当下丰富的开源的预训练大模型资源,通过LoRA微调等技术,我们可以对现有的预训练大模型进行特定方向的调整。如果你也想经过微调训练出自己的“定制款”大模型,那么这篇教程将是你的不二之选。
2025-03-18 14:03:24
914
原创 字节内部热捧“7种大模型微调的方法笔记”,太完整了
随着 ChatGPT 的爆火,很多机构都开源了自己的大模型,比如清华的 ChatGLM-6B/ChatGLM-10B/ChatGLM-130B,HuggingFace 的 BLOOM-176B。当然还有很多没有开源的,比如 OpenAI 的 ChatGPT/GPT-4,百度的文心一言,谷歌的 PLAM-540B,华为的盘古大模型,阿里的通义千问,等等。
2025-03-18 14:02:42
1155
原创 基于PyTorch的大语言模型微调指南:Torchtune完整教程与代码示例
本文介绍了如何使用PyTorch的Torchtune库进行大型语言模型(LLM)的微调。Torchtune提供了一套简单、灵活、高效的工具和框架,使得研究人员和开发者能够轻松地对LLM进行调试、训练和部署。文章详细介绍了Torchtune的设计原则、核心概念和主要特性,并通过一个完整的实例演示了如何使用Torchtune微调LLaMA-2-7B模型。此外,文章还介绍了两种参数高效的微调方法:LoRA和QLoRA。
2025-03-18 14:01:49
894
原创 零基础入门,DeepSeek微调实战代码教程!
微调就像给一个**“学霸”补课,让它从“通才”变成某个领域的“专家”**。此处以本文进行微调的医学数据进行举例: 假设你有一个很聪明的朋友,他读过全世界的书(相当于大模型的预训练阶段),能和你聊历史、科学、文学等各种话题。但如果你需要他帮你看医学报告段),能和你聊历史、科学、文学等各种话题。但如果你需要他帮你看医学报告,虽然他懂一些基础知识,但可能不够专业。这时候,你给他一堆医学书籍和病例,让他专门学习这方面的知识(这就是微调),他就会变得更擅长医疗领域的问题。功能。
2025-03-18 14:00:26
320
原创 深入浅出大模型:预训练、监督微调、强化学习、RLHF
2025年年初随着DeepSeek的爆火,人们对LLM(Large Language Model,大语言模型)兴趣与日激增,很多人觉得LLM常常显得近乎魔法般神奇。接下来我们就来揭开LLM的神秘面纱。我想退一步,拆解一下LLM的基本原理——深入探讨这些模型是如何构建、训练和微调,最终成为我们今天所使用的AI系统的。这篇深入解析是我一直想做的,如果你有时间,本文绝对值得一看。
2025-03-12 14:40:17
1390
原创 为啥大模型按Tokens收费?和API调用、订阅收费区别?
最近流行炫耀自己花了多少Tokens有人说它是AI世界里的“数字货币”只因【大模型按Tokens收费】平台收费标准是每100万tokens,收费16块钱这么一算,我今早花了3分钱↓账单显示每个问题回答完毕后,自动显示你消耗了多少tokens嘿嘿,有意思吧人类每次和大模型沟通聊天、写作、预测…都会消费一些 Tokens这时候,很多人就疑惑了啥是tokens?如何收费?和传统的API调用、订阅收费,有啥区别?↓不是直接用字或单词来计量而是文本经过模型分词器切分后得到的最小单位。
2025-03-12 14:39:44
1194
原创 终于读懂了大模型、智能体、AIGC,零基础入门到精通,看这篇就够了!赶紧收藏!
这几天清华、北大、浙大等诸多高校都在发布deepseek使用手册,但是真正从底层逻辑讲清楚大模型、智能体、AIGC的只有厦门大学团队了。今天给小伙伴们分享一下。一、大模型概念1.1 大模型通常指的是大规模的人工智能模型,是一种基于深度学习技术,具有海量参数、强大的学习能力和泛化能力,能够处理和生成多种类型数据的人工智能模型。通常说的大模型的“大”的特点体现在:参数数量庞大、训练数据量大、计算资源需求高。
2025-03-12 14:39:14
1111
原创 一文搞懂七种大模型微调的方法,零基础入门到精通,看这篇就够了!赶紧收藏!
1️⃣ LoRA:轻盈低秩,微调新风尚LoRA,作为大模型微调领域的璀璨新星,以其独特的低秩逼近技术闪耀登场。通过在模型层间巧妙添加低秩矩阵,LoRA不仅精准捕捉任务精髓,还极大减轻了计算与存储负担。无需大刀阔斧,细微调整间尽显智慧光芒。2️⃣ Adapter-Tuning:小巧适配器,任务转换高手想象一下,给庞大的预训练模型装上一个个小巧的“适配器”,它们就是Adapter-Tuning的精髓所在。这些可学习模块无缝融入模型,让模型在保留原有智慧的同时,轻松驾驭新任务。
2025-03-12 14:38:23
1056
原创 终于把深度学习中的微调、提炼和迁移学习搞懂了!!从零基础到精通,收藏这篇就够了!
微调(Fine-tuning):通过在预训练模型的基础上进行小范围的训练,适应新任务。提炼(Distillation,知识蒸馏):通过将大模型的知识转移到小模型,优化模型的效率和存储。迁移学习(Transfer Learning):将一个任务上学到的知识应用到另一个相关任务,解决数据不足的问题。这三者在实际应用中常常结合使用,根据具体的任务需求选择合适的技术,可以显著提升深度学习模型的效果和效率。黑客/网络安全学习路线。
2025-03-12 14:37:32
968
原创 大语言模型(LLM)入门学习路线图_llm教程,从零基础到精通,理论与实践结合的最佳路径!
Github项目上有一个,它全面涵盖了大语言模型的所需的基础知识学习,LLM前沿算法和架构,以及如何将大语言模型进行工程化实践。这份资料是初学者或有一定基础的开发/算法人员入门活深入大型语言模型学习的优秀参考。这份资料重点介绍了我们应该掌握哪些核心知识,并推荐了一系列优质的学习视频和博客,旨在帮助大家系统性地掌握大型语言模型的相关技术。
2025-03-08 13:20:41
1098
原创 AI大模型工程师学习路线,从零基础到精通,理论与实践结合的最佳路径!
学习大语言模型(Large Language Model, LLM)需要结合理论知识和实践操作。:掌握线性代数(矩阵运算)、概率统计(贝叶斯、分布)、微积分(梯度相关)。:理解监督学习、无监督学习、损失函数、优化算法(如梯度下降)。:学习神经网络(CNN/RNN)、反向传播、正则化技术(如Dropout)。:熟练使用Python及科学计算库(NumPy、Pandas)。:掌握PyTorch或TensorFlow,熟悉张量操作和模型训练流程。
2025-03-08 13:20:09
1233
原创 大模型学习?别慌!我这有份独家私藏路线图,直接抄作业!
大模型学习之路, 道阻且长, 但只要你坚持下去, 一定会有收获。别忘了分享给身边的小伙伴!本路线图为你提供了学习大模型的全面指南, 从入门到进阶, 涵盖理论到应用。如果你懒得自己找资料, 我的路线图直接“抄作业”就对了!
2025-03-08 13:19:38
871
原创 结合全网大模型学习路线的优缺点,目前最详细的大模型0基础入门学习路线!
我对比过现在网络上公开的大模型入门学习路线,都没有像我这份路线图一样会详细到告诉你每个阶段应该学什么、具体学习什么内容、看什么教材、学习方法、包括每个阶段学习后的总结。也是因为我想要做的非常非常细致,构思打磨了很长时间,所以没有在答应大家的时间发布出来。,只希望大家看在我这么幸苦的份上给个三连支持一下就OK。因为我的这份路线图是定位零基础也能学的,所以阶段一是学习数学基础,包括线性代数、微积分、概率统计和优化方法,包括每部分的具体学习内容和推荐学习教材都有。
2025-03-08 13:19:11
818
原创 大模型学习方法之——大模型技术学习路线,从零基础到精通,理论与实践结合的最佳路径!
经验总结:定期回顾学习过程,总结技术要点和实战经验跨学科融合:探索大模型在其它领域(如金融,法律,医疗等)等应用,扩展知识广度如果用一句话总结就是,学习——实践——再学习——再实践。。
2025-03-08 13:17:42
949
原创 大模型的发展潜力有多大?零基础入门到精通,看这篇就够了!赶紧收藏!
将大模型“装”进手机、融入供应链,带到办公室和生产线……2024年以来,不少国产大模型已经踏上和实体产业相融合的新赛道,加速多场景落地。今年《政府工作报告》明确指出,持续推进 “人工智能+”行动,将数字技术与制造优势、市场优势更好结合起来,支持大模型广泛应用,大力发展智能网联新能源汽车、人工智能手机和电脑、智能机器人等新一代智能终端以及智能制造装备。“支持大模型广泛应用”首次被写入《政府工作报告》,为人工智能产业发展注入了强劲动力。
2025-03-07 19:09:15
909
原创 最新「大模型简史」整理!从Transformer(2017)到DeepSeek-R1(2025)
语言模型」是一种「人工智能系统」,旨在处理、理解和生成类似人类的语言。它们从大型数据集中学习模式和结构,使得能够产生连贯且上下文相关的文本,应用于翻译、摘要、聊天机器人和内容生成等领域。
2025-03-07 19:08:30
1328
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人