- 博客(58)
- 收藏
- 关注
原创 【Agent 设计模式与工程化】如何做出好一个可持续发展的agent需要考虑的架构
本文分享了Datawhale"动手学Agent应用开发"课程的笔记,重点解析了吕昭波老师提出的Agent架构框架。文章指出AI的三大原子能力是规划(Planning)、工具使用(Tool-use)和挖掘(Mining),并通过坐标系和矩阵思维拆解了Agent落地的关键维度:资源可用性、系统架构和企业ROI。作者特别强调了工程化思维在解决技术难题中的重要性,如通过RAG增强知识库或双模型博弈等方式来规避AI幻觉问题。整体而言,该课程提供了一个清晰的Agent开发框架,对企业级应用具有指导意
2025-09-21 19:31:47
378
原创 2025年AI保研复试八股文~专业+数学,这两天还在更新中
正交矩阵:=Orthogonal Matrix,是个方阵,他的行向量或列向量都得两两正交,每个向量长度都是1,构成一组标准正交基QTQI单位矩阵Q^TQ=I(单位矩阵)QTQI单位矩阵,下面为为什么结果会是单位矩阵的原因,其实就说对角线上的值就是列向量和列向量自己的内积,长度是1所以结果是1(因为内积是投影后的长度)正定矩阵:一定是对称矩阵(关于对角线对称),所有特征值都大于0,所有主子式(是从左上角向下框一个nxn方阵)都为正,一定可逆,且逆矩阵也是正定的。
2025-09-18 15:27:06
1036
原创 2025年7月24日腾讯对AI Coding的全面分析,7个非共识
本篇是对腾讯报告的笔记,整篇主要讨论了7个非共识(存在争议的点)大家看之前也可以自己思考一下,再看看腾讯的分析,就是下面这个报告。
2025-09-17 00:33:17
429
原创 task12~什么?你问我什么是好的LLM?那我们就来测一测啊
本文介绍了大语言模型(LLM)的评测框架与方法。评测通过标准化数据集和榜单对LLM在通用及特定领域(如金融、安全、法律、医疗等)的表现进行量化评估,旨在客观比较模型性能、发现潜在问题并促进技术交流。主流评测包括Open LLM Leaderboard等通用榜单,以及针对金融、法律等领域的专业评测集,由高校和科研机构开发,为模型优化和应用提供参考依据。
2025-09-09 16:08:31
327
原创 task11~如何用transformers框架进行开源LLM的pretrain+SFT(deepspeed分布式)、高效微调(adapt、prefix、lora微调)的流程
本文介绍了大模型训练流程中的主流框架与实践方法。首先指出自研训练系统的弊端,引出Hugging Face Transformers框架的核心优势:模块化模型构建、分布式训练封装和自动化管理。详细拆解了LLM训练流程:1)初始化模型和分词器;2)数据预处理(加载、分词、分块);3)配置训练参数;4)使用DeepSpeed进行分布式预训练;5)指令微调(SFT)。最后对比了适配器调优(Adapt Tuning)与LoRA等高效微调技术的特点,指出参数量与推理速度的权衡问题。全文通过Qwen-2.5-1.5B案例
2025-09-09 14:51:52
981
原创 看看百度在AI领域干了啥??佛系记录【该篇会持续更新....】
2025 WAVE SUMMIT 开发者大会聚焦百度AI生态发展,重点展示了ERNIE系列模型的兼容性与性能优化。在AI Coding领域推出"快码3.5S"智能IDE,采用多智能体协作开发模式。文心基座模型参数规模庞大,最小版本需80G A100单卡支持。虽然展示了行业合作案例,但核心关注点仍在技术生态构建与开发者工具优化上。
2025-09-09 11:15:45
276
原创 【LLM的后训练之对齐人类篇】SFT、RLHF(RM+PPO)、DPO task09
大语言模型训练一般分三阶段:预训练、SFT 和 RLHF/DPO。SFT(有监督微调)通过指令数据集让模型学会遵循人类指令,提升多轮对话和任务泛化能力。RLHF 通过人类反馈训练奖励模型(RM),再结合 PPO 强化学习,让模型输出更符合人类价值观,但训练复杂、显存需求高(4×7B 模型约需240G)。DPO 则作为 RLHF 的平替,直接利用偏好数据构造损失函数进行优化,省去奖励模型训练,效率更高。整体目标是让 LLM 从“能说话”进化到“说得好”,实现与人类更高层次的对齐。
2025-09-05 15:50:58
708
1
原创 【DW】LLM与PLM的区别?LLM是如何训出来的 task08?
(这是笔者自己的学习记录,仅供参考,愿 LLM 越来越好❤)由于篇幅较长,本篇会先讲如何做LLM的第一个阶段预训练,下一篇会讲后面的两个阶段。
2025-09-03 14:37:10
925
原创 【Datawhale之Happy-LLM】3种常见的decoder-only模型——Github最火大模型原理与实践教程task07
本文介绍了三种典型的Decoder-Only预训练语言模型(PLM):GPT、LLaMA和GLM。GPT系列通过增大模型规模实现性能突破,采用因果语言建模(CLM)任务;LLaMA系列由Meta推出,逐步优化架构和训练策略;GLM由清华大学团队开发,结合了CLM和MLM任务,在中文领域表现突出。这些模型均基于Transformer解码器架构改进,适用于文本生成任务。文章还对比了各模型的关键参数和性能演进,展现了PLM技术的发展路径。当前主流大语言模型多采用Decoder-Only结构,通过规模扩展和任务优化
2025-09-02 17:58:52
1241
原创 【Datawhale之Happy-LLM】T5 encoder-decoder——Github最火大模型原理与实践教程task06
T5(Text-To-Text Transfer Transformer)是Google提出的预训练语言模型,其核心思想是实现NLP任务的大一统处理方式。T5将所有NLP任务视为文本到文本的转换问题,通过预训练+微调范式实现。模型采用Encoder-Decoder架构,主要改进包括:1)使用编码器自注意力和解码器自注意力+编解码注意力;2)采用RMSNorm归一化方法稳定训练;3)基于大规模清洗的C4数据集(750GB)进行预训练,主要使用MLM任务。T5通过统一框架简化了不同NLP任务的处理,同时保持模型
2025-08-29 11:00:33
698
原创 【Datawhale之Happy-LLM】Encoder-only模型篇 task05精华~
本文介绍了预训练语言模型(PLM)的发展概况,重点分析了BERT模型。主流PLM包括BERT(Encoder-only)、GPT(Decoder-only)和T5(Encoder-Decoder),分别适用于不同NLP任务。BERT基于Transformer架构,采用预训练+微调范式,通过MLM(掩码语言模型)和NSP(下一句预测)任务学习双向语义表示。文章详细阐述了BERT的预训练任务、模型架构(包括Tokenizer、Embedding、Encoder等组件)、训练设置及微调方法。BERT的创新在于利用
2025-08-27 18:02:54
645
原创 【Datawhale之Happy-LLM】编解码器——Github最火大模型原理与实践教程task04精华
本文介绍了Transformer架构的核心概念与实现。Transformer是一种seq2seq模型,由编码器(Encoder)和解码器(Decoder)组成,核心组件包括注意力机制、层归一化和残差连接。首先通过Tokenizer将文本转换为token序列,再经过Embedding层转换为词向量并添加位置编码。编码器包含6个编码层,每个层有自注意力机制和前馈网络;解码器类似但增加掩码自注意力,并使用编码器输出作为输入。文章还提供了关键模块的代码实现,展示了Transformer的结构化设计。该架构通过并行计
2025-08-25 15:35:22
647
原创 【Datawhale之Happy-LLM】Github最火大模型原理与实践教程task03精华~我不相信看完你还不知道什么是Transformer的注意力机制
在NLP中的核心基础任务文本表示,从用统计方法得到向量进入用神经网络方法。而这个神经网络NN(Neural Network)确实从CV计算机视觉发展来的。1、FNN(全连接 Feedforward NN):顾名思义就是一层的每个神经元都和上下的每个神经元连接。(这是笔者自己的学习记录,仅供参考,原始学习链接,愿 LLM 越来越好❤)Task03-05:第二章 Transformer架构。Transformer架构很重要,需要分几天啃一啃。所以我们应该先了解一下神经网络的核心架构。
2025-08-21 17:01:13
207
原创 【Datawhale之Happy-LLM】Github最火大模型原理与实践教程task02精华~
自然语言处理(NLP)是让计算机理解和处理人类语言的技术,其发展经历了基于规则、统计方法到深度学习的演进。NLP 涉及的任务广泛,从基础的中文分词、子词切分、词性标注,到核心的文本分类、实体识别、关系抽取,以及更高级的文本摘要、机器翻译和自动问答。文本表示是 NLP 的关键环节,其方法也不断演进:从向量空间模型(VSM)到 N-gram 语言模型,再到 Word2Vec 低维稠密词向量,直至能根据语境动态生成词向量的 ELMo。这些方法逐步解决了数据稀疏、维度灾难和语义表达不足的问题。总体而言,NLP 的发
2025-08-21 01:06:48
361
原创 【保姆级教程~】如何在Ubuntu中装miniconda,并创建conda虚拟环境
本文记录了在Ubuntu虚拟磁盘(ext4.vhdx)中安装Miniconda的过程。由于Windows系统下安装会影响执行效率,作者选择将Miniconda安装在E盘的Linux文件系统内(路径为/home/danny/miniconda3)。关键点在于理解Linux文件系统在Windows中不可见,只能通过命令操作。安装步骤包括:1)下载安装脚本;2)安装到指定Linux路径;3)初始化conda;4)创建Python虚拟环境。整个过程展示了如何在WSL环境下正确配置Miniconda,并强调了Linu
2025-08-19 11:01:37
568
原创 【保姆级教程,亲测有效】如何将wsl Ubuntu从c盘丝滑移到e盘?
本文介绍了如何迁移WSL中的Ubuntu系统到新目录:1)先用wsl --shutdown关闭所有实例;2)通过wsl --export备份系统为.tar文件并注销原实例;3)在新位置用wsl --import导入系统并设为默认;4)最后启动验证数据完整性。整个过程包含详细命令和操作截图,成功将Ubuntu系统从原目录迁移到E盘新位置。
2025-08-19 10:48:07
321
原创 【Datawhale之Happy-LLM】Github最火大模型原理与实践教程task01精华~
本文介绍了NLP(自然语言处理)的研究内容,对比了PLM(预训练语言模型)和LLM(大语言模型)的区别,指出LLM在数据规模、参数量和训练策略上的改进使其具备涌现能力。同时推荐了Datawhale三个开源LLM学习项目:Self-LLM(部署教程)、LLM-Universe(应用开发)和Happy-LLM(原理实践)。作者感叹LLM让计算机通过参数学习人类语言的奇妙性。
2025-08-18 23:11:50
351
原创 【Leetcode Hot 100 题目精华解析2025】python自用 --128.最长连续序列
本文提出了一种O(n)时间复杂度的算法,用于求解最长连续序列问题。通过使用哈希集合存储数字实现O(1)查找,仅从连续序列的起点开始向后查找相邻数字,避免了重复计算。具体步骤包括:1)将数字存入集合去重;2)当发现某数的前驱不在集合中时,将其作为序列起点;3)向后查找连续数字并记录最大长度。该方法在保证线性时间复杂度的同时,空间复杂度为O(n)。测试用例验证了算法的正确性。
2025-08-08 08:54:24
292
原创 Datawhale AI夏令营——「基于CoT范式的DeepSeek模型蒸馏驱动数学推理解题优化挑战赛」的模型优化实践
{ “role”: “assistant”, “content”: “你可以试试 Sidecar,它以白兰地为主料…{ “role”: “assistant”, “content”: “当然,白兰地是一种用葡萄酒蒸馏制成的烈酒…{ “role”: “user”, “content”: “你知道什么是白兰地吗?{ “role”: “user”, “content”: “可以推荐一种鸡尾酒吗?“instruction”: “请给我一道鸡尾酒相关的数学题”,提升能力的两个方面:修改蒸馏的数据集 / 改微调参数。
2025-07-23 09:43:49
268
原创 unity实现播放多个mp4视频,并且通过button随机切换视频
总结,总体思路就是通过把rawimage变成一个显示屏,rendertexture是重要的渲染结果,vedioplayer把你的视频渲染到rendertexture上,然后通过脚本控制,实现随机选择一个视频进行渲染然后赋给rendertexture,再在rawimage上面播放。你必须设置vedioclip(在你的asset里已经转码了的视频,怎么转码在我另外一篇文章里),target texture(在asset里新建一个render texture,我是命名为clip,拖进来)这两个属性。
2024-05-06 13:47:41
2110
1
原创 【unity vedioplayer中clip怎么实现视频转码】
还有一个很奇怪的东西,就是正常我们把视频拖到StreamingAssets文件夹下对吧,但是放在这个文件夹下的视频却不可以在inspector面板里进行转码操作。(如果你把视频拖到别的文件夹,就会在inspector面板发现新大陆,居然可以进行操作了,如图二)但是当给对象添加vedioplayer组件的时候,会发现有两个添加视频的方式。1、以vedioclip的形式,是通过视频拖进去asset后unity进行”转码“生成的clip片段。2、以url的形式,是通过你本的工程文件夹中的链接获取视频。
2024-05-06 13:01:37
1118
2
原创 unity vedio player 的render texture是什么?
是Vedio player组件下的一个属性,可以把挂在Vedio player中的视频渲染在这个texture纹理中。在Unity中,是一种特殊的纹理类型,它可以用作渲染目标,即用于存储从相机渲染得到的画面。可以被用来实现各种效果,如后处理、反射、视频录制、实时视频反馈等。
2024-05-05 19:05:04
802
原创 unity 的wrap mode 是什么?3d最好选用repeat模式
在Unity中,纹理的Wrap Mode(包裹模式)决定了当纹理坐标超出了0到1的范围时,纹理如何表现。这通常发生在3D模型的纹理贴图重复时,或者在2D游戏中当精灵的UV超出了纹理边界时。以下是几种常见的Wrap Mode。
2024-05-05 18:57:56
3110
原创 unity快速做一个小房子
新建一个cube–>将scale设置成一个10,10,10,你将得到一个长宽和默认plane等大的立方体,然后按照自己的xyz轴调整压缩成墙面。(因为plane默认长宽10米,cube默认长宽高1米)新建一个plane–>将位置设为0,0,0。然后复制粘贴墙面即可。
2024-05-05 16:20:21
1656
原创 【unity fbx和prefab的区别】
fbx 文件一般是三维软件设计的模型导出格式,可再将其导入进Unity中来显示。在 Unity 中其图标如下:一个蓝色的立方块中有一页纸。
2024-05-05 15:44:21
753
原创 【立志3个月走进前端--CSS篇】
Q:为什么要学习css?–>因为HTML的局限性,丑,只关心有那个框架结构就好了;所以我们需要css来美化♣CSS–穿上花衣裳(样式)英文:cascading style sheets;中文:级联样式表css也是标记语言,与html类似,easy总之,要写结构用html;要写样式用css;实现二者分离,各司其职。
2023-12-09 20:26:33
996
原创 【立志三个月走进前端—html篇】
utf-8:包含所有国家的语言字符,任何国家都可以用!(最常用)gb2312:简体中文(包含6763个汉字)big5:繁体中文(港澳台)gbk:简体+繁体(国标k)避免乱码。
2023-12-09 15:05:03
1149
原创 【python基础刷题--4.第二个重复出现的数(程序设计基础期中)】
python基础刷题--4.第二个重复出现的数(程序设计基础期中)--涉及使用字典
2023-12-06 19:09:48
983
原创 【python基础刷题--3.调整(程序设计基础期中)】
python基础刷题--3.调整(程序设计基础期中)--maybe accepted(没用平台测试过)欢迎找反例
2023-12-06 13:17:07
1111
原创 【python基础刷题--4.带通配符的字符串匹配】
python基础刷题--4.带通配符的字符串匹配--如果没想到用正则表达式就挺麻烦的了,虽然简单但是挺巧妙的
2023-12-04 16:17:30
1051
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅