自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

Z__Danny的博客

有在学习呢,厚积薄发,大器晚成

  • 博客(58)
  • 收藏
  • 关注

原创 【Agent 设计模式与工程化】如何做出好一个可持续发展的agent需要考虑的架构

本文分享了Datawhale"动手学Agent应用开发"课程的笔记,重点解析了吕昭波老师提出的Agent架构框架。文章指出AI的三大原子能力是规划(Planning)、工具使用(Tool-use)和挖掘(Mining),并通过坐标系和矩阵思维拆解了Agent落地的关键维度:资源可用性、系统架构和企业ROI。作者特别强调了工程化思维在解决技术难题中的重要性,如通过RAG增强知识库或双模型博弈等方式来规避AI幻觉问题。整体而言,该课程提供了一个清晰的Agent开发框架,对企业级应用具有指导意

2025-09-21 19:31:47 379

原创 2025年AI保研复试八股文~专业+数学,这两天还在更新中

正交矩阵:=Orthogonal Matrix,是个方阵,他的行向量或列向量都得两两正交,每个向量长度都是1,构成一组标准正交基QTQI单位矩阵Q^TQ=I(单位矩阵)QTQI单位矩阵,下面为为什么结果会是单位矩阵的原因,其实就说对角线上的值就是列向量和列向量自己的内积,长度是1所以结果是1(因为内积是投影后的长度)正定矩阵:一定是对称矩阵(关于对角线对称),所有特征值都大于0,所有主子式(是从左上角向下框一个nxn方阵)都为正,一定可逆,且逆矩阵也是正定的。

2025-09-18 15:27:06 1036

原创 2025年7月24日腾讯对AI Coding的全面分析,7个非共识

本篇是对腾讯报告的笔记,整篇主要讨论了7个非共识(存在争议的点)大家看之前也可以自己思考一下,再看看腾讯的分析,就是下面这个报告。

2025-09-17 00:33:17 429

原创 task12~什么?你问我什么是好的LLM?那我们就来测一测啊

本文介绍了大语言模型(LLM)的评测框架与方法。评测通过标准化数据集和榜单对LLM在通用及特定领域(如金融、安全、法律、医疗等)的表现进行量化评估,旨在客观比较模型性能、发现潜在问题并促进技术交流。主流评测包括Open LLM Leaderboard等通用榜单,以及针对金融、法律等领域的专业评测集,由高校和科研机构开发,为模型优化和应用提供参考依据。

2025-09-09 16:08:31 327

原创 task11~如何用transformers框架进行开源LLM的pretrain+SFT(deepspeed分布式)、高效微调(adapt、prefix、lora微调)的流程

本文介绍了大模型训练流程中的主流框架与实践方法。首先指出自研训练系统的弊端,引出Hugging Face Transformers框架的核心优势:模块化模型构建、分布式训练封装和自动化管理。详细拆解了LLM训练流程:1)初始化模型和分词器;2)数据预处理(加载、分词、分块);3)配置训练参数;4)使用DeepSpeed进行分布式预训练;5)指令微调(SFT)。最后对比了适配器调优(Adapt Tuning)与LoRA等高效微调技术的特点,指出参数量与推理速度的权衡问题。全文通过Qwen-2.5-1.5B案例

2025-09-09 14:51:52 981

原创 看看百度在AI领域干了啥??佛系记录【该篇会持续更新....】

2025 WAVE SUMMIT 开发者大会聚焦百度AI生态发展,重点展示了ERNIE系列模型的兼容性与性能优化。在AI Coding领域推出"快码3.5S"智能IDE,采用多智能体协作开发模式。文心基座模型参数规模庞大,最小版本需80G A100单卡支持。虽然展示了行业合作案例,但核心关注点仍在技术生态构建与开发者工具优化上。

2025-09-09 11:15:45 276

原创 【LLM的后训练之对齐人类篇】SFT、RLHF(RM+PPO)、DPO task09

大语言模型训练一般分三阶段:预训练、SFT 和 RLHF/DPO。SFT(有监督微调)通过指令数据集让模型学会遵循人类指令,提升多轮对话和任务泛化能力。RLHF 通过人类反馈训练奖励模型(RM),再结合 PPO 强化学习,让模型输出更符合人类价值观,但训练复杂、显存需求高(4×7B 模型约需240G)。DPO 则作为 RLHF 的平替,直接利用偏好数据构造损失函数进行优化,省去奖励模型训练,效率更高。整体目标是让 LLM 从“能说话”进化到“说得好”,实现与人类更高层次的对齐。

2025-09-05 15:50:58 708 1

原创 【DW】LLM与PLM的区别?LLM是如何训出来的 task08?

(这是笔者自己的学习记录,仅供参考,愿 LLM 越来越好❤)由于篇幅较长,本篇会先讲如何做LLM的第一个阶段预训练,下一篇会讲后面的两个阶段。

2025-09-03 14:37:10 925

原创 【Datawhale之Happy-LLM】3种常见的decoder-only模型——Github最火大模型原理与实践教程task07

本文介绍了三种典型的Decoder-Only预训练语言模型(PLM):GPT、LLaMA和GLM。GPT系列通过增大模型规模实现性能突破,采用因果语言建模(CLM)任务;LLaMA系列由Meta推出,逐步优化架构和训练策略;GLM由清华大学团队开发,结合了CLM和MLM任务,在中文领域表现突出。这些模型均基于Transformer解码器架构改进,适用于文本生成任务。文章还对比了各模型的关键参数和性能演进,展现了PLM技术的发展路径。当前主流大语言模型多采用Decoder-Only结构,通过规模扩展和任务优化

2025-09-02 17:58:52 1241

原创 【Datawhale之Happy-LLM】T5 encoder-decoder——Github最火大模型原理与实践教程task06

T5(Text-To-Text Transfer Transformer)是Google提出的预训练语言模型,其核心思想是实现NLP任务的大一统处理方式。T5将所有NLP任务视为文本到文本的转换问题,通过预训练+微调范式实现。模型采用Encoder-Decoder架构,主要改进包括:1)使用编码器自注意力和解码器自注意力+编解码注意力;2)采用RMSNorm归一化方法稳定训练;3)基于大规模清洗的C4数据集(750GB)进行预训练,主要使用MLM任务。T5通过统一框架简化了不同NLP任务的处理,同时保持模型

2025-08-29 11:00:33 698

原创 【Datawhale之Happy-LLM】Encoder-only模型篇 task05精华~

本文介绍了预训练语言模型(PLM)的发展概况,重点分析了BERT模型。主流PLM包括BERT(Encoder-only)、GPT(Decoder-only)和T5(Encoder-Decoder),分别适用于不同NLP任务。BERT基于Transformer架构,采用预训练+微调范式,通过MLM(掩码语言模型)和NSP(下一句预测)任务学习双向语义表示。文章详细阐述了BERT的预训练任务、模型架构(包括Tokenizer、Embedding、Encoder等组件)、训练设置及微调方法。BERT的创新在于利用

2025-08-27 18:02:54 645

原创 【Datawhale之Happy-LLM】编解码器——Github最火大模型原理与实践教程task04精华

本文介绍了Transformer架构的核心概念与实现。Transformer是一种seq2seq模型,由编码器(Encoder)和解码器(Decoder)组成,核心组件包括注意力机制、层归一化和残差连接。首先通过Tokenizer将文本转换为token序列,再经过Embedding层转换为词向量并添加位置编码。编码器包含6个编码层,每个层有自注意力机制和前馈网络;解码器类似但增加掩码自注意力,并使用编码器输出作为输入。文章还提供了关键模块的代码实现,展示了Transformer的结构化设计。该架构通过并行计

2025-08-25 15:35:22 647

原创 【Datawhale之Happy-LLM】Github最火大模型原理与实践教程task03精华~我不相信看完你还不知道什么是Transformer的注意力机制

在NLP中的核心基础任务文本表示,从用统计方法得到向量进入用神经网络方法。而这个神经网络NN(Neural Network)确实从CV计算机视觉发展来的。1、FNN(全连接 Feedforward NN):顾名思义就是一层的每个神经元都和上下的每个神经元连接。(这是笔者自己的学习记录,仅供参考,原始学习链接,愿 LLM 越来越好❤)Task03-05:第二章 Transformer架构。Transformer架构很重要,需要分几天啃一啃。所以我们应该先了解一下神经网络的核心架构。

2025-08-21 17:01:13 207

原创 【Datawhale之Happy-LLM】Github最火大模型原理与实践教程task02精华~

自然语言处理(NLP)是让计算机理解和处理人类语言的技术,其发展经历了基于规则、统计方法到深度学习的演进。NLP 涉及的任务广泛,从基础的中文分词、子词切分、词性标注,到核心的文本分类、实体识别、关系抽取,以及更高级的文本摘要、机器翻译和自动问答。文本表示是 NLP 的关键环节,其方法也不断演进:从向量空间模型(VSM)到 N-gram 语言模型,再到 Word2Vec 低维稠密词向量,直至能根据语境动态生成词向量的 ELMo。这些方法逐步解决了数据稀疏、维度灾难和语义表达不足的问题。总体而言,NLP 的发

2025-08-21 01:06:48 361

原创 【保姆级教程~】如何在Ubuntu中装miniconda,并创建conda虚拟环境

本文记录了在Ubuntu虚拟磁盘(ext4.vhdx)中安装Miniconda的过程。由于Windows系统下安装会影响执行效率,作者选择将Miniconda安装在E盘的Linux文件系统内(路径为/home/danny/miniconda3)。关键点在于理解Linux文件系统在Windows中不可见,只能通过命令操作。安装步骤包括:1)下载安装脚本;2)安装到指定Linux路径;3)初始化conda;4)创建Python虚拟环境。整个过程展示了如何在WSL环境下正确配置Miniconda,并强调了Linu

2025-08-19 11:01:37 568

原创 【保姆级教程,亲测有效】如何将wsl Ubuntu从c盘丝滑移到e盘?

本文介绍了如何迁移WSL中的Ubuntu系统到新目录:1)先用wsl --shutdown关闭所有实例;2)通过wsl --export备份系统为.tar文件并注销原实例;3)在新位置用wsl --import导入系统并设为默认;4)最后启动验证数据完整性。整个过程包含详细命令和操作截图,成功将Ubuntu系统从原目录迁移到E盘新位置。

2025-08-19 10:48:07 322

原创 【Datawhale之Happy-LLM】Github最火大模型原理与实践教程task01精华~

本文介绍了NLP(自然语言处理)的研究内容,对比了PLM(预训练语言模型)和LLM(大语言模型)的区别,指出LLM在数据规模、参数量和训练策略上的改进使其具备涌现能力。同时推荐了Datawhale三个开源LLM学习项目:Self-LLM(部署教程)、LLM-Universe(应用开发)和Happy-LLM(原理实践)。作者感叹LLM让计算机通过参数学习人类语言的奇妙性。

2025-08-18 23:11:50 351

原创 【Leetcode Hot 100 题目精华解析2025】python自用 --128.最长连续序列

本文提出了一种O(n)时间复杂度的算法,用于求解最长连续序列问题。通过使用哈希集合存储数字实现O(1)查找,仅从连续序列的起点开始向后查找相邻数字,避免了重复计算。具体步骤包括:1)将数字存入集合去重;2)当发现某数的前驱不在集合中时,将其作为序列起点;3)向后查找连续数字并记录最大长度。该方法在保证线性时间复杂度的同时,空间复杂度为O(n)。测试用例验证了算法的正确性。

2025-08-08 08:54:24 292

原创 Datawhale AI夏令营——「基于CoT范式的DeepSeek模型蒸馏驱动数学推理解题优化挑战赛」的模型优化实践

{ “role”: “assistant”, “content”: “你可以试试 Sidecar,它以白兰地为主料…{ “role”: “assistant”, “content”: “当然,白兰地是一种用葡萄酒蒸馏制成的烈酒…{ “role”: “user”, “content”: “你知道什么是白兰地吗?{ “role”: “user”, “content”: “可以推荐一种鸡尾酒吗?“instruction”: “请给我一道鸡尾酒相关的数学题”,提升能力的两个方面:修改蒸馏的数据集 / 改微调参数。

2025-07-23 09:43:49 268

原创 【使用ffmpeg命令行解决剪映免费版转gif座机画质的问题】

打开电脑终端,查看ffmpeg版本。

2025-07-02 14:30:07 376

原创 unity实现播放多个mp4视频,并且通过button随机切换视频

总结,总体思路就是通过把rawimage变成一个显示屏,rendertexture是重要的渲染结果,vedioplayer把你的视频渲染到rendertexture上,然后通过脚本控制,实现随机选择一个视频进行渲染然后赋给rendertexture,再在rawimage上面播放。你必须设置vedioclip(在你的asset里已经转码了的视频,怎么转码在我另外一篇文章里),target texture(在asset里新建一个render texture,我是命名为clip,拖进来)这两个属性。

2024-05-06 13:47:41 2110 1

原创 【unity vedioplayer中clip怎么实现视频转码】

还有一个很奇怪的东西,就是正常我们把视频拖到StreamingAssets文件夹下对吧,但是放在这个文件夹下的视频却不可以在inspector面板里进行转码操作。(如果你把视频拖到别的文件夹,就会在inspector面板发现新大陆,居然可以进行操作了,如图二)但是当给对象添加vedioplayer组件的时候,会发现有两个添加视频的方式。1、以vedioclip的形式,是通过视频拖进去asset后unity进行”转码“生成的clip片段。2、以url的形式,是通过你本的工程文件夹中的链接获取视频。

2024-05-06 13:01:37 1119 2

原创 unity vedio player 的render texture是什么?

是Vedio player组件下的一个属性,可以把挂在Vedio player中的视频渲染在这个texture纹理中。在Unity中,是一种特殊的纹理类型,它可以用作渲染目标,即用于存储从相机渲染得到的画面。可以被用来实现各种效果,如后处理、反射、视频录制、实时视频反馈等。

2024-05-05 19:05:04 802

原创 unity 的wrap mode 是什么?3d最好选用repeat模式

在Unity中,纹理的Wrap Mode(包裹模式)决定了当纹理坐标超出了0到1的范围时,纹理如何表现。这通常发生在3D模型的纹理贴图重复时,或者在2D游戏中当精灵的UV超出了纹理边界时。以下是几种常见的Wrap Mode。

2024-05-05 18:57:56 3110

原创 unity快速做一个小房子

新建一个cube–>将scale设置成一个10,10,10,你将得到一个长宽和默认plane等大的立方体,然后按照自己的xyz轴调整压缩成墙面。(因为plane默认长宽10米,cube默认长宽高1米)新建一个plane–>将位置设为0,0,0。然后复制粘贴墙面即可。

2024-05-05 16:20:21 1656

原创 unity skybox

从左到右第个高亮,同时确保小箭头打开后的skybox前✔。

2024-05-05 16:02:55 343

原创 【unity fbx和prefab的区别】

fbx 文件一般是三维软件设计的模型导出格式,可再将其导入进Unity中来显示。在 Unity 中其图标如下:一个蓝色的立方块中有一页纸。

2024-05-05 15:44:21 753

原创 不是安装教程,但是是测试pyOpenGL安装好了吗的可用代码

在这之前要确保已经在python里导入OpenGL包了。

2024-03-19 12:07:59 301

原创 【立志3个月走进前端--CSS篇】

Q:为什么要学习css?–>因为HTML的局限性,丑,只关心有那个框架结构就好了;所以我们需要css来美化♣CSS–穿上花衣裳(样式)英文:cascading style sheets;中文:级联样式表css也是标记语言,与html类似,easy总之,要写结构用html;要写样式用css;实现二者分离,各司其职。

2023-12-09 20:26:33 996

原创 【立志三个月走进前端—html篇】

utf-8:包含所有国家的语言字符,任何国家都可以用!(最常用)gb2312:简体中文(包含6763个汉字)big5:繁体中文(港澳台)gbk:简体+繁体(国标k)避免乱码。

2023-12-09 15:05:03 1149

原创 【算法--枚举--二分查找】

算法--枚举--二分查找(二分法函数的代码+bisect的使用)

2023-12-07 16:33:41 661

原创 【python基础刷题--5.单词索引(程序设计基础期中)】

python基础刷题--5.单词索引(程序设计基础期中)--用到字典和解包

2023-12-06 20:35:44 1012

原创 【python基础刷题--4.第二个重复出现的数(程序设计基础期中)】

python基础刷题--4.第二个重复出现的数(程序设计基础期中)--涉及使用字典

2023-12-06 19:09:48 983

原创 【python基础刷题--3.调整(程序设计基础期中)】

python基础刷题--3.调整(程序设计基础期中)--maybe accepted(没用平台测试过)欢迎找反例

2023-12-06 13:17:07 1112

原创 【python基础刷题--5.图像旋转翻转变换】

python基础刷题--5.图像旋转翻转变换--待完善

2023-12-04 21:41:21 510

原创 【python基础刷题--5.DNA排序】

python基础刷题--5.DNA排序--稍微有点复杂

2023-12-04 21:14:35 482

原创 【python基础刷题--3.基因相关性】

python基础刷题--3.基因相关性--超简单

2023-12-04 19:56:31 553

原创 【python基础刷题--1.输出亲朋字符串】

python基础刷题--1.输出亲朋字符串--超简单

2023-12-04 19:40:18 605

原创 【python基础刷题--6.ISBN号码】

python基础刷题--6.ISBN号码--处理挺好的

2023-12-04 16:59:51 1229

原创 【python基础刷题--4.带通配符的字符串匹配】

python基础刷题--4.带通配符的字符串匹配--如果没想到用正则表达式就挺麻烦的了,虽然简单但是挺巧妙的

2023-12-04 16:17:30 1051

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除