自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(46)
  • 收藏
  • 关注

原创 深度学习入门 Task03

实践方法论核心在于系统化诊断问题,从训练误差入手逐步排查模型选择不应盲目追求复杂度,而要以泛化性能为最终标准解决问题不靠单一技巧,数据质量与领域知识永远比调参更重要。

2025-08-05 18:27:40 471

原创 深度学习入门 Task02 线性模型

多个ReLU/Sigmoid节点串联成多层网络即为神经网络多层神经网络也称为深度学习(隐藏层越多=越深)历史经典网络 (ImageNet 数据集):AlexNet (2012, 8层, 16.4%错误率)VGG (2014, 19层, 7.3%错误率)GoogleNet (22层, 6.7%错误率)ResNet (152层, 3.57%错误率)网络层数越深,表达能力越强,但更需防范过拟合总结与启示。

2025-08-05 16:36:33 537

原创 3.3 Decoder-Only PLM

datawhale ai 共学。

2025-08-03 23:08:56 1065

原创 3.2 Encoder-Decoder PLM

T5 用“文本 ➜ 文本 + 指令前缀”把零散的 NLP 任务熔成单一框架;其 Encoder-Decoder 架构兼顾理解与生成,Span-Corruption 预训练让模型同时获得双向表征和自回归能力。自 2020 以来,直接启发了 FLAN-T5、PaLM2 的多任务指令化训练,为后续 LLM 的奠定统一接口。

2025-08-03 18:38:13 968

原创 3.1 Encoder-only PLM

datawhale ai 共学。

2025-08-03 12:03:28 687

原创 第八章:PyTorch生态简介 学习笔记

datawhale ai 共学。

2025-08-03 01:00:41 645

原创 第七章:PyTorch可视化 学习笔记

架构(summary) ↘卷积核(grid) → torchinfo / make_grid / matshow特征图(hook) ↗↘训练过程(tb) → SummaryWriter → tensorboard↗实验对比(wb) → wandb.init / log / sweep。

2025-08-03 00:24:48 690

原创 第六章:PyTorch进阶训练技巧

"""Note: output/target 任意形状,但 dtype 必须可做减法。"""关键别用mean()自带广播且免于手动除;该函数不会被注册到,因此一般在训练循环里直接。"""每 `drop_every` epoch ×0.5"""train(...)

2025-08-02 21:00:02 649

原创 第五章 PyTorch模型定义

场景典型写法优点局限或最短代码,一行顶多行;自动串行forward只能按固定顺序前向;不方便插入分支/多输入;“可迭代层列表”,支持动态循环、重复结构仍需手写forward,无法自动注册子层顺序名字可读,利于按键访问 / 条件分支与ModuleList相同,需要自己控制执行逻辑# ---------- ① Sequential:完全按顺序 ----------seq_net = nn.Sequential( # 自动生成 forward;最省事。

2025-08-02 16:15:01 1768

原创 Python Task07 · Strings

理解 Python 字符串的本质(不可变序列)、常用操作与最佳实践;掌握文本处理常见套路。仅解析字面量(数字、字符串、列表、字典、布尔、预处理 + 切片翻转 = O(n) 简洁实现。会执行任意 Python 表达式 →。优先 f-string 做格式化;字符串不可变 → 任何“修改”本质上是。→ 程序员调试视图,展示转义字符。拼接大量片段时,优先使用列表累积后。三引号字符串保留内部换行;掌握切片三参 & 反向索引。:校验口令复杂度时直接。,避免 O(n²) 复制。ROT-13 示例通过。

2025-07-28 11:23:39 724

原创 Python · Loops Task06

在这儿比递归更 Pythonic、也无递归深度风险。对于双层循环,是否可以把内层拆成函数并提前返回?实战范例:文件处理、欧几里得算法、蒙特卡洛 π。可视化变量与指针,很适合初学者理解嵌套迭代。:循环过程中始终满足的条件,用来推理正确性。让循环早点转到下一轮,配合“守卫式”典型二维遍历:矩阵、笛卡尔积、暴力枚举。能否通过调整循环条件提前过滤?仅占 48 B(CPython),或在进入内层前过滤无意义外层元素。性能剪枝:从“暴力”到“准暴力”:自增索引、队列、随机采样结果…循环与“状态驱动”模式。

2025-07-28 11:10:58 806

原创 wow-rag 第五章-流式部署 Task05

param=你好");如果需携带,选择 Fetch 方案,自行设置headers:{}

2025-07-24 10:02:18 1048

原创 深入浅出PyTorch Task02

datawhale AI 共学。

2025-07-22 08:50:24 701

原创 Chapter 6 深度学习基础 Task03

datawhale AI 共学。

2025-07-22 03:05:39 1054

原创 2.3 Transformer 模型搭建 Task 05

datawhale AI共学。

2025-07-22 02:18:05 2093

原创 Python Task05 · Conditionals 笔记

datawhale AI 共学:把握分支控制的语义与风格细节,让代码既正确又易读。

2025-07-22 02:03:21 451

原创 wow-rag | 最脏最累的文档管理 Task04

掌握了索引动态增删与底层结构巡检的核心操作,为后续在线知识库更新、权限隔离、数据治理奠定基础。查 → 删 → 增 → 存;更新不支持就“删后再增”。这一节没有模型、没有 fancy UI,纯粹体力活。但是决定了 RAG 的上限。

2025-07-22 01:45:53 1619

原创 Agent入门 3.1 CAMEL框架简介 Task03

with_task_specify” = 把 fuzzy idea → concrete brief (自动需求澄清)。:Prompt-layer 角色注入 + Tool calling + Memory + Reasoning hooks。CAMEL 把 LLM 推向“组织体”范式:从独立聊天到可编排、可审计、多角色协同的智能劳动力。层级架构把“大任务 → DAG”。= planning / critic loops → 强化任务完成度。把 LLM 装进“安全链铐”,却保持创造力 —— 输出可控具体。

2025-07-20 23:49:51 392

原创 Happy-LLM Task04 Encoder-Decoder

datawhale AI 共学。

2025-07-20 09:02:28 937

原创 Python Task04 · Variables & Functions

datawhale AI 共学命名、赋值、作用域、return、函数组合。

2025-07-20 01:12:13 912

原创 RAG 入门 Task03 初步体验问答引擎

改 llama-index 源码后 restart,否则 import cache。支持 AND / OR 逻辑、数值比较、原生 Qdrant Filter。调太大——噪声 > 信息,大模型更易 hallucinate。冷启动变热启动,调参不必反复算 embedding。:向量不稳,正式环境用智谱/千问 Embedding。,把「文本 → 向量 → 检索 → 生成」跑通。:模型、索引、向量库目录分清,相对/绝对。对多标签知识库非常友好,召回精度提升。—— 证据 + 相似度。看返回长度,验证链路。

2025-07-20 01:02:10 315

原创 强化学习入门 4\5章免模型预测免模型控制 Task02

在实际项目中,常先用 TD(λ) 或 n-步 TD 获得迅速可行的价值估计,再引入函数逼近与策略优化,逐步过渡到完整控制流程。:在 λ↑ 1 时逼近 MC,在 λ=0 时回到 TD(0),形成偏差-方差调节轨。免模型:MC、TD(λ)、Sarsa、Q-learning、DQN、PPO。有模型:Dyna-Q、MuZero、PlaNet、DreamerV3。经典循环:Sarsa 中每步更新 Q = 预测;:采样完整回合,取回报平均近似 V(s)或 Q(s,a)目标:预测仅估计价值,控制需优化策略。

2025-07-20 00:06:52 929

原创 深入浅出PyTorch 第一二章 Task01

TPU/NPU 架构图:硬件约束直接形塑深度学习算法,未来可能反向驱动模型设计走向“compute-aware”。已经成了学术圈的既成事实:截至 2021-06 统计,公开代码库数量 ≈ TensorFlow × 4。权重,甚至评审时会先问“有没有 PyTorch 复现”——被动强制迁移。理解:形状不足的轴在运算时虚拟复制,代价是显存→∞,实战中要。:三段式 NFU (乘-加-激活),运算流紧凑;:多进程多卡,梯度 all-reduce,显存均衡;,JAX-style 编译或许是终点。

2025-07-19 02:33:00 903

原创 Happy-LLM 2.1 注意力机制 Task02

1.1 注意力机制(Attention):为输入不同部分分配不同权重,模拟“聚焦关键信息”。1.2 提出背景:RNN/LSTM 串行、长依赖难题 → 需并行且能捕捉全局关系的新架构。9.1 Attention 把“记忆”问题转化为“检索”问题,逻辑更接近信息检索。2.3 Value(V):值向量,被加权汇总的实际信息。2.1 Query(Q):查询向量,表示当前关注点。投影 → 不同头学习不同语义/位置关系,表示更丰富。2.2 Key(K):键向量,标识所有候选信息。缓和高维点积导致梯度不稳定。

2025-07-19 02:02:13 313

原创 Agent 入门 Task02 2.7 Tools

大模型本身无法实时访问外部世界——不能查天气、不能联网获取数据库等实时数据,也不能做真正的“操作”。

2025-07-18 21:00:58 290

原创 AI 办公实践应用 进阶上 Task02

你是一名书法爱好者,写钢笔,现在创作一幅作品,送给朋友,作品纸有长(14)*宽(8)个格子,于是你希望用文本大模型找一首16行的七言古代诗歌(一行7个字),内容积极向上、充满乐观。尝试一下,完成这项任务。R1 ⟷ Qwen 2.5-Max,对齐即相对真。“数据源→论点→余量” 表格化;找不到,考虑下位替代放宽条件,节选。最终没找到,只给出节选,维基文库。:偏离用户指令 or 上下文。首先找到相似进一步确认条件。

2025-07-18 17:42:55 943

原创 推荐系统入门 Task02

但在数据稀疏 → 向量化 → 深度模型的演进链条中也暴露了可扩展性和冷启动瓶颈。加权汇总邻居评分 → 预测 r^u,i\hat{r}_{u,i}实际系统常对热门物品 / 活跃用户做惩罚,避免“头部效应”相似矩阵规模只与物品数相关,扩展性优于 UserCF。对用户已交互物品集合做相似度加权 → 预测未知物品。简单惩罚往往能显著缓解头部倾斜,比盲目调参更有效。、用户量巨大的平台 → 稀疏 & 存储压力明显。召回与精确率天然冲突,需根据业务 KPI 权衡。社交感强,易产生“惊喜元素”。场景(电影、音乐)。

2025-07-18 16:26:57 905

原创 机器学习吃瓜教程 Task01 一二章概览

评估协议即科学方法:划分不当 = 泄露信息 → 虚高结论。k 折 vs. Bootstrap:样本够大用 10-fold;样本稀缺用自助,关注包外估计。指标决定行为:类别极不均衡时应锁定 Recall@固定 FPR,而非总体 ACC。显著性检验不是多余:5×2cv paired t-test 专为折间相关性设计,远优于 naïve t-test。偏差-方差示意曲线:DQN 训练后期分数抖动,佐证方差上升,应早停或正则化。

2025-07-17 00:10:46 867

原创 强化学习入门 第一二三章 Task01

状态空间 𝒮:环境可观测信息的全集。动作空间 𝒜:智能体可执行操作集合。转移概率 𝒫(s′∣s,a):给定 (s,a) 达到 s′ 的条件概率分布。奖励函数 ℛ(s,a,s′):执行 a 后收到的标量回馈。折扣因子 γ:调节短期与长期收益的权重,γ→1 强调远期目标。两章内容。“为什么选 RL”与“用什么数学模型描述 RL”。理论与实践隔着采样效率、函数逼近稳定性、奖励设计;实验中应持续记录参数敏感性与调试手段。

2025-07-16 23:42:26 590

原创 深度学习Leedl 1.1 Task01

目标:量化「模型预测 ≠ 真实值」的痛感。常用公式MAE⇢ 抗离群,梯度恒 1/-1,训练稳定。MSE⇢ 放大大误差,适合“严重 miss 罚重”业务。误差表面 (Error Surface)(w,b) 采样 → 画等高线。红=差,蓝=好。可视化验证直觉:若 valley 大体沿w≈1,说明前一天对第二天确实贡献 ~100%。Reflection真实运营里,更 careMAPE或SMAPE,因为“百分比”对比跨频道更公平。损失 ≠ 报告指标;可用 MSE 训练后再用 SMAPE 汇报。

2025-07-16 23:09:07 689

原创 Happy-LLM Task02

NLP 的发展路径体现了从手工规则到统计概率再到神经网络的明显进化趋势,背后核心驱动力是数据规模与算力的提升。文本表示技术的改进,是 NLP 性能突破的根本原因。上下文动态表示(如 ELMo 和后续 Transformer 模型)逐渐成为主流。尽管深度学习在 NLP 中占据统治地位,但如何在效率与效果之间寻求平衡,或结合符号方法进行混合建模,仍是值得思考的问题。语言的理解需要综合考虑语义、语境甚至文化背景,单一模型或单一技术路径可能无法彻底解决,未来研究仍需多维度突破。

2025-07-16 10:25:02 848

原创 RAG入门 Task02 正式上路搞定模型

利用openai-like或自定义llm/embedding类,封装大模型的调用流程,使其适配任意openai风格API。自定义OurLLM/OurEmbedding类可以做到:完全自控API参数与底层行为兼容所有需要llama_index风格接口的上层工具可后续扩展,便于调试和日志监控但自定义openai-like接口的方案。

2025-07-16 09:13:45 661

原创 RAG入门 Task01 手搓一个土的掉渣的RAG

datawhale AI 共学。

2025-07-16 00:50:19 919

原创 OpenAI官方智能体框架 Task01 第一二节

实现结构化多轮智能体的最小闭环API & 密钥管理:.env/密钥隔离 → client 构建。Prompt 工程:结构化模板 → 明确属性分层 → 多轮意图切换。输出解析:正则清洗 + 多轮回退。场景落地:批阅、简历、注册/查询/删除等皆可通用。反复迭代与测试:形成标准化开发链路,助力工业级 Prompt 生产力。

2025-07-15 23:18:10 635

原创 Agent入门 Task01 第一章环境配置

用 LLM 角色扮演技术自动串联工程实现的每一步,适合复杂、需要多轮交流的场景(如量化策略、数据管道、AI 系统设计等)。“Prompt template + strict role separation + turn-based protocol” → 实现 LLM 输出行为的可控性与确定性(尤其适合科研、工程自动化)。技术选型。

2025-07-15 22:36:39 1006

原创 10分钟快速手搓AI小应用 Task123笔记打卡

Datawhale AI 共学基本没有难度,跟着教程走加了额外提示音和进度条,效果不错井字棋AI生成容易出各种bug,各种调试。进阶 补完代码进阶p5.js 是一个基于 JavaScript 的开源创意编程库,旨在使编程变得更加易于访问和有趣,尤其适合艺术家、设计师、教育工作者和初学者。

2025-07-15 18:55:29 275

原创 推荐系统入门 Task01 第一章 推荐系统概述

参与方主要痛点推荐系统作用平台 (电商、视频等)流量利用率低,树形导航断流建立网状入口,提升曝光与变现效率信息生产者 (商家/创作者)长尾内容难曝光、冷启动门槛高提供多路曝光,激励持续供给信息消费者 (用户)信息过载、选择困难个性化过滤+意外惊喜,提高黏性核心定位:在供给与需求之间构造一条高效的匹配管道——既节约用户注意力,也优化平台收益。

2025-07-15 12:58:55 293

原创 AI 办公(初级)学习总结笔记

AI办公 Datawhale 2025summer

2025-07-15 10:49:10 654

原创 斯坦福CS336 lecture_08.py 学习笔记

Datawhale 2025 summer 共学斯坦福CS336

2025-07-15 10:21:44 737

原创 MCP极简开发 Task02 第二、三章笔记

Datawhale 2025summer 共学《MCP极简开发》

2025-07-15 08:58:37 639

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除