自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(47)
  • 资源 (1)
  • 收藏
  • 关注

原创 支持向量机(SVM)深度解析:从最大间隔到核技巧的完整指南

周志华《机器学习》第六章“支持向量机”是机器学习领域的经典算法,核心优势在于强大的泛化能力和对非线性问题的优雅解决。其设计思想可概括为:在特征空间中找到最优分离超平面,通过核技巧将非线性问题转化为线性问题,再通过软间隔缓解过拟合。本章内容层层递进,从线性可分到非线性、从硬间隔到软间隔、从分类到回归,本文将从“核心概念→公式拆解→代码实现→习题解答”四个维度,用通俗例子和直观推导,帮你吃透SVM的设计逻辑与工程实践。SVM的本质是“找到能分隔两类数据的最优超平面”,而“最优”的标准是最大化间隔——这是SVM泛

2025-11-27 10:23:32 223

原创 神经网络深度解析:从神经元到深度学习的进化之路

周志华《机器学习》第五章“神经网络”是连接传统机器学习与深度学习的桥梁——它从模拟人脑神经元的基本模型出发,逐步构建多层网络,核心突破是BP算法的提出,最终延伸到深度学习的核心思想。本章的核心逻辑是:通过“神经元加权求和+激活函数”构建基本单元,用多层结构拟合非线性关系,靠BP算法优化参数,再通过不同网络拓扑适应不同任务。本文将从“基础模型→核心算法→代码实现→习题解答”四个维度,用通俗比喻和实例拆解第五章的核心知识,帮你吃透神经网络的设计原理与工程实践。神经网络的最小单元是神经元,源于1943年提出的M-

2025-11-24 11:49:49 755

原创 InnoCore AI:基于多智能体协作的智能科研助手实践

InnoCore AI 是我们在智能科研助手领域的一次探索和实践。通过多智能体协作、PDF 深度解析、智能引用校验等技术,我们实现了科研全流程的自动化。

2025-11-23 23:02:01 976

原创 决策树深度解析:从“分而治之”到工程落地的完整指南

GainratioDaGainDaIVaGainratioDaIVaGainDa​其中“固有值”IVaIV(a)IVa(衡量属性aaaIVa−∑v1V∣Dv∣∣D∣log⁡2∣Dv∣∣D∣IVa−v1∑V​∣D∣∣Dv∣​log2​∣D∣∣Dv∣​解读:属性aaa的取值越多,IVaIV(a)IVa。

2025-11-21 19:20:23 726

原创 HelloAgents 旅行规划助手:从零到一的完整实战教程

创建// 旅行表单数据: string// 地理位置// 景点信息category?: string: number// 餐饮信息: string: number// 酒店信息location?: Location: string: number// 单日行程hotel?: Hotel// 天气信息// 预算信息// 旅行计划budget?: Budget// API响应data?: TripPlan1. 单一职责原则# ✅ 好的设计。

2025-11-20 17:15:47 954

原创 第十章深度解析:复杂场景下的智能体系统设计与落地——从多智能体协作到行业级应用

第十章作为《Hello-Agents》的“高级落地篇”,实现了从“单一智能体框架”到“复杂智能体系统”的跨越。本章跳出了单一智能体的范式局限,聚焦大规模智能体协作、复杂任务拆解、行业场景定制化、系统级容错优化四大核心主题,提供了从架构设计到行业落地的完整解决方案。无论是多智能体协同完成工业生产调度,还是金融领域的智能风控系统,本章都给出了可落地的设计思路与代码实现。本文将从核心思想、模块拆解(公式+代码)、课后习题全解三个维度,带大家吃透复杂智能体系统的设计逻辑与落地要点。第十章的核心价值在于回答“如何将智

2025-11-18 22:49:20 811

原创 第七章深度解析:从零构建智能体框架——模块化设计与全流程落地指南

第七章作为Hello-Agents的“框架构建核心篇”,跳出了单一范式的局限,聚焦“从零打造可扩展、可复用的智能体框架”。本章的核心价值在于教会开发者从“使用框架”升级为“创造框架”,通过模块化设计理念,拆解智能体的核心组件(模型调用、工具管理、记忆系统、工作流引擎),最终实现一个兼具灵活性与稳定性的基础框架。本文将从框架设计理念、核心模块拆解(代码+公式)、课后习题全解三个维度,带大家吃透智能体框架的构建逻辑,掌握“造轮子”的核心能力。第七章构建的智能体框架,本质是“将智能体的核心能力拆分为独立模块,通过

2025-11-16 22:22:08 1204

原创 # 线性模型深度解析:从“线性关系”到“分类与正则化”的完整逻辑链

周志华《机器学习》第三章“线性模型”是机器学习的“基石章节”——它不仅是最简单、最直观的模型,更是后续复杂模型(如神经网络、SVM)的基础思想来源。本章的核心逻辑的是:通过“线性组合特征”构建模型,解决回归、分类问题,并通过正则化避免过拟合。本文将跳出原文的公式罗列,从“问题本质→公式推导→实例验证→代码实现→习题解答”五个维度,帮你彻底吃透线性模型的设计思想与应用逻辑。线性模型的核心是**“特征的线性组合 + 偏置项”**,用于描述输入特征与输出目标的线性关系。比如用“房屋面积(x)”预测“房价(y)”,

2025-11-15 10:00:00 913

原创 第四章深度解析:智能体经典范式实战指南——从ReAct到Reflection的全流程拆解

第四章通过三个经典范式,构建了智能体“从决策到落地”的完整技术链条:ReAct 解决“动态环境中的步进决策”,Plan-and-Solve 解决“结构化任务的高效执行”,Reflection 解决“高质量输出的迭代优化”。三者并非互斥,而是可根据场景灵活组合,形成更强大的混合架构。代码实现的核心是“模块化封装”——LLM客户端提供通用调用能力,工具层提供与外部世界交互的接口,范式层实现核心决策逻辑,这种分层设计确保了智能体的可扩展性和可维护性。

2025-11-14 19:57:01 797 2

原创 第三章深度解析:智能体“大脑”的底层逻辑——大语言模型技术基石全拆解

第三章的核心是“揭秘LLM的底层逻辑”——从统计语言模型的概率计算,到Transformer的注意力机制,再到实际应用中的提示工程、分词、模型选型,每一个知识点都是构建智能体“大脑”的关键。理解这些原理,能帮助我们更好地设计提示词、选择合适的模型、规避幻觉等局限,为后续智能体的构建和优化打下坚实基础。LLM的本质是“通过海量数据学习语言规律和世界知识,再通过自回归生成文本”,而Transformer架构则是实现这一本质的核心载体。

2025-11-12 23:02:03 1200

原创 从入门到精通:周志华《机器学习》第一、二章深度解析

机器学习》前两章的本质是“建立机器学习的思维框架”:第一章定义了“什么是机器学习”“学习的核心逻辑”(假设空间搜索+归纳偏好),第二章解决了“如何判断模型好坏”(科学的评估方法+性能度量)。这两章的知识是后续所有算法学习的基础——无论学习决策树、神经网络还是SVM,都离不开“泛化能力”“过拟合”“误差评估”这些核心概念。

2025-11-12 16:36:02 899

原创 Hello-Agents第二章深度解析:智能体的进化之路——从符号逻辑到AI原生

第二章的核心价值在于构建了“问题驱动进化”的认知框架——每一代智能体范式的诞生,都是为了解决上一代的核心局限。从符号主义的“规则编码”到心智社会的“分布式协作”,再到强化学习的“试错学习”和LLM的“预训练-微调”,智能体的进化始终围绕“如何更高效地获取知识、如何更灵活地适应环境、如何更自主地解决问题”三大核心问题。通过本章的学习,我们理清了智能体的历史脉络,更能理解现代LLM驱动智能体的技术选型逻辑——它并非单一技术的突破,而是符号主义、联结主义、行为主义等多流派的深度融合。

2025-11-10 19:20:24 1177

原创 Hello-Agents第一章深度解析:智能体的本质、构建与实践

能够通过传感器感知环境、自主通过执行器采取行动,以达成特定目标的实体。环境(Environment):智能体所处的外部场景,比如自动驾驶的“道路交通”、交易算法的“金融市场”、智能旅行助手的“航旅服务网络”。传感器(Sensors):感知环境的“触角”,可以是物理设备(摄像头、雷达),也可以是虚拟工具(API返回数据、用户输入)。例如旅行助手通过解析航旅API获取机票信息,就是传感器在工作。

2025-11-09 21:24:50 888 2

原创 用AI点亮乡村课堂:从Datawhale秋训营到《诗词里的山河》实践

乡村语文教师的痛点,远比想象中具体:备课要花3小时搜集诗词背景资料,想给学生展示“大漠孤烟直”的意境却没有图片素材,批改40份诗词练习题要占用整个晚自习……这些重复、低效的工作,让教师难以聚焦“点燃学生兴趣”的核心教学目标。在秋训营学习多模态模型应用时,我们发现:大语言模型对文本的深度解析能力,能解决“诗词解析耗时”的问题;文生图模型的视觉生成能力,能填补“意境可视化”的空白;而异步任务调度与实时反馈技术,能让教师从等待中解放出来。

2025-10-28 14:05:27 783

原创 1小时吃透PyTorch核心:从入门到多GPU训练,小白也能落地的实战指南

训练数据:5个样本,每个样本2个特征# 训练标签:3个0类,2个1类# 自定义Dataset类# 存数据和标签# 取第index个样本one_x = self.features[index] # 单个样本的特征one_y = self.labels[index] # 单个样本的标签# 数据集总长度# 初始化训练数据集print(len(train_ds)) # 输出5 → 5个样本Dataset__init__(存数据)、(取单个样本)、__len__(数据集长度)。数据层。

2025-10-21 22:13:01 464

原创 大语言模型训练后优化:从方法对比到性能本质的深度拆解

训练后优化的核心目标是“补预训练的短板”:预训练让模型“会说话”,SFT、Online RL、DPO让模型“说好话、说对的话”;方法选择看“需求和成本”:简单需求选SFT,长期优化选Online RL,精准修错选DPO;性能保持的关键是“别逼模型跳能力圈”:Online RL之所以少掉性能,本质是在模型原有能力基础上优化,而SFT可能强行改变模型认知。到这里,下次你遇到“该用哪种优化方法”的问题,对照这篇内容就能快速判断啦!

2025-10-19 09:30:00 916

原创 在线强化学习实战:用GRPO提升模型数学能力

因为要优化数学能力,我们用“对比答案是否正确”的可验证奖励。用正则表达式提取模型回复中\boxed{}里的答案(提前用系统提示让模型把答案放这里);对比提取的答案和标准答案(ground truth),对就给1分,错就给0分。# 系统提示:让模型按格式输出答案# 1. 提取模型回复中\boxed{}里的内容contents = [match.group(1) if match else "" for match in matches] # 没匹配到就为空# 2. 对比标准答案,给奖励。

2025-10-18 20:31:20 716

原创 监督微调(SFT)入门:从理论到动手实践

SFT 是给大模型“上课”的过程。简单来说,就是用少量高质量的“提示(Prompt)-响应(Response)”数据集,对预训练好的大模型进行定向优化。预训练数据量巨大(万亿级),目标是学习通用语言规律;SFT 数据量小(几千到上亿),目标是学习特定任务(如数学解题、代码生成)或规范模型行为。训练快、成本低,能快速让模型掌握基础指令能力。SFT 是 LLM 从“通用语言理解”走向“指令遵循”的关键桥梁。通过的实践,我们完成了 SFT 的理论认知、环境准备、数据加载、参数配置、模型训练和效果验证。

2025-10-16 21:00:00 2076

原创 学透DPO:从理论到实践,手把手改模型身份

定位:不用复杂奖励模型,靠正负样本就能调模型行为的“轻量优化方法”;优势:改行为(如换身份)高效,还能提升模型能力,比SFT更懂“偏好”;落地关键:数据要高质量(正负样本对比明确),超参数(尤其是β)要调好,避免过拟合;实践价值:小到改模型身份,大到优化安全响应,都能用,而且计算成本不高(小模型CPU也能跑流程)。一句话:想让模型“按你的偏好做事”,又不想搞太复杂,DPO就是首选——这也是它在LLM后训练里越来越火的原因。

2025-10-16 16:12:53 958

原创 大语言模型后训练:解锁潜能的关键路径

后训练是大模型从 “通用” 到 “实用” 的关键桥梁,其核心价值在于以更低成本优化模型的场景适配能力。三种主流方法(SFT、DPO、Online RL)各有优劣,需结合数据资源、任务需求选择;同时需重视 “数据 - 算法协同”“评估体系” 等关键要素,避免陷入 “单一能力提升而综合性能下降” 的误区。后续将逐一介绍SFT、DPO、ORL的具体实践细节。

2025-10-13 11:25:38 804

原创 Learning representations by back-propagating errors

摘要: 《Learning representations by back-propagating errors》是1986年发表在《Nature》上的奠基性论文,提出了反向传播算法。该研究解决了早期神经网络的瓶颈问题:单层感知器无法处理线性不可分问题,而伪隐藏单元缺乏自主学习能力。作者设计了一种通用的前馈分层网络结构,通过Sigmoid激活函数和梯度下降优化,实现了误差从输出层向输入层的反向传播。核心贡献包括:1)推导了总误差公式和权重调整规则;2)验证了算法在镜像对称性检测等任务中的有效性;3)探索了算

2025-08-26 09:14:34 565

原创 THE PERCEPTRON: A PROBABILISTIC MODEL FOR INFORMATION STORAGE AND ORGANIZATION IN THE BRAIN

感知机是一个模拟神经系统信息处理的“假设性机器”,其设计目标不是复刻生物细节,而是提炼智能系统的通用特性,因此与生物系统的类比是直观的。

2025-08-08 21:33:12 1209

原创 A Logical Calculus of the Ideas Immanent in Nervous Activity(神经网络早期的M-P模型)

McCulloch和Pitts的《A Logical Calculus of the Ideas Immanent in Nervous Activity》(1943)是神经科学与逻辑学的奠基性论文。该研究提出神经元活动的"全或无"特性可转化为命题逻辑(真/假),并建立了神经网络与逻辑表达式的等价关系。作者定义了5个神经生理假设(如固定阈值、绝对抑制等)和时间命题表达式(TPE),证明无循环网络的行为完全可用TPE描述(定理1-3),并揭示了不同神经机制(相对/绝对抑制、消退等)在功能上

2025-08-07 10:56:13 706

原创 Computing Machinery and Intelligence

过度乐观?图灵低估了“常识与世界知识”的体量。现代LLM参数量已超10¹¹,仍难言通过严格图灵测试。可证伪性?图灵测试本质是黑箱行为主义,忽视内部机制;Searle“中文屋”思想实验正是针对此。性别与伦理早期游戏用“男女角色扮演”如今看存在刻板印象,可改用更中性设定。ESP插曲虽显幽默,却提示:测试环境必须排除信息泄露与人类超能力。工程启示图灵70年前已提出“预训练+微调”范式(儿童机→教育),与今日GPT pretrain+RLHF同构。

2025-08-06 15:58:41 1114

原创 大模型发展历程

比如,要计算 “我爱学习” 这句话出现的概率,就得算出 “我” 出现的概率、“爱” 在 “我” 后面出现的概率、“学习” 在 “爱” 后面出现的概率,然后把这些概率乘起来。它能预测下一个词是什么,也能生成像模像样的句子。:假设我们有 “学生打开书”、“学生打开笔记本” 这两句话,如果要算 “学生打开考试” 这句话的概率,发现 “打开考试” 这个组合没出现过,那就可以用平滑方法,给 “打开考试” 也分配一点概率。举个例子,输入 “今天天气很”,语言模型就能预测下一个词可能是 “好”、“晴朗” 之类的词。

2025-03-07 21:05:15 1207

原创 Transformer学习 | task5 项目实践

本代码是一个用PyTorch实现的Transformer模型,用于机器翻译任务。它将中文句子翻译成英文句子。首先,我们定义了一些简单的中英文句子对,以及对应的词汇表::中文输入句子,是占位符,用于固定长度。:英文输入句子,是开始符。:英文输出句子,是结束符。(2)词汇表我们将中文和英文单词分别映射为数字索引:2. 数据预处理(1)将句子转换为数字索引我们使用一个函数将句子转换为数字索引,并生成编码器、解码器的输入和输出:(2)自定义数据集我们创建了一个自定义的数据集类,用于加载数据:

2025-02-24 23:51:26 1227

原创 Transformer | 大白话讲解Decoder

想象一下,你正在教一个小孩学说话。小孩一开始说话的时候,可能会说错很多词,比如他想说“我吃苹果”,结果说成了“我吃香蕉”。如果一直让他自己说下去,他可能会越说越离谱,比如“我吃香蕉,香蕉是红色的,红色的香蕉很好吃……”这就完全不对了。为了避免这种情况,你可以用“Teacher Forcing”。就是每次小孩说错的时候,你直接告诉他正确的词,让他接着说下去。比如他一开始说“我吃香蕉”,你就马上纠正他:“不对,是苹果。”然后让他接着说:“苹果是……”这样他就能一直跟着正确的方向学。

2025-02-19 23:36:53 1501

原创 transformer学习| Encoder

今天开始学习DataWhale组队学习fun-transformer,今天学习task3 Encoder部分!【教程地址】【开源地址】自注意力(Self Attention)是 Transformer 架构中的核心组成部分,其主要功能是捕捉序列内部各元素之间的依赖关系。自注意力机制允许序列中的每个元素(如单词或特征向量)与序列中的所有其他元素进行交互。这一过程涉及为每个元素生成查询(Query)、键(Key)和值(Value)三个向量。

2025-02-15 18:39:23 1116

原创 transfomer学习|大白话讲解transformer 简述

今天开始学习DataWhale组队学习fun-transformer,今天学习task2 transformer 简述!【教程地址】【开源地址】你有个朋友,他特别厉害,能听懂你说的话,还能用另一种语言把意思准确地翻译出来。Transformer模型就像是这样一个超级聪明的“翻译官”,它能够理解语言,并且把一种语言转换成另一种语言,或者完成其他和语言相关的任务,比如总结文章、回答问题等等。词嵌入:给词赋予语义坐标(如“猫”=北纬30度,东经120度)。位置编码。

2025-02-13 23:14:49 1381

原创 transfomer学习引言 | 大白话讲解Seq2Seq、Encoder-Decoder、Attention、词嵌入

今天开始学习DataWhale组队学习fun-transformer,今天学习task1引言部分!【教程地址】【开源地址】就像它的名字"序列到序列",吃进去一串东西(比如中文句子),吐出来另一串东西(比如英文句子)。最厉害的是输入和输出的长度可以不一样。比如输入5个字的中文,可能输出4个英文单词。开头符<bos>:像发令枪"砰"的一声,告诉模型"要开始说话了"结束符<eos>:像裁判吹哨"哔——“,表示"我说完了”<bos>我有钢笔<eos>,模型看到这个就知道从哪开始处理,到哪结束。

2025-02-10 18:23:42 1065

原创 机器学习 第七章 贝叶斯分类器

fill:#333;color:#333;color:#333;fill:none;贝叶斯定理决策理论参数估计朴素贝叶斯贝叶斯网络MLE与EM算法半朴素改进概率推理混合模型。

2025-01-27 21:46:17 1180

原创 机器学习 第六章 支持向量机

在分类学习中,目标是找到划分超平面将不同类别样本分开。最优超平面应位于两类样本的"正中间",这种超平面对局部扰动容忍性最好,具有最强泛化能力。min⁡w,b12∥w∥2s.t.yi(wTxi+b)≥1, i=1,2,…,m\min_{w,b} \frac{1}{2} \|w\|^2 \quad \text{s.t.} \quad y_i(w^T x_i + b) \geq 1,\ i=1,2,\ldots,mw,bmin​21​∥w∥2s.t.yi​(wTxi​+b)≥1, i=1,2,…,m通过拉格朗

2025-01-27 21:45:25 762

原创 机器学习 第五章 神经网络

BP算法是训练多层神经网络的最成功算法,通过误差逆传播来调整网络参数。全局最小是指参数空间中所有点的误差函数值均不小于该点的误差函数值。局部极小是指参数空间中的某个点,其邻域点的误差函数值均不小于该点的函数值。

2025-01-27 20:49:39 679

原创 机器学习 第四章 决策树

【代码】机器学习 第四章 决策树。

2025-01-27 18:56:19 1103

原创 【无标题】

【代码】

2022-11-01 10:47:27 222

原创 webpack serve 配置问题TypeError: Class constructor ServeCommand cannot be invoked without ‘new‘

【代码】webpack serve 配置问题TypeError: Class constructor ServeCommand cannot be invoked without 'new'

2022-10-12 19:09:14 1763

原创 Google Chrome 检查更新时出错:无法启动更新检查(错误代码为 4: 0x80070005 -- system level)

Google浏览器Chrome更新到时,提示错误:检查更新时出错:无法启动更新检查(错误代码为 4: 0x80070005 – system level),如图所示。很有可能是Chrome更新服务被禁用了,需调整为手动启动即可。

2022-09-29 21:26:30 15547 6

原创 leetcode-2149. 按符号重排数组(Java)

2149. 按符号重排数组【题目描述】给你一个下标从 0 开始的整数数组 nums ,数组长度为 偶数 ,由数目相等的正整数和负整数组成。你需要 重排 nums 中的元素,使修改后的数组满足下述条件:任意连续 的两个整数 符号相反对于符号相同的所有整数,保留 它们在 nums 中的 顺序 。重排后数组以正整数开头。重排元素满足上述条件后,返回修改后的数组。示例 1:输入:nums = [3,1,-2,-5,2,-4]输出:[3,-2,1,-5,2,-4]解释:nu.

2022-03-08 21:37:28 501

原创 JS —— 第五章 JavaScript 运算符

目录第五章 JavaScript 运算符5.0 学习目标5.1 运算符5.2算术运算符5.2.1 算术运算符概述5.2.2 浮点数的精度问题5.2.3 课堂提问5.2.4 表达式和返回值5.3 递增和递减运算符5.3.1 递增和递减运算符概述5.3.2 递增运算符5.4 比较运算符5.5 逻辑运算符5.5.1 逻辑运算符概述5.5.2 逻辑与&&5.5.3 逻辑或 ||5.5.4逻辑非!5.5.5 短路运算(逻辑中断)第五章 JavaScript 运算符5.0 学习目标能够使用常用运

2021-08-05 18:19:02 161

原创 JS—— 第四章 数据类型

目录第四章 数据类型4.0 学习目标4.1 数据类型简介4.1.1为什么需要数据类型4.1.2 变量的数据类型4.1.3 数据类型的分类:4.2 简单数据类型4.2.1 简单数据类型(基本数据类型)4.2.2 数字型4.2.3 字符串型String4.3 获取变量数据类型4.3.1 获取检测变量的数据类型4.3.2 字面量4.4 数据类型转换4.4.1 什么是数据类型转换4.4.2 转换为字符串4.4.3 转换为数字型(重点)4.4.4 转换为布尔型4.5 扩展阅读4.5.1 解释型语言和编译型语言4.5.

2021-08-05 13:36:21 477

机器学习面试124题完好版

机器学习面试124题完好版

2025-03-26

C语言数据结构实训链表【个人账簿管理系统】 .rar

个人账簿管理系统记录某人每月的全部收入及各项开支情况,包括食品消费,房租,子女教育费用,水电费,医疗费,储蓄等。进入系统后可以输入和修改某月的收支情况,可以对每月的开支从小到大进行排序,可以根据输入的月份查询每月的收支情况。

2022-01-11

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除