自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(385)
  • 资源 (1)
  • 收藏
  • 关注

原创 42-机器学习与大模型开发数学教程-4-4 条件概率与贝叶斯定理

贝叶斯概率核心要点 条件概率是已知事件B发生时事件A的概率,本质是在缩小后的样本空间B内重新计算A的比例。贝叶斯定理揭示了如何通过先验概率、似然函数和证据强度来更新后验概率,其公式为P(A|B)∝P(B|A)P(A)。 该理论在机器学习中有广泛应用:朴素贝叶斯分类器基于特征条件独立性假设;A/B测试使用Beta-Bernoulli分布建模点击率;正则化项对应参数的先验分布(如L2正则对应高斯先验);语言模型通过条件概率链式法则生成文本。 典型误区包括混淆P(A|B)与P(B|A)、忽视基础概率等。贝叶斯方法

2025-10-31 09:30:00 1616

原创 41-机器学习与大模型开发数学教程-4-3 常见分布(伯努利、二项、正态、指数、Gamma、Beta)

这是一个简洁的统计分布指南,重点覆盖了6个核心概率分布及其在机器学习中的应用。伯努利/二项分布用于二元事件,泊松用于计数,正态用于连续变量,指数和Gamma处理时间问题,Beta分布则建模概率本身。这些分布相互关联:伯努利在极限下趋近泊松,泊松又趋近正态;Beta与伯努利共轭,Gamma与泊松共轭。文中还给出了实际应用示例(如CTR贝叶斯平滑)和NumPy代码实现,展示了这些分布在逻辑回归、最小二乘法等机器学习任务中的核心作用。

2025-10-31 08:30:00 966

原创 40-机器学习与大模型开发数学教程-4-2 随机变量与概率分布(离散与连续)

3) Monte Carlo: 估计 π 值 x = rng.uniform(-1, 1, size=106) y = rng.uniform(-1, 1, size=106) inside = (x2 + y2) <= 1 pi_estimate = 4 * inside.mean() # ≈ 3.141 ------ ## 10. 总结与 ML 连接 - **随机变量**是“把事件映成数”的桥梁,**分布**是它的“权重表”。 - **离散**(PMF)与**连续**(PDF)由 CDF 统一,期

2025-10-30 09:45:00 708

原创 39-机器学习与大模型开发数学教程-4-1 概率论基础(样本空间、事件、概率公理)

摘要:概率论的基础框架围绕样本空间、事件和概率公理展开。样本空间Ω包含所有可能结果,事件是Ω的子集。概率函数P为事件分配0到1的数值,满足非负性、规范化和可数可加性三大公理。由此可推导出补集公式、容斥原理等重要工具。这些概念在机器学习中广泛应用,如交叉熵、泛化界分析、模型校准等。理解概率公理是掌握条件概率、贝叶斯推断等高级内容的基础。

2025-10-30 08:15:00 720

原创 离线 AI 证件照神器 HivisionIDPhotos:一键抠图、智能换底、标准排版全搞定!

HivisionIDPhotos是一款跨平台AI证件照生成工具,支持纯离线运行,无需GPU和联网。集成多款主流AI模型,提供高精度人像抠图、自动裁剪、智能换底色、一键排版打印等功能,兼容Windows/macOS/Linux系统。支持WebUI、API、Docker等多种部署方式,CPU环境1秒内即可完成处理。项目提供完整离线整合包(含模型权重),并已衍生出C++、微信小程序、UniApp等多个版本,满足不同场景需求。下载地址:https://pan.quark.cn/s/7fb59e2b2722

2025-10-29 14:38:01 1861

原创 38-机器学习与大模型开发数学教程-3-12 本章总结与习题

本章系统梳理了线性代数在机器学习中的核心应用,从基础运算到高阶分解,强调工程实践要点。主要内容包括:向量/矩阵运算(内积、外积、Hadamard积)、矩阵分解(SVD、QR、Cholesky)、线性方程组数值解法、正定性应用(马氏距离、强凸性)、谱理论(Rayleigh商、Gershgorin圆盘)等。重点指出工程实践中的关键选择:能用solve不用inv、SPD矩阵首选Cholesky、最小二乘用QR/SVD。同时提供PCA与推荐系统的具体实现方法,并配有NumPy代码示例和习题训练,帮助读者建立&quo

2025-10-29 09:30:00 753

原创 37-机器学习与大模型开发数学教程-3-11 奇异值分解在推荐系统中的应用

一句话版:把用户–物品评分表看成一张,SVD/矩阵分解就是把它拆成(用户向量 × 物品向量),在这个空间里做就能预测“TA 会不会喜欢它”。这既能,也能做与。

2025-10-29 08:45:00 754

原创 36-机器学习与大模型开发数学教程-3-10 主成分分析(PCA)与降维

PCA降维核心:找数据方差最大的正交方向投影 本质:通过协方差矩阵/SVD分解,找到数据变化最显著的k个正交轴,实现高维数据压缩(保留主成分,舍弃噪声)。 应用:可视化(如768维→2D)、去噪、加速模型、特征解耦(如大模型嵌入压缩)。 计算:优先中心化+SVD($X=U\Sigma V^\top$),主轴为$V$的列,投影$Z=XV_k$。 选k技巧:累计解释方差≥90%或观察特征值拐点。 注意:必须中心化;量纲差异大时需标准化;避免测试集数据泄露。 一句话:PCA是数据“旋转对齐主轴+截断”的数学工具,

2025-10-28 09:30:00 566

原创 35-机器学习与大模型开发数学教程-3-9 特征值与谱理论

特征值与谱分析核心要点 特征值/特征向量揭示了线性变换的本质拉伸方向,而谱理论则提供了分析这些特性的数学工具。对称矩阵的谱分解(QΛQᵀ)是理想情况,特征值均为实数且特征向量正交。Rayleigh商与变分刻画为PCA等算法提供理论基础。 实用算法方面,幂迭代可高效计算主特征值,Gershgorin圆盘定理则提供特征值分布的粗略估计。非负矩阵的Perron-Frobenius定理支撑了PageRank等应用,而图拉普拉斯谱则直接关联聚类效果。 在机器学习中,谱分析影响广泛:决定PCA降维方向、控制梯度下降步长

2025-10-28 08:30:00 983

原创 34-机器学习与大模型开发数学教程-3-8 矩阵分解(SVD、特征分解、QR、Cholesky)

对A∈Rm×nA∈Rm×n,存在AUΣV⊤U∈Rm×mV∈Rn×n正交Σdiagσ1≥⋯≥σr0A=U\Sigma V^\top,\quad U\in\mathbb{R}^{m\times m},\ V\in\mathbb{R}^{n\times n}\ \text{正交},\ \Sigma=\mathrm{diag}(\sigma_1\ge\cdots\ge\sigma_r>0).AUΣV⊤U∈R。

2025-10-27 09:30:00 933

原创 33-机器学习与大模型开发数学教程-3-7 二次型与正定性

一句话摘要:二次型 $x^\top A x$ 是机器学习中的核心数学工具,从正则化到高斯分布都有其身影。通过特征值分解可直观理解其几何形状(椭球/马鞍),而正定性判定(特征值、主子式、Cholesky分解)是工程应用的关键。正定矩阵为机器学习提供了广义内积、凸性保证及数值稳定性,但也需警惕病态矩阵、尺度问题等常见陷阱。文中包含2×2案例、判定流程图及NumPy/PyTorch代码实现。

2025-10-27 08:30:00 2143

原创 32-机器学习与大模型开发数学教程-3-6 线性方程组(LU分解、数值解法)

**一句话版:解线性方程组 = 把“求逆”换成“分解 + 回代”。方阵首选 LU/Cholesky/QR 等直接法;大规模/稀疏/近似解首选 迭代法(CG/GMRES);工程铁律是:能 solve 不 inv。 1. 为何机器学习必须会解 $Ax=b$? 线性回归的正规方程:$(X^\top X)w=X^\top y$; 二次规划的 KKT 系统(牛顿/拟牛顿子问题); 高斯过程、图模型:$(K+\lambda I)\alpha=y$; 正则与预条件:$(A+\lambda I)x=b$。 核心操作都是“解

2025-10-26 09:30:00 1462

原创 31-机器学习与大模型开发数学教程-3-5 行列式与秩

行列式与秩的简明指南 一句话总结:行列式(det)衡量线性变换的体积缩放和方向翻转;秩(rank)反映变换后真实的自由度维度。 核心要点: 行列式: 体积缩放因子:|det(A)|表示变换后的体积变化倍数 方向指示器:det(A)的符号表示是否翻转空间方向 计算建议:使用矩阵分解(LU/Cholesky)而非展开式 秩: 自由度计数器:rank(A)表示变换后的有效维度 可逆性指标:满秩⇔可逆⇔非零行列式 数值方法:通过SVD计算更稳定 机器学习应用: 行列式:出现在高斯模型的对数似然、归一化流的雅可比行列

2025-10-26 08:30:00 933

原创 30-机器学习与大模型开发数学教程-3-4 矩阵的逆与伪逆

本文深入浅出解析了矩阵求逆与伪逆的核心概念与应用场景。全文要点如下: 矩阵求逆:仅适用于方阵且可逆的情况,通过LU/QR分解等数值稳定方法求解线性系统,而非直接计算逆矩阵。 伪逆(Moore-Penrose):扩展到非方阵或秩亏矩阵,通过SVD分解实现最小二乘解和最小范数解,是工程实践中的通用工具。 数值计算原则: 避免直接求逆,优先使用分解法 根据矩阵特性选择合适算法(Cholesky/QR/SVD) 对病态问题采用正则化处理 机器学习应用: 线性回归闭式解 岭回归的正则化处理 低秩近似与核方法 实践建议

2025-10-25 22:07:24 723

原创 29-机器学习与大模型开发数学教程-3-3 张量的运算(Einstein求和约定)

一句话版:给每个轴起“名字”,重复的名字就代表要把那条轴“求和掉”。这就是 Einstein 求和约定(EinSum)。 EinSum 用简单的字符串表示张量运算,如矩阵乘、点积、外积等。规则是:相同字母的轴要求和,不同字母的轴保留或直积对齐。例如: 'ik,kj->ij' 表示矩阵乘 $C_{ij}=\sum_k A_{ik}B_{kj}$ 'i,i->' 表示点积 'btd,bsd->bts' 表示注意力分数计算 优点: 直观:直接表达运算逻辑,避免繁琐的转置/reshape 统一:涵

2025-10-25 22:06:24 858

原创 28-机器学习与大模型开发数学教程-3-2 向量与矩阵运算(内积、外积、Hadamard积)

摘要:本文梳理了三种容易混淆的张量乘法操作:内积(dot)、外积(outer)和Hadamard积(逐元素乘)。内积输出标量,用于计算投影和相似度;外积生成秩1矩阵,是矩阵乘法的基本单元;Hadamard积实现同形张量的逐元素运算。文章通过几何解释、数学公式、机器学习案例(如注意力机制)和NumPy/PyTorch代码示例,阐明三者的区别与联系,并指出常见工程陷阱(如维度爆炸、广播错误)。核心口诀:内积得数、外积得矩阵、Hadamard保形状。(150字)

2025-10-24 10:09:45 810

原创 27-机器学习与大模型开发数学教程-3-1 向量、矩阵与张量

**摘要:向量、矩阵、张量是机器学习的核心数学工具。向量表示数据点,矩阵描述线性变换,张量扩展至高维数据(如图像、序列)。关键操作包括内积、矩阵乘法、张量收缩等,广泛应用于模型计算。Numpy/PyTorch中的形状处理和广播机制是工程实现的基础,几何视角(投影、距离)则帮助理解算法原理。掌握这些概念对高效实现机器学习模型至关重要。

2025-10-24 10:09:05 814

原创 26-机器学习与大模型开发数学教程-2-8 本章总结与习题

本文系统梳理了多元函数优化的核心概念链:从偏导、梯度、方向导数到可微性、链式法则、Hessian矩阵,最后延伸至约束优化的拉格朗日乘子法和KKT条件。通过速记表、概念关系图、工程落地清单和分层习题,构建了从理论到实践的完整框架。重点包括: 梯度指向最陡上升方向,方向导数为梯度投影; 链式法则的向量-Jacobian积形式是反向传播基础; Hessian矩阵特征值决定极值性质; KKT条件将拉格朗日法推广至不等式约束; 工程实现需关注数值梯度检查、形状对齐和约束处理技巧。配有典型习题及部分解答,涵盖机器学习中

2025-10-23 09:30:00 597

原创 25-机器学习与大模型开发数学教程-2-7 约束优化的KKT条件(预告 + 引入优化篇)

一句话版:KKT条件是有约束优化问题的驻点法则,将目标梯度、约束梯度和活跃/不活跃约束条件联系起来,确保在最优点目标无法沿可行方向下降。 摘要(≤150字): KKT条件是解决有约束优化问题的关键工具,包含驻点条件、原始/对偶可行性和互补松弛四要素。它表明在最优点,目标函数的梯度必须被活跃约束的梯度平衡。对于凸优化问题,满足KKT条件等价于全局最优。该条件广泛应用于支持向量机、Lasso回归和概率投影等机器学习算法,是连接理论分析与工程实践的重要桥梁。

2025-10-23 08:30:00 893

原创 24-机器学习与大模型开发数学教程-2-6 拉格朗日乘数法(等式约束优化)

一句话总结:拉格朗日乘数法将约束优化转化为无约束临界点问题,核心思想是目标函数梯度与约束梯度在最优解处共线。 关键点: 几何直观:最优解处目标函数的等高线与约束曲面相切(法向量共线) 一阶条件:通过拉格朗日函数将等式约束问题转化为无约束优化 二阶条件:在约束切空间上检验Hessian矩阵的正定性 工程应用:广泛用于机器学习、统计建模和数值优化中的约束问题 典型应用场景: 带约束的最小二乘问题 概率分布的熵最大化 投影到约束曲面 模型参数的正则化与归一化 该方法为处理等式约束提供了系统框架,是优化理论的重要基

2025-10-22 09:30:00 1247

原创 23-机器学习与大模型开发数学教程-2-5 Hessian矩阵与高阶导数

摘要(150字):Hessian矩阵是函数二阶偏导的对称方阵,刻画多维空间中曲面的局部曲率特性。通过特征值分析可判定临界点性质:全正为极小值,全负为极大值,有正有负是鞍点。在优化算法中,Hessian信息能修正搜索方向与步长,牛顿法利用其逆矩阵实现快速收敛。工程中常采用Hessian向量积技术避免显式存储,并发展出拟牛顿法等近似方案。深度学习领域,Hessian谱与泛化性能相关,用于分析损失曲面几何特性。实际计算需注意病态条件数等问题。

2025-10-22 08:45:00 620

原创 22-机器学习与大模型开发数学教程-2-4 链式法则(标量→向量→矩阵)

摘要:链式法则是深度学习的核心数学工具,通过雅可比矩阵实现高维函数的梯度传播。其本质是局部导数的链式相乘,关键点包括:1)标量输出时使用VJP(向量-雅可比积)高效回传梯度;2)矩阵运算需严格对齐形状(如外积求权重梯度、转置乘误差求输入梯度);3) 微分记法自然统一各种情况。典型应用如Softmax交叉熵的梯度计算(误差=预测-真值),以及线性层中"误差外积输入"的权重更新规则。工程实现对应自动微分的反向模式,通过计算图动态执行链式乘法。

2025-10-21 09:15:00 864

原创 21-机器学习与大模型开发数学教程-2-3 方向导数与可微性

本文介绍了方向导数和可微性的概念及其在数学和机器学习中的应用。方向导数描述了函数在任意方向的瞬时变化率,而可微性则反映了函数能否在某点附近用线性函数良好近似。两者通过梯度建立联系,方向导数等于梯度在该方向的投影。文章还讨论了可微性的不同定义(Gateaux和Fréchet),列举了典型反例,并展示了这些概念在机器学习中的实际应用,如优化算法和数值梯度检查。最后通过Python代码演示了方向导数的数值计算与自动微分验证。

2025-10-21 08:45:00 999

原创 从 Sora 到 Sora 2:文本生成视频进入下一个阶段(附sora教程)

OpenAI推出新一代视频生成模型Sora 2,实现文字到视频+音频的一站式生成。相比前代,Sora 2在物理真实性、视听同步、精细控制等方面显著提升,支持镜头运动、角色互动等参数调节,并新增社交功能"Cameos"可嵌入用户形象。应用场景涵盖教育、营销、短视频创作等领域。技术层面采用Transformer+扩散模型,实现多模态联合生成。目前处于灰度测试阶段,需注意版权和深度伪造风险。Sora 2标志着AI生成技术从静态向动态内容的跨越式发展。

2025-10-20 22:09:05 3461 1

原创 20-机器学习与大模型开发数学教程-2-2 偏导与梯度

本文介绍了多元函数偏导数的概念与应用。多元函数可视为多维空间中的"山形"曲面,偏导数则反映沿特定坐标轴方向的局部变化率(坡度)。文章通过二次函数示例直观展示了偏导数的计算和几何意义,并指出偏导数存在性不等同于函数平滑性。在机器学习中,偏导数是梯度下降等优化算法的核心,如线性回归损失函数对参数的偏导直接决定参数更新方向。文中还提供了数值计算偏导的代码示例,并与自动微分结果进行对比。文章通过山地地形、水果篮子等生活类比帮助理解偏导的直观含义,并提醒注意计算中的常见陷阱。

2025-10-20 09:30:00 802

原创 19-机器学习与大模型开发数学教程-2-1 多元函数与偏导数

本文介绍了多元函数及其偏导数的概念与应用。多元函数是指多个变量共同决定一个结果的函数,在机器学习中广泛存在。偏导数用于衡量函数在某个变量方向上的变化趋势,几何上对应于切平面的斜率。文章通过实例解释了偏导数的计算方式,并重点阐述了其在机器学习中的重要作用:梯度下降法利用偏导数构成的梯度向量寻找最优解;特征敏感性分析通过偏导大小判断变量重要性;二阶偏导数则用于优化算法的凸性分析。偏导数是机器学习模型优化和参数更新的核心工具。

2025-10-20 08:45:00 667

原创 从 JDK 8 到 JDK 23:HotSpot 垃圾回收器全景演进与深度剖析

JVM垃圾回收器的演进与选型指南 从JDK 8到JDK 23,HotSpot JVM的垃圾回收器经历了显著演进:早期以Serial/Parallel GC为主,追求高吞吐;中期引入CMS/G1,平衡吞吐与延迟;现代ZGC/Shenandoah则专注极低延迟。 JDK 23将代际ZGC设为默认,支持TB级堆且停顿<10ms。各GC特点鲜明: Serial/Parallel:简单高效,适合批处理 G1:分区回收,JDK9+默认 ZGC/Shenandoah:全并发,适合低延迟系统 选型建议: 计算密集型用

2025-10-19 22:03:47 580

原创 18-机器学习与大模型开发数学教程-第1章 1-10 本章总结与习题

本章系统梳理了单变量微积分与机器学习的联系,重点包括:1)数学是机器学习的基础语言,如梯度下降依赖导数;2)极限与连续性影响神经网络训练;3)导数及其求导法则(特别是链式法则)构成反向传播核心;4)极值理论与泰勒展开指导优化算法设计;5)凸函数性质保证优化效果。通过知识脉络图和习题,帮助理解从极限到凸优化的完整链条,并掌握算法复杂度分析、ReLU函数特性等实践要点。基础题涵盖求导计算和复杂度分析,提高题探讨泰勒展开近似和凸优化优势。

2025-10-19 22:00:57 803

原创 17-机器学习与大模型开发数学教程-第1章 1-9 凸函数与凸优化基础

机器学习中的凸函数与凸优化是关键概念。凸函数形如碗状,满足“连线在函数图像上方”的性质,如平方函数、指数函数等。凸优化问题因存在全局最优解且梯度下降必然收敛而被广泛应用,如线性回归、逻辑回归等。虽然深度神经网络整体非凸,但许多子问题仍依赖凸优化思想。简言之,凸优化就是高效寻找“碗底”最低点的过程,为机器学习算法提供理论基础。

2025-10-19 22:00:34 958

原创 16-机器学习与大模型开发数学教程-第1章 1-8 泰勒展开与高阶近似

文章摘要: 泰勒展开是用多项式逼近复杂函数的数学工具,从一次(直线)到高阶(曲线)逐步提升近似精度。其核心公式为 $f(x) \approx f(a) + f'(a)(x-a) + \frac{f''(a)}{2!}(x-a)^2 + \cdots$,通过逐项补充细节(如$\sin(x) \approx x - \frac{x^3}{6}$)实现局部高精度拟合。在机器学习中,泰勒展开应用于梯度下降(一阶)、牛顿法(二阶)等优化算法,以及激活函数近似计算。其思想类似“修复马赛克照片”,通过低阶轮廓到高阶细节逐

2025-10-17 11:08:59 767

原创 15-机器学习与大模型开发数学教程-第1章 1-7 函数逼近思想

机器学习模型本质上都是函数逼近工具,从微积分中的泰勒展开到现代神经网络,核心思想都是用简单函数逼近复杂函数。切线逼近是最基础的线性近似,泰勒展开则通过高阶多项式实现更精确逼近。这一思想贯穿机器学习:线性回归用直线逼近,多项式回归模仿泰勒展开,神经网络被证明是通用逼近器,大模型(如GPT)则通过参数化网络逼近自然语言分布。理解函数逼近有助于认识模型的工作原理和优化方向。

2025-10-17 11:08:29 547

原创 14-机器学习与大模型开发数学教程-第1章 1-6 费马定理与极值判定

费马定理是判断函数极值的关键数学工具,指出可导函数在极值点处的导数为零。通过一阶导数符号变化或二阶导数正负可以进一步判定极值性质。这一原理在机器学习中有着重要应用,如梯度下降法通过寻找导数为零的点来优化模型参数。无论是简单的二次函数还是复杂的深度学习模型,费马定理都是优化问题的理论基础。理解这一概念有助于把握机器学习的底层数学原理。

2025-10-16 10:01:58 816

原创 13-机器学习与大模型开发数学教程-第1章 1-5 常用求导法(积商法、隐函数、分部求导)

本文介绍了三种常用的求导法则及其应用。积商法用于处理乘除函数,包含积的导数公式(前导后不导加前不导后导)和商的导数公式(分子分母分别求导相减除以分母平方)。隐函数求导通过对方程两边同时求导来处理非显式函数关系。分部求导则用于积分计算,将复杂积分转换为简单积分。这些方法在机器学习中有广泛应用,如交叉熵损失函数、优化算法和概率分布计算等。掌握这些求导技巧对理解复杂数学模型至关重要。

2025-10-16 10:01:31 791

原创 12-机器学习与大模型开发数学教程-第1章1-4 导数与几何意义

导数是机器学习中的核心数学工具,用于描述函数瞬时变化率。它通过极限定义,几何上表现为曲线切线斜率。在机器学习中,导数支撑着梯度下降优化、神经网络反向传播和损失函数极值分析等关键过程。优化算法依赖导数确定参数更新方向,反向传播利用链式法则计算复合函数导数,极值点分析则通过导数为零条件寻找最优解。此外,导数还可用于可解释AI,如通过显著性图分析输入对输出的影响。掌握导数概念对理解深度学习等现代机器学习方法至关重要。

2025-10-15 10:20:38 887

原创 11-机器学习与大模型开发数学教程-第1章1-3 极限与连续性

本文从数学史引入极限概念,指出牛顿和莱布尼茨为解决瞬时变化问题而发展极限思想。通过自动门的生活类比,直观解释了极限"无限接近"的本质。文章重点分析了极限与函数连续性的关系,并利用Mermaid图表示连续条件。在机器学习领域,连续性的重要性体现在:1)损失函数连续性确保优化过程平滑可控;2)激活函数连续性保证神经网络稳定训练;3)大模型依赖连续可导的损失函数实现稳定收敛。最后指出算法复杂度分析中的大O表示法本质也是极限思想的应用。全文阐明了极限作为连续变化的基础,在数学和机器学习中的核心地

2025-10-15 10:00:53 875

原创 10-机器学习与大模型开发数学教程-第1章 1-2 O(n) 表示法与时间复杂度

本文探讨了算法复杂度(Complexity)在机器学习和大模型开发中的重要性。通过大O表示法分析了不同算法的时间复杂度(如O(1)、O(n)、O(n²)等),并解释了其数学定义与微积分中函数增长率的联系。文章用生活案例(奶茶店排队)和技术案例(线性回归、神经网络、Transformer)说明复杂度分析的实际意义,强调理解复杂度能帮助优化算法性能,使代码从"能跑"提升到"高效运行"。复杂度分析本质上是在研究算法执行时间随输入规模增长的极限趋势。

2025-10-15 10:00:16 664

原创 9-机器学习与大模型开发数学教程-第1章 1-1 课程介绍与数学在机器学习中的作用

数学是机器学习与大模型开发的核心基础,而非孤立工具。它扮演三大关键角色:概念抽象(如概率论描述不确定性)、公式推导(如梯度下降依赖导数)和模型解释(如线性代数解析PCA)。微积分是首要基石,单变量微分对应参数敏感度,多变量微分关联神经网络梯度计算。数学工具与机器学习任务紧密对应:线性代数处理矩阵运算,微积分优化梯度下降,概率论建模不确定性,优化方法求解最优解。掌握数学才能真正理解模型原理,如梯度下降利用导数指导参数更新方向,而非盲目猜测。本章从微分切入,因其直接关联模型训练中的参数优化机制。

2025-10-14 23:23:04 546

原创 HivisionIDPhotos全套整合包:离线AI证件照制作神器,一键抠图换底色(附整合包)

HivisionIDPhoto是一款轻量级AI证件照制作工具,支持离线运行(仅需CPU)。主要功能包括AI人像抠图、智能裁剪、换底色和标准排版,适用于个人、企业及开发者。提供Gradio WebUI界面、命令行和Docker部署方式,支持多种证件照尺寸和自定义背景。整合包包含完整源码、模型权重和Python环境,下载地址已附。项目生态丰富,有C++、小程序、桌面版等衍生版本。

2025-10-14 23:07:58 2266

原创 7-机器学习与大模型开发数学教程-第0章 预备知识-0-7 初等概率(事件、条件概率、全概率公式、独立性直觉)

本文介绍了概率论中的核心概念及其在机器学习中的应用。首先从事件(样本空间的子集)和条件概率(在已知信息下重新评估概率)入手,通过掷骰子、点击广告等实例说明。重点讲解了全概率公式,即通过不同路径的加权和计算总体概率。最后阐释了独立性概念及其在朴素贝叶斯分类器中的简化作用。这些基础概念为理解机器学习中的概率模型(如贝叶斯分类器、生成式模型等)提供了数学基础,特别强调了独立性假设虽不完全成立但能有效简化计算。全文通过图示和实例,将抽象概念与实际应用紧密结合。

2025-09-25 15:36:32 993

原创 8-机器学习与大模型开发数学教程-第0章 预备知识-0-8 编程与数值计算基础(浮点数精度、溢出、数值稳定性)

摘要:本文探讨机器学习中数值计算的三个关键问题:浮点数精度(二进制近似导致0.1+0.2≠0.3)、溢出/下溢(数值过大/小导致inf/0)和数值稳定性(误差累积引发结果失真)。这些底层机制直接影响模型训练,如softmax溢出产生NaN、梯度更新失效等。解决方案包括对数变换、数据正规化和混合精度计算。理解这些原理能有效预防训练崩溃,提升算法鲁棒性。(149字)

2025-09-25 15:36:08 1160

200+最常见Java面试题参考答案(嗯嗯).pdf

200+最常见Java面试题参考答案,共200多道题,全面讲解

2019-07-08

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除