自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(424)
  • 问答 (3)
  • 收藏
  • 关注

原创 反向传播(Backpropagation)参数更新,三层分类任务举例子

输出层(第3层)δ3∂L∂z3y−y【无单位】\delta^{(3)} = \frac{\partial L}{\partial z^{(3)}} = \hat{y} - y \quad 【无单位】δ3∂z3∂L​y​−y【无单位】∂L∂W3δ3a2⊤∂L∂b3δ3【无单位】\quad\frac{\partial L}{\partial b^{(3)}} = \delta^{(3)} \quad 【无单位】∂W3∂。

2025-10-17 04:55:44 969

原创 leetcode - 哈希

识别问题类型需要快速判断某元素是否存在?→ 用集合(set)。需要快速找到“与某个元素匹配”的元素?→ 用字典(dict)。需要分组 / 分类?→ 用字典把标准化 key 映射到组。需要去重?→ 用集合。设计 key两数之和:key 是数值本身。字母异位词:key 是排序后的字符串或字母频率元组。最长连续序列:key 是数值本身(用来判断前驱/后继是否存在)。控制复杂度哈希把查找从OnO(n)On压缩到O1O(1)O1。每个元素只处理一次,整体OnO(n)O。

2025-09-26 06:42:25 900

原创 Sigmoid 与交叉熵(误差函数的选择)

设单样本xt(x,t)xt。线性部分与激活为z∑iwixibyfzσz11e−zzi∑​wi​xi​byfzσz1e−z1​E12y−t2E21​y−t2我们要求∂E∂wi∂E∂wi​。用链式法则(Chain Rule)把“参数 → 线性输出zzz→ 激活输出yyy→ 损失EEE∂E∂wi∂E∂y⋅∂y∂z⋅∂z∂。

2025-09-25 21:12:11 756

原创 交叉熵 (Cross Entropy) 和 困惑度 (Perplexity)

交叉熵 (Cross Entropy)衡量模型分布与真实分布的差距。它是“平均负对数概率”。值越小,模型越好。困惑度 (Perplexity)是交叉熵的指数形式,可以直观理解为“平均分支因子”。越小,说明模型越确定、越不困惑。如果困惑度 = 1,模型是完美的;如果困惑度 = 词表大小,模型就是随机乱猜。

2025-09-25 02:18:35 416

原创 为什么要做预处理-更适合分析的数据

你先画直方图与 QQ 图看偏度与尾部;计算样本偏度G1G_1G1​无量纲\text{无量纲}无量纲若右偏且动态范围大,先试log⁡xc\log(x+c)logxc(单位:对数刻度,无量纲\text{无量纲}无量纲)或x\sqrt{x}x​原单位\sqrt{\text{原单位}}原单位​若存在 0 或负值,再试 Yeo–Johnson;若希望自动选择幂指数,试 Box–Cox(x0x>0x0若方法依赖距离或基于梯度优化,至少做 z-score(无量纲。

2025-09-22 03:03:46 921

原创 正则中的“回溯引用”和“字面量数字”

为了避免把“回溯引用”和“字面量数字”写混,记住两点。第一,回溯引用用的是 \1。当成“字面字符”,第三个是“条件分支判断分组是否匹配”,第四个写法是。的分组”,不是回溯引用。:如果分组 1 匹配到了(也就是前面看见了。是分组 2,匹配一段字母数字下划线;返回“每次匹配的所有分组”,所以是。在于:第一个用的是“编号回溯引用。后面必须是合法的分支指示(如。第二,条件分组里引用分组是用。分组 1 捕获的内容(仍然是。顺带一提,如果字符串里真的有。是分组 1,可选的字符。这种片段,原串里没有。

2025-09-21 01:07:06 321

原创 在正则中`findall` 的逻辑

匹配:正则能在字符串里找到哪一段?捕获:分组里到底保留了什么?返回findall先看有没有分组 → 有分组就返回分组内容;没分组就返回整体。不能匹配→ 返回空列表。

2025-09-21 00:05:04 414

原创 新手入门正则挑战题

写一个 Python 函数,把字符串。里所有数字变成它们的平方。写 Python 代码,把。

2025-09-20 23:51:00 111

原创 常见的正则符号(Python 例子)

【代码】常见的正则符号(Python 例子)

2025-09-20 23:34:25 143

原创 正则匹配中的group (ab)+

把换成只改变“重复多少次才让整体能匹配成功”的搜索策略,但分组里“只留最后一次捕获”的规则不变。在'abababc'里,不管贪婪还是非贪婪,最终都必须重复三次才能让后面的c对齐,因此内层分组仍是'ab',外层分组仍是'ababab'。import re。

2025-09-20 23:19:21 397

原创 正则表达式分组语法速查表

(...)→ 捕获分组→ 命名分组:...)→ 非捕获分组=...)!...)→ 前瞻断言<=...)...)→ 回顾断言。

2025-09-20 22:48:34 263

原创 视图的容器

容器(Container)是一个可以“装”其他视图(View)的视图。简单来说,它就像一个盒子,你可以把其他的东西放进去。在图形界面开发中,这个“盒子”就是一个特殊的视图,它的主要职责就是包裹、排列和管理它内部的子视图。一个按钮(Button)一个文本框(TextView / EditText)甚至是另一个容器特性普通 View容器 View(如 LinearLayout、RelativeLayout)能否放子视图❌ 不可以✅ 可以是否管理布局❌ 不管理。

2025-05-14 02:14:45 492

原创 EM中的E 步到底是在“干嘛”?它的“核心动作”是什么?通俗理解

E步就是:“你已经看到结果了,但不知道它来自哪个来源,你就用已有的模型参数来猜测它的来源各占多少比例。你在电影院放映厅外看到观众走出来,一个个都表情很满足。你知道观众们的满意度和他们坐的排数有关,但你。你喝了一口果汁,尝起来像是混合了苹果、橙子、芒果,但你不知道比例。即:对每个人来说,苹果、橙子、芒果各自“负了多大责任”。你现在观察到一张脸,想猜它属于哪个类别。(也没摄像头记录)。这张脸分别和三类人的相似度有多高?这个“比例”或“责任”,就是。哪类更可能“生成”这张脸?这些是观测到的特征值。

2025-04-25 16:38:21 650

原创 为什么在 SDS-PAGE 中,蛋白质迁移速度和分子质量(mass)成反比关系?

变量关系电荷 vs 质量q∝mq∝m(SDS 作用后)阻力 vs 质量f∝mαf∝mα(实验经验,α≈1α≈1速度 vs 电荷 & 阻力vqEfvfqE​合并后速度 vs 质量v∝1mα−1v∝mα−11​或近似1mm1​迁移距离 vs 质量d∝1mαorlog⁡m∝−dd∝mα1​orlogm∝−dSDS 把蛋白都变成“电荷和质量成比例”,再通过凝胶提供的质量相关阻力。

2025-04-20 10:49:29 1616

原创 Fick 第二定律下有哪些类型的解

表面固定浓度、初始为 0 的渗透过程的解析解(半无限空间)它描述“扩散过程中,浓度随时间如何变化”的。= 点源扩散时的解析解(无限空间)

2025-04-20 01:36:18 1516

原创 封闭结构的电润湿芯片(Closed Configuration of EWOD chip)

我们可以用电润湿公式cos⁡θVcos⁡θ0ε0εr2γLGdV2cosθVcosθ0​2γLG​dε0​εr​​V2θ0\theta_0θ0​:初始接触角(由疏水层决定,通常 > 100°);VVV:施加电压;εrεr​:介电层相对介电常数(例如 Parylene 有高电容);γLGγLG​:液-气表面张力,单位 N/m;ddd:介电层厚度。

2025-04-20 01:01:11 771

原创 水分子为什么会自动形成高接触角?

疏水材料是一类与水之间的吸引力很弱的材料,也就是说,它们和水之间的固-液界面张力γSLγSL​非常大。材料接触角(θ)110°–120°PDMS(硅橡胶)~110°~100°石蜡~95°硅片(未经处理)< 90°(通常亲水)水分子为了降低系统总自由能,尽量减少与固体表面的接触面积。这正是由材料的表面能(surface energy)决定的固-液界面相互作用强弱造成的。也就是说:不是水主动讨厌这个材料,而是它“感受到”这个材料不喜欢它,所以它。

2025-04-20 00:58:11 967

原创 完整梳理一下施加电压后液滴张力变化、接触角变化和各力之间的相互关系

的状态,自发调整液滴形状来“用更多面积换来更多电容能量”,本质是能量交换,而不是张力强度变了。液滴之所以变扁,是因为电场力“拉住了底部”,张力无法回到原来的平衡态。这不是传统意义上的“外力”,而是从能量角度看,是在。通电后出现了一个额外向下的电场力(静电引力)重力确实存在,但对微小液滴影响极小,主要由。所以不能说“张力变大了导致角度变小”,而是。在没有电压时,液滴的受力和平衡由三种。没变,而分子那项是正数 →。这是水滴“静止不动”的状态。最终液滴调整形状,以达到。(❌这个方向是错的)

2025-04-19 11:13:49 954

原创 液体粘度 和 气体粘度

与其他相对分子质量相近的液体(如甲烷、氨等)相比,水的粘度显著更高,就是因为氢键的存在。当温度升高,分子热运动加剧,动能增强 → 原本靠得较近的分子之间的氢键会。→ 分子间作用力增强 → 相互滑动时受更多阻力 → 粘度上升。此外,剪切速率不同,还会出现非牛顿特性(如剪切变稀或剪切变稠)。→ 分子之间的束缚减少 → 更容易相对滑动 → 粘度下降。,这种网络限制了水分子的自由滑动能力,形成了相对较高的粘度。升温 → 分子动能增强,碰撞更频繁 → 粘度上升。在液体中,分子原本就靠得很近,进一步加压会让分子。

2025-04-16 06:40:07 2660

原创 惯性力(Inertial Force)和黏性力(Viscous Force)

惯性力是指由于流体质量和加速度导致的力。FinertiamaFinertia​ma其中mmm是流体单位体积质量(密度ρ\rhoρ)乘以体积,aaa是加速度。黏性力是由于流体内部分子之间的摩擦导致的剪切力,用于抵抗速度梯度。FviscousμdudyFviscous​μdydu​μ\muμ是动力黏度(dynamic viscosity),单位:Pa·sdudydydu​是速度梯度,即层与层之间的速度变化率。

2025-04-16 04:20:25 2829

原创 路径复杂为什么会导致fluidic resistance增大

改成蛇形结构后,为了占同样面积,引入 5 个弯折,路径变为。数字上看出来的,而是在设计上形成了等效的“局部阻塞”,这是工程权衡的一部分。设原通道为直线,长度。

2025-04-16 02:16:18 566

原创 人生 × 深度学习

人生的意义也许不是固定的,但我们可以给它“定义一个目标函数”,并用一生去最小化它。在深度学习里,loss function 衡量了你现在和“理想状态”之间的差距。生活中的你如果永远绷紧、强迫每一次都完美地工作,其实容易过拟合现实。慢慢下坡,一步步来,每次都只更新一点点,不断接近一个你想成为的人。少一点执着,多一点自我,才能 generalize 到真正的生活。然后继续 forward,一直到自己收敛为最好的版本。学习率一开始很小,慢慢变大,然后再衰减。,它会让你去关注生活中不同的维度。

2025-03-27 14:22:58 369

原创 Attention的V的理解

Q 和 K 只能告诉模型“你要关注谁”,但你要预测一个英文单词,必须从原句中取出具体的语义内容,也就是 V。如果你不提取 V,就相当于“知道要看谁,但不知道他讲了什么”——你就无法输出真正有语义的翻译结果。其实是在探讨“模型翻译为什么不能直接输出答案”,而是还得“提取语义”,还要搞什么 Q、K、V,这不多此一举吗?我们一步一步给出你完全能理解的回答👇你以为模型是:实际上模型是:看到 “i” → 输出 “我”看完整个句子 → 判断上下文 → 输出合适的词靠字典对照。

2025-03-24 04:31:35 638

原创 卷积神经网络(CNN)

层类型主要功能输出结构变化卷积层提取局部特征,保留空间结构变为多个 feature maps池化层降维,增强平移不变性,减少计算量降低 feature maps 的空间尺寸全连接层整合所有特征并用于最终分类或预测得到最终输出(如10类概率)

2025-03-22 07:00:49 1213

原创 HMM (Hidden Markov Model) 基于高斯分布转换为高斯混合分布的过程

在隐马尔可夫模型 (HMM) 中,状态的观测概率通常建模为高斯分布 (Gaussian distribution),因为这样可以使计算更加简单。在 HMM 训练中,通常会先对状态进行聚类,以便减少参数数量,提高模型的泛化能力。在引入多个高斯分布后,我们需要对模型进行重新训练,使得这些新的高斯分布可以更好地适应数据。任务中非常常见,因为它可以有效提高 HMM 处理语音数据的能力,同时仍然保留 HMM 的隐状态建模能力。作为状态的输出概率分布,可以提高模型的建模能力,使得 HMM 更能准确地描述音频信号。

2025-03-15 21:51:32 1103

原创 相关系数 $\rho_{ij}$ 解释

在统计学和数据分析中,它用于衡量两个变量之间的。,说明身高和体重高度正相关,较高的人往往体重大。

2025-03-08 10:57:34 834

原创 多元高斯分布概率密度函数(PDF)示例

多元高斯分布(Multivariate Gaussian Distribution)适用于。,用于建模数据的联合分布。完整计算可以用 Python 验证。假设我们有一个二维(

2025-03-08 10:56:31 736

原创 多元高斯分布及其参数估计

多元高斯分布(或多元正态分布,Multivariate Gaussian Distribution)是。在机器学习、信号处理、统计学和模式识别等领域,多元高斯分布被广泛应用。,它考虑了数据的分布情况,而不是直接使用欧几里得距离。极大似然估计(MLE)用于找到。对于均值向量,MLE 估计值是。时,多元高斯分布退化为。,使得数据点的似然最大。协方差矩阵不仅仅描述。这个二次型相当于计算。

2025-03-08 10:38:56 1175

原创 累积分布函数(CDF)和概率密度函数(PDF)

这就是样本方差(sample variance)。,是最常见的连续概率分布之一。正态分布的期望值(均值)就是。,我们希望估计正态分布的参数。来描述连续随机变量的行为。,其概率密度函数(PDF)在概率论中,我们通常使用。这个函数描述了随机变量。,即极大似然估计的均值。对于一个实值随机变量。

2025-03-08 10:35:54 2710

原创 R 个语音序列(utterances)

这样,我们可以在整个语料库上优化HMM参数,而不仅仅是单个语音序列。在实际的语音识别任务中,我们通常不会只用。的HMM训练中,我们使用。时,需要对所有语音数据。,然后再计算HMM参数。HMM的状态转移概率。

2025-03-08 10:27:49 1201

原创 HMM 在多个语音序列上的训练 简述

但如果我们有多个语音序列,就需要在所有语料。在实际应用中,我们的HMM模型通常是。在EM算法的M步中,状态转移概率。的,而不仅仅是单个语音序列。个语音序列,每个语音序列。假设我们的语料库包含。

2025-03-08 10:26:11 587

原创 EM算法(Expectation-Maximization)中, E E 步(E-step)和 M M 步(M-step)分别对应的操作

在EM算法(Expectation-Maximization)中,E步(E-step)和M。

2025-03-08 10:22:24 910

原创 期望最大化(EM, Expectation-Maximization)算法的核心思想

为什么我们不直接最大化logPXQ∣Mλ,而是最大化Q∈Q∑​PQ∣XMλ0​logPXQ∣Mλ。

2025-03-08 10:11:15 918

原创 HMM 采用高斯分布

虽然单个高斯分布适用于很多情况,但在某些复杂的任务(如语音识别)中,一个状态可能对应多个类别的观测数据。选择高斯分布作为 HMM 的发射概率还有一些额外的数学和统计上的优点。高斯分布是最常见的连续分布之一,所以它是一个自然的选择。在 HMM 训练过程中,我们希望找到能最大化数据似然。所以,高斯分布成为 HMM 中连续发射概率的首选。,这使得它成为连续数据建模的默认选择。来建模,而不能使用离散分布。为了解决这个问题,可以扩展到。在 HMM 中,发射概率。是连续变量,我们必须用。

2025-03-08 09:46:40 911

原创 高斯 HMM(GHMM)

在某些复杂应用中,例如语音识别,一个隐藏状态可能对应多个不同的音素特征,这时单个高斯分布可能不够用。为了解决这个问题,我们可以使用。(如噪声、测量误差)都服从或近似服从高斯分布。高斯分布的数学性质使其成为建模连续变量的常见选择。,我们无法使用离散的概率分布(如多项分布),而高斯分布是最常见的连续概率分布之一。HMM 的发射概率(Emission Probability)我们可以从以下几个角度来理解为什么可以使用高斯分布。许多 HMM 的应用场景中,观测值是连续的。在 HMM 中,发射概率。

2025-03-08 09:44:56 802

原创 HMM分解联合概率

它基于马尔可夫假设(Markov Assumption),可以用于推导 HMM 相关的概率计算,比如。下面我来详细解释这个分解的逻辑以及它的数学依据。这个公式是 HMM 计算中的核心,特别是在。后,生成剩余观测数据的概率。

2025-03-08 09:42:17 557

原创 【无标题】高斯分布(Gaussian) 还是 隐马尔可夫模型(HMM)

那么 HMM 是更合适的选择。下,观测数据服从一个高斯分布。,那么使用高斯分布可能更合适。这是 HMM 在时间。,HMM 的观测概率。

2025-03-08 09:37:26 1132

原创 HMM状态占用概率推导

的关键部分,用于计算状态占用概率,从而在 M 步更新 HMM 参数。这个公式是 HMM 训练(Baum-Welch 算法)中。这对于长序列来说是不可行的。,使得 HMM 的训练和推断变得可行。是所有可能的隐藏状态序列。,我们可以分解联合概率。来求和,计算复杂度是。

2025-03-08 09:35:44 695

原创 条件概率表示法

是否存在取决于你是否在描述一个具体的。的观测序列,所有可能的状态路径数是。但我们不能直接计算这个求和,因为。,以及在 HMM 中如何知道。,通常我们必须对隐藏变量进行。,远远优于直接求和。

2025-03-08 09:29:10 779

原创 EM训练过程

即我们对隐藏状态的“猜测”应该是多少。(因为要考虑所有可能的隐藏状态序列。如果我们希望找到HMM的最优参数。

2025-03-08 09:26:48 1040

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除