- 博客(413)
- 问答 (3)
- 收藏
- 关注
原创 视图的容器
容器(Container)是一个可以“装”其他视图(View)的视图。简单来说,它就像一个盒子,你可以把其他的东西放进去。在图形界面开发中,这个“盒子”就是一个特殊的视图,它的主要职责就是包裹、排列和管理它内部的子视图。一个按钮(Button)一个文本框(TextView / EditText)甚至是另一个容器特性普通 View容器 View(如 LinearLayout、RelativeLayout)能否放子视图❌ 不可以✅ 可以是否管理布局❌ 不管理。
2025-05-14 02:14:45
392
原创 EM中的E 步到底是在“干嘛”?它的“核心动作”是什么?通俗理解
E步就是:“你已经看到结果了,但不知道它来自哪个来源,你就用已有的模型参数来猜测它的来源各占多少比例。你在电影院放映厅外看到观众走出来,一个个都表情很满足。你知道观众们的满意度和他们坐的排数有关,但你。你喝了一口果汁,尝起来像是混合了苹果、橙子、芒果,但你不知道比例。即:对每个人来说,苹果、橙子、芒果各自“负了多大责任”。你现在观察到一张脸,想猜它属于哪个类别。(也没摄像头记录)。这张脸分别和三类人的相似度有多高?这个“比例”或“责任”,就是。哪类更可能“生成”这张脸?这些是观测到的特征值。
2025-04-25 16:38:21
536
原创 为什么在 SDS-PAGE 中,蛋白质迁移速度和分子质量(mass)成反比关系?
变量关系电荷 vs 质量q∝mq∝m(SDS 作用后)阻力 vs 质量f∝mαf∝mα(实验经验,α≈1α≈1速度 vs 电荷 & 阻力vqEfvfqE合并后速度 vs 质量v∝1mα−1v∝mα−11或近似1mm1迁移距离 vs 质量d∝1mαorlogm∝−dd∝mα1orlogm∝−dSDS 把蛋白都变成“电荷和质量成比例”,再通过凝胶提供的质量相关阻力。
2025-04-20 10:49:29
1024
原创 Fick 第二定律下有哪些类型的解
表面固定浓度、初始为 0 的渗透过程的解析解(半无限空间)它描述“扩散过程中,浓度随时间如何变化”的。= 点源扩散时的解析解(无限空间)
2025-04-20 01:36:18
599
原创 封闭结构的电润湿芯片(Closed Configuration of EWOD chip)
我们可以用电润湿公式cosθVcosθ0ε0εr2γLGdV2cosθVcosθ02γLGdε0εrV2θ0\theta_0θ0:初始接触角(由疏水层决定,通常 > 100°);VVV:施加电压;εrεr:介电层相对介电常数(例如 Parylene 有高电容);γLGγLG:液-气表面张力,单位 N/m;ddd:介电层厚度。
2025-04-20 01:01:11
516
原创 水分子为什么会自动形成高接触角?
疏水材料是一类与水之间的吸引力很弱的材料,也就是说,它们和水之间的固-液界面张力γSLγSL非常大。材料接触角(θ)110°–120°PDMS(硅橡胶)~110°~100°石蜡~95°硅片(未经处理)< 90°(通常亲水)水分子为了降低系统总自由能,尽量减少与固体表面的接触面积。这正是由材料的表面能(surface energy)决定的固-液界面相互作用强弱造成的。也就是说:不是水主动讨厌这个材料,而是它“感受到”这个材料不喜欢它,所以它。
2025-04-20 00:58:11
593
原创 完整梳理一下施加电压后液滴张力变化、接触角变化和各力之间的相互关系
的状态,自发调整液滴形状来“用更多面积换来更多电容能量”,本质是能量交换,而不是张力强度变了。液滴之所以变扁,是因为电场力“拉住了底部”,张力无法回到原来的平衡态。这不是传统意义上的“外力”,而是从能量角度看,是在。通电后出现了一个额外向下的电场力(静电引力)重力确实存在,但对微小液滴影响极小,主要由。所以不能说“张力变大了导致角度变小”,而是。在没有电压时,液滴的受力和平衡由三种。没变,而分子那项是正数 →。这是水滴“静止不动”的状态。最终液滴调整形状,以达到。(❌这个方向是错的)
2025-04-19 11:13:49
475
原创 液体粘度 和 气体粘度
与其他相对分子质量相近的液体(如甲烷、氨等)相比,水的粘度显著更高,就是因为氢键的存在。当温度升高,分子热运动加剧,动能增强 → 原本靠得较近的分子之间的氢键会。→ 分子间作用力增强 → 相互滑动时受更多阻力 → 粘度上升。此外,剪切速率不同,还会出现非牛顿特性(如剪切变稀或剪切变稠)。→ 分子之间的束缚减少 → 更容易相对滑动 → 粘度下降。,这种网络限制了水分子的自由滑动能力,形成了相对较高的粘度。升温 → 分子动能增强,碰撞更频繁 → 粘度上升。在液体中,分子原本就靠得很近,进一步加压会让分子。
2025-04-16 06:40:07
927
原创 惯性力(Inertial Force)和黏性力(Viscous Force)
惯性力是指由于流体质量和加速度导致的力。FinertiamaFinertiama其中mmm是流体单位体积质量(密度ρ\rhoρ)乘以体积,aaa是加速度。黏性力是由于流体内部分子之间的摩擦导致的剪切力,用于抵抗速度梯度。FviscousμdudyFviscousμdyduμ\muμ是动力黏度(dynamic viscosity),单位:Pa·sdudydydu是速度梯度,即层与层之间的速度变化率。
2025-04-16 04:20:25
1356
原创 路径复杂为什么会导致fluidic resistance增大
改成蛇形结构后,为了占同样面积,引入 5 个弯折,路径变为。数字上看出来的,而是在设计上形成了等效的“局部阻塞”,这是工程权衡的一部分。设原通道为直线,长度。
2025-04-16 02:16:18
466
原创 人生 × 深度学习
人生的意义也许不是固定的,但我们可以给它“定义一个目标函数”,并用一生去最小化它。在深度学习里,loss function 衡量了你现在和“理想状态”之间的差距。生活中的你如果永远绷紧、强迫每一次都完美地工作,其实容易过拟合现实。慢慢下坡,一步步来,每次都只更新一点点,不断接近一个你想成为的人。少一点执着,多一点自我,才能 generalize 到真正的生活。然后继续 forward,一直到自己收敛为最好的版本。学习率一开始很小,慢慢变大,然后再衰减。,它会让你去关注生活中不同的维度。
2025-03-27 14:22:58
326
原创 Attention的V的理解
Q 和 K 只能告诉模型“你要关注谁”,但你要预测一个英文单词,必须从原句中取出具体的语义内容,也就是 V。如果你不提取 V,就相当于“知道要看谁,但不知道他讲了什么”——你就无法输出真正有语义的翻译结果。其实是在探讨“模型翻译为什么不能直接输出答案”,而是还得“提取语义”,还要搞什么 Q、K、V,这不多此一举吗?我们一步一步给出你完全能理解的回答👇你以为模型是:实际上模型是:看到 “i” → 输出 “我”看完整个句子 → 判断上下文 → 输出合适的词靠字典对照。
2025-03-24 04:31:35
543
原创 卷积神经网络(CNN)
层类型主要功能输出结构变化卷积层提取局部特征,保留空间结构变为多个 feature maps池化层降维,增强平移不变性,减少计算量降低 feature maps 的空间尺寸全连接层整合所有特征并用于最终分类或预测得到最终输出(如10类概率)
2025-03-22 07:00:49
984
原创 HMM (Hidden Markov Model) 基于高斯分布转换为高斯混合分布的过程
在隐马尔可夫模型 (HMM) 中,状态的观测概率通常建模为高斯分布 (Gaussian distribution),因为这样可以使计算更加简单。在 HMM 训练中,通常会先对状态进行聚类,以便减少参数数量,提高模型的泛化能力。在引入多个高斯分布后,我们需要对模型进行重新训练,使得这些新的高斯分布可以更好地适应数据。任务中非常常见,因为它可以有效提高 HMM 处理语音数据的能力,同时仍然保留 HMM 的隐状态建模能力。作为状态的输出概率分布,可以提高模型的建模能力,使得 HMM 更能准确地描述音频信号。
2025-03-15 21:51:32
911
原创 多元高斯分布概率密度函数(PDF)示例
多元高斯分布(Multivariate Gaussian Distribution)适用于。,用于建模数据的联合分布。完整计算可以用 Python 验证。假设我们有一个二维(
2025-03-08 10:56:31
477
原创 多元高斯分布及其参数估计
多元高斯分布(或多元正态分布,Multivariate Gaussian Distribution)是。在机器学习、信号处理、统计学和模式识别等领域,多元高斯分布被广泛应用。,它考虑了数据的分布情况,而不是直接使用欧几里得距离。极大似然估计(MLE)用于找到。对于均值向量,MLE 估计值是。时,多元高斯分布退化为。,使得数据点的似然最大。协方差矩阵不仅仅描述。这个二次型相当于计算。
2025-03-08 10:38:56
958
原创 累积分布函数(CDF)和概率密度函数(PDF)
这就是样本方差(sample variance)。,是最常见的连续概率分布之一。正态分布的期望值(均值)就是。,我们希望估计正态分布的参数。来描述连续随机变量的行为。,其概率密度函数(PDF)在概率论中,我们通常使用。这个函数描述了随机变量。,即极大似然估计的均值。对于一个实值随机变量。
2025-03-08 10:35:54
1580
原创 R 个语音序列(utterances)
这样,我们可以在整个语料库上优化HMM参数,而不仅仅是单个语音序列。在实际的语音识别任务中,我们通常不会只用。的HMM训练中,我们使用。时,需要对所有语音数据。,然后再计算HMM参数。HMM的状态转移概率。
2025-03-08 10:27:49
1047
原创 HMM 在多个语音序列上的训练 简述
但如果我们有多个语音序列,就需要在所有语料。在实际应用中,我们的HMM模型通常是。在EM算法的M步中,状态转移概率。的,而不仅仅是单个语音序列。个语音序列,每个语音序列。假设我们的语料库包含。
2025-03-08 10:26:11
522
原创 EM算法(Expectation-Maximization)中, E E 步(E-step)和 M M 步(M-step)分别对应的操作
在EM算法(Expectation-Maximization)中,E步(E-step)和M。
2025-03-08 10:22:24
664
原创 期望最大化(EM, Expectation-Maximization)算法的核心思想
为什么我们不直接最大化logPXQ∣Mλ,而是最大化Q∈Q∑PQ∣XMλ0logPXQ∣Mλ。
2025-03-08 10:11:15
805
原创 HMM 采用高斯分布
虽然单个高斯分布适用于很多情况,但在某些复杂的任务(如语音识别)中,一个状态可能对应多个类别的观测数据。选择高斯分布作为 HMM 的发射概率还有一些额外的数学和统计上的优点。高斯分布是最常见的连续分布之一,所以它是一个自然的选择。在 HMM 训练过程中,我们希望找到能最大化数据似然。所以,高斯分布成为 HMM 中连续发射概率的首选。,这使得它成为连续数据建模的默认选择。来建模,而不能使用离散分布。为了解决这个问题,可以扩展到。在 HMM 中,发射概率。是连续变量,我们必须用。
2025-03-08 09:46:40
807
原创 高斯 HMM(GHMM)
在某些复杂应用中,例如语音识别,一个隐藏状态可能对应多个不同的音素特征,这时单个高斯分布可能不够用。为了解决这个问题,我们可以使用。(如噪声、测量误差)都服从或近似服从高斯分布。高斯分布的数学性质使其成为建模连续变量的常见选择。,我们无法使用离散的概率分布(如多项分布),而高斯分布是最常见的连续概率分布之一。HMM 的发射概率(Emission Probability)我们可以从以下几个角度来理解为什么可以使用高斯分布。许多 HMM 的应用场景中,观测值是连续的。在 HMM 中,发射概率。
2025-03-08 09:44:56
557
原创 HMM分解联合概率
它基于马尔可夫假设(Markov Assumption),可以用于推导 HMM 相关的概率计算,比如。下面我来详细解释这个分解的逻辑以及它的数学依据。这个公式是 HMM 计算中的核心,特别是在。后,生成剩余观测数据的概率。
2025-03-08 09:42:17
468
原创 【无标题】高斯分布(Gaussian) 还是 隐马尔可夫模型(HMM)
那么 HMM 是更合适的选择。下,观测数据服从一个高斯分布。,那么使用高斯分布可能更合适。这是 HMM 在时间。,HMM 的观测概率。
2025-03-08 09:37:26
950
原创 HMM状态占用概率推导
的关键部分,用于计算状态占用概率,从而在 M 步更新 HMM 参数。这个公式是 HMM 训练(Baum-Welch 算法)中。这对于长序列来说是不可行的。,使得 HMM 的训练和推断变得可行。是所有可能的隐藏状态序列。,我们可以分解联合概率。来求和,计算复杂度是。
2025-03-08 09:35:44
630
原创 条件概率表示法
是否存在取决于你是否在描述一个具体的。的观测序列,所有可能的状态路径数是。但我们不能直接计算这个求和,因为。,以及在 HMM 中如何知道。,通常我们必须对隐藏变量进行。,远远优于直接求和。
2025-03-08 09:29:10
670
原创 加权有限状态变换器(Weighted Finite-State Transducer, WFST)
TQΣΓEq0FλTQΣΓEq0FλQQQ:状态的有限集合。Σ\SigmaΣ:输入符号(Input Alphabet)。Γ\GammaΓ:输出符号(Output Alphabet)。E⊆Q×Σ∪ε×Γ∪ε×R×QE⊆Q×Σ∪ε})×Γ∪ε})×R×Q状态转移集合(Transitions),表示从一个状态到另一个状态的合法变换。
2025-02-04 16:58:20
1107
原创 音子(mora)、音节(syllable)、音调(tone) 和 音素(phoneme)
用于衡量一个音节的长短。在一些语言中(如日语),音子的数量影响韵律(prosody)和节奏(rhythm)。,但有些汉字可能会被读作多个音节(如"噢"可以是 “ō” 或 “o”).诗歌的格式基于音子(5-7-5 结构),而不是音节。,在某些语言(如汉语、泰语、越南语)中,音调会改变。
2025-02-03 17:03:30
1095
原创 这段内容详细介绍了语音识别的核心概念、总体架构以及基于**HMM(隐马尔可夫模型)**的**噪声信道模型(noisy-channel model)**,并通过**贝叶斯推理(Bayesian infe
语音识别的任务是从输入的语音信号(通常表示为声学波形)中,识别出对应的文本句子。这个过程面临一个关键挑战:真实的信号在传输过程中会受到噪声的影响(比如环境噪声或设备误差),从而导致信号失真,增加了语音识别的难度。噪声信道模型是语音识别的经典框架,通过语言模型和声学模型的结合,在理论上为语音识别提供了数学基础。在实际应用中,动态规划算法(如维特比算法)进一步提升了搜索效率,解决了计算复杂性的问题。这个过程展示了如何通过贝叶斯推理和噪声信道模型,从噪声污染的信号中恢复源句子。
2025-02-03 16:24:38
775
原创 计算在时刻 t 处于状态 i 的概率
前向概率αtiαti:从一开始到ttt的可能性。后向概率βti\beta_t(i)βti:从ttt开始到结束的可能性。归一化PO∣λPO∣λ:所有路径的总可能性。最终γtiγti:你在某个时刻ttt处于状态iii的概率。
2025-02-03 08:42:52
504
原创 EM算法重新估计(Re-estimate)隐马尔可夫模型(HMM)的观测概率
bjvk公式bjvkbjvk状态j的总期望次数状态j生成符号vk的期望次数。
2025-02-03 08:17:49
490
原创 EM算法(Expectation-Maximization),用于在隐马尔可夫模型(HMM)中估计和更新模型参数(状态转移概率 A 和观测概率 B)
EM 算法是一个迭代优化算法,用于在隐变量(比如 HMM 的隐藏状态)无法直接观测的情况下,最大化模型的对数似然函数。在 M 步中,根据 E 步计算的结果,更新模型参数。这里的目标是通过不断更新模型参数。在观测序列的第一个时刻的概率。,生成部分观测序列的概率。,生成剩余观测序列的概率。
2025-02-03 08:10:57
744
原创 估计状态转移概率
aij我们需要知道,从一个隐藏状态i转移到另一个隐藏状态j的概率。这个概率并不能通过直接观察到的数据计算,因为隐藏状态是我们看不到的("隐"马尔可夫模型)。所以,我们通过模型的参数λ和观测序列O来这个转移概率。aij从状态i转移的总期望次数从状态i转移到状态j的期望次数ij这里引入了ξijξijPqtiqt1j∣OλξijtijαtitiO1O2Otβt1j。
2025-02-03 08:08:13
593
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人