- 博客(7)
- 收藏
- 关注
原创 线性空间,概念内涵与意义
函数 ( f(x) = \sin x ) 和 ( g(x) = x^2 ) 在 ( C[0,1] ) 中可以“相加”得到新函数 ( h(x) = \sin x + x^2 ),且对任意 ( \mathbf{u}, \mathbf{v}, \mathbf{w} \in V ),( a, b \in \mathbb{F} ),满足以下。( P_2(\mathbb{R}) )(二次多项式)的基可以是 ( {1, x, x^2} ),维数为 3。,则称 ( V ) 是 ( \mathbb{F} ) 上的。
2025-12-19 10:57:55
430
原创 协变实在论:现代物理学的世界观
没有量子世界,只有抽象的量子力学描述。物理学不告诉我们世界‘是什么’,而是我们能‘说’什么。(“没有客观世界”)。康德认为我们只能认识现象,物自体永远隔绝;⚠️(忽略理论的解释力与统一性)协变实在论:现代物理学的世界观。现实 = 协变描述下的不变内核。❌(物理测量不依赖人类意识)(“现实由意识创造”),也。理论只是预测工具,无真理性。✅(最接近主流物理实践)✅(操作+哲学双重契合)世界如我们所见那样存在。❌(忽略观测依赖性)
2025-12-13 09:53:11
564
原创 理解:信息量,熵,微分熵
信息量 := (事件发生)不确定的量 := 惊讶程度 := (发生)概率倒数的对数 ,即:I(x) = −log p(x)说明:1. 对数化变乘除为加减,加负号让信息量成为概率的减函数,且信息量取值非负。2. 对数底,机器学习取e,单位纳特;通信领域取2,单位比特。(信息)熵 := (整个样本空间下)随机变量整体不确定的量 := 随机变量取所有值时包含的信息量 := 信息量的数学期望,即:离散随机变量 (离散)熵H(X) = E[I(X)] = −∑P(x)logP(x)微分熵,谨慎使用
2025-11-19 12:13:25
626
原创 理解 :for,while与do while
当你发现自己在写 while i < len(list),请立刻停下来——你很可能该用 for。动态条件用while;do需要在判断前作的,用do while。💡 这就是为什么 for 更安全、更高效——它把“如何遍历”的逻辑封装在了对象内部。这种循环至少会执行一次代码块,然后在每次迭代结束时检查条件。理解这些差异,能帮助你写出更清晰、高效、Pythonic 的代码。的初始值如何,循环体中的代码至少会执行一次。循环,并在循环体内部添加逻辑来决定何时退出循环。do-while:先do一下,再判断是否退出。
2025-11-19 10:03:26
861
原创 理解:交叉熵,KL散度,JS散度,散度
KL散度 = H(P,Q) - H(P) ≈ 0.08 bits(浪费的信息)这个词,源于拉丁语 “to diverge”(发散),但在两个领域引申出了不同的含义。在微分几何或信息几何中,这二者存在深层关联,但对初学者,需要的是严格区别这两者。就像“苹果(水果)”和“Apple(公司)”都叫 apple。:交叉熵等于真实分布P的熵加上P与Q之间的 KL 散度。它们都不是真正的距离,但都从不同角度量化了概率分布之间的“不一致”。二者都是信息论赠予我们的“分布显微镜”,看清数据背后的概率真相。
2025-11-18 13:11:23
779
原创 理解:联合熵,条件熵,互信息,协方差
互信息(Mutual Information, MI)和协方差(Covariance)都是用来衡量两个变量之间“关联性”的工具,但它们。🌰 例子:例子:若 Y=X2,且 X∼N(0,1),则 Corr(X,Y)=0,但 I(X;💡 如果 (Y) 完全由 (X) 决定(如 (Y = X^2)),则 (H(Y|X) = 0)。掷一枚公平硬币((X):正/反),再掷一颗公平骰子((Y):1–6)。设 (X) = 天气(晴/雨),(Y) = 地面是否湿(是/否)。比特(bit,以2为底)、纳特(nat,以e为底
2025-11-18 12:43:58
960
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅