概率与期望

本文探讨了概率和期望的概念,从集合观下的概率出发,解析了绝对概率与相对概率的区别。接着介绍了数学期望的定义及其计算方法,包括期望的线性性质。通过实例解释了全概率公式、贝叶斯公式和伯努利大数定理,并讨论了概率与期望在不同研究对象下的可变性。
部署运行你感兴趣的模型镜像

1 > 概率 :

( 1 )集合观下的概率

  对于一个事件 其可以分解为若干子事件 而概率就是对这些事件间联系与制约的映射
  因此我们对这若干事件进行数学建模 —— 集合
通过集合间的数学关系反映这些事件间的逻辑关系

( 2 )概率的相对性 :

  概率准确的说是一个总体意义上确定的频率值
根据研究对象及定义域的不同 所得出的概率也不同
  那么相应的 概率(此处仅指量上的概率)就可以被划分为两种 :

1.绝对概率 :

  考虑定义集合U为客观世界的集合(无限不可数集)S为研究对象的极大集合
  我们将绝对概率定义为:定义域在U上的概率
  举个例子: 无论是在北美洲还是南美洲,饭前还是饭后 掷硬币的概率都相同
  不随研究集合S的改变而改变这就是绝对概率

2.相对概率 :

  与绝对概率相反我们将定义域在S上的概率称为相对概率
  集合观下概率可视作事件相对所占比 那么对于同一事件定义域不同相对概率不同
  再举个例子:大街上任意采访 一人是男生的概率约为50% 机房里任意采访 一人是
男生的概率为99.9999%
  再再举个例子: 10个小球任意摸(假设已经摸了n个小球)对于U每个小球被摸到的概率仍为
1/10 ->((10 - n)/10 * 1/(10 - n))然而对于S每个小球被摸到的概率却是 1/(10 - n);
  由此观之定义域(研究对象)的不同将直接导致概率的不同
  因此在考虑概率问题时首先要清楚研究对象,研究主体及给定概率的相互关系;

( 3 ) 概率的几种类型

   古典概率(绝对概率的拓展),试验概率,主观概率 不怎么重要 有兴趣可以自行查阅资料

( 4 ) 基本公式:

1.全概率公式:

∀Bi,Bj∈S,Bi∩Bj=∅,Bi⋃Bj=Ω
则 P(A) = ∑ P(A|Bi)∗P(Bi)
  显然将所有集合A在集合B所占比×集合B在集合S中所占比求和就是A在集合S中所占比
  也就是说全概率公式是应用相对概率计算绝对概率的公式
  转化思想 将难以求得概率的A化为易求得概率的B

2.贝叶斯公式:

P(A|B)=P(B|A)×P(A) / P(B) 其中P(A|B)表示B事件发生时A事件发生的概率
  显然 参照条件概率或相对概率理解 (如不能理解可画维恩图辅助)
  应用于计算逆向概率 体现两个不同样本空间对同一样本空间的关系的关系

3.独立重复实验的伯努利大数定理:

  若一次试验中某事件发生的概率为p,不发生的概率为q 则在n次试验中该事件至少发生m次的概率为:
(p + q)^n 展开式中从 p^n 到包括p^m × q^(n - m)为止各项的和
  而该事件恰好发生k次的概率为C(n,k)×p^k × q^(n - k);
  显然 我们知道概率的本质问题是组合 而该公式则是生成函数(母函数)的应用 这样就很好理解了

2 > 期望 :

( 1 ) 随机变量:

   随机变量其实是一种特殊的函数 用于将集合(样本点)映射为实数
  通过随机变量,我们可以通过考虑值来考虑事件
也就是说随机变量是事件数的展现

( 2 ) 数学期望:

  定义随机变量X的期望为: E[X]=∑P(x)×X(x)=∑xP(X=x) 其中,P(X=x)表示∑ P(y)[X(y)=x]
   如果说概率是对于未发生的事情会不会发生的可能性的一种预测 那么数学期望可以理解为某事情大量发生的平均结果
  (如果上面式子看不懂)对于一个离散性随机变量 期望是试验中每次可能结果的概率乘以其结果(对总体的贡献)的和
  也就是说期望可以理解为某一事件结果的加权平均
根据期望的公式,我们有两个计算方式:
  1.考虑枚举每一个事物,计算其概率再求期望
  2.考虑枚举权值x,计算权值的概率求期望

( 3 ) 期望的计算:

1.根据期望定义式

  利用dfs枚举每种结果的概率乘以其贡献求和计算(通常情况下会超时一部分数据)
  (参考 绿豆蛙的归宿(定义式dfs暴力)聪聪与可可(双向期望))

2.期望的线性性质 E[aX+bY]=aE[X]+bE[Y]

  既然集合概率可以转化为子集概率计算 那么集合期望显然也可以转化为子集期望进行计算
  下面的推导将加深对与期望线性递推的理解:
  利用数学归纳法
   设已知P( X )(事件发生绝对概率)Q( X )(事件发生相对概率) , G( x )(贡献)并且 G( y ) = f(G( x ))
  若f(x)为线性关系且x,y存在逻辑顺序
  则 E( y ) = Q( y ) * G( y ) = Q( x ) * P( y ) * G( y ) = Q( x ) * P( y ) * f(G(x)) = f(E( x )) * P ( y );
  由此观之期望的线性递推其实本质还是定义式 只不过在明确事件间概率与贡献的递推关系后可以转化为期望的递推关系 进而简化算法的时间复杂度 综上所述解决概率dp的核心其实是求f( x )也就是说状态转移方程就是
f( x )
  利用期望的线性性质递推 需要考虑不同事件间的转移
  而线性递推的使用条件是事件概率为绝对概率因此部分试题需要维护这个绝对概率 即将相对概率转化为绝对概率(考虑S与U的关系)
  (参考 OSU!:维护期望线性递推 Red is good:维护绝对概率)

3.期望的积:

  两个随机变量X,Y 满足∀x1∈DX,y1∈DY,P(X=x1∩Y=y1)=P(X=x1)P(Y=y1) 则称它们为独立的随机变量
  对于两个独立的随机变量 满足:E[XY]=E[X]E[Y]
证明:E[XY]=P[XY] * G[XY]=P[X]*P[Y]*G[x]*G[Y](当且仅当XY相互独立时推导成立)
  应用:类比全概率公式或贝叶斯公式的应用 转化期望 常与线性递推结合使用
  期望的积阐述了积事件的期望与构成积事件的独立事件的期望间的关系

4.全期望公式:E( X ) = ∑P( Y = yi )E( X | Y = yi ) = E( E(X | Y) )

  与全概率公式相同 全期望公式也是利用相对期望计算绝对期望的公式
  显然 事件X对集合S的期望 等于 事件X对集合Y的期望乘以事件Y发生概率之和 也就是相对期望X|Y的期望

( 3 ) 期望的相对性:

  既然概率具有相对性 那么我们很容易联想到 由概率引申出的期望同样具有相对性
  因此 类比概率的相对性 期望的相对性同样是基于研究对象的不同并且相对期望与相对概率一一对应
  也就是说相对期望是随机变量X在其研究对象集合的结果的加权平均

3 > 概率与期望的可变性:

  在某些情况下 大量试验中一些试验结果 受主观因素影响 并不会对客观结果造成影响 这也就直接导致了概率和期望的可变性
  举个例子:桌面上有R张红牌和B张黑牌,随机打乱顺序后放在桌面上,开始一张一张地翻牌,翻到红牌得到1美元,黑牌则付出1美元。可以随时停止翻牌,在最优策略下平均能得到多少钱。(Red is good)
  这个问题乍一看似乎很简单每次翻牌的贡献为1或-1 并且这是一个相对概率 (每次翻牌都会影响下一次翻牌的结果) 因此需转化为绝对概率才能进行线性递推 那么思路很清晰了 我们利用二维数组记录红牌和黑牌数进行概率转移 进而完成期望转移
  然而这个问题真的结束了吗?显然没有 要不然我举这个例子干什么 我们发现忽略了题目中的一个关键信息:
  最优策略下可以随时停止翻牌 而我们只考虑S集合下的期望值 显然不正确啊!当目前集合期望值小于零时我们可以停止翻牌
  也就是说我们舍弃了这个集合的期望值(注意:这种舍弃行为仅在期望的对象可变时才具备正确性)
  这道题中我们将集合S中的期望值转化为其子集中的期望值然后舍弃了非最优决策(相当与从集合S中删除了该集合)
  进一步拓展开来期望与概率并不是一成不变的在主观作用下 试验结果可以被更改和调整 因此 在解题中也要考虑主观加持下试验结果的可变性

您可能感兴趣的与本文相关的镜像

Anything-LLM

Anything-LLM

AI应用

AnythingLLM是一个全栈应用程序,可以使用商用或开源的LLM/嵌入器/语义向量数据库模型,帮助用户在本地或云端搭建个性化的聊天机器人系统,且无需复杂设置

概率密度函数是描述连续随机变量在某个取值点附近可能性的函数,设连续随机变量X有概率分布函数F(x),则F(x)的导数f(x)=F’(x)称为X的概率密度函数,简称为密度函数[^1]。 期望是对随机变量取值的平均水平的一种度量。对于离散随机变量,若随机变量 \(X\) 取值为 \(x_1,x_2,\cdots,x_n\),对应的概率为 \(P(X = x_1),P(X = x_2),\cdots,P(X = x_n)\),则期望 \(E(X)=\sum_{i = 1}^{n}x_iP(X = x_i)\);对于连续随机变量 \(X\),若其概率密度函数为 \(f(x)\),则期望 \(E(X)=\int_{-\infty}^{\infty}xf(x)dx\)。 概率密度函数期望关系紧密,期望是通过概率密度函数来计算的。对于连续随机变量,期望概率密度函数变量值乘积在整个取值区间上的积分。概率密度函数完整地描述了随机变量的概率分布情况,而期望则是基于这个分布所得到的一个代表随机变量平均取值的数值。例如在正态分布中,其概率密度函数为 \(f(x)=\frac{1}{\sqrt{2\pi}\sigma}e^{-\frac{(x - \mu)^2}{2\sigma^2}}\) ,其中 \(\mu\) 就是该正态分布的期望,体现了数据的中心位置。 在实际应用中,概率密度函数和期望都有广泛用途。比如在统计学里,正态分布是重要的连续型概率分布,许多自然现象都可用它描述,MATLAB等数学计算软件提供了大量内置函数用于正态分布的计算和仿真,可通过概率密度函数计算期望等统计量,还能进行模拟实验验证理论计算[^2]。 ```python import numpy as np import matplotlib.pyplot as plt from scipy.stats import norm # 定义正态分布的参数 mu = 0 # 期望 sigma = 1 # 标准差 # 生成 x 值 x = np.linspace(-5, 5, 1000) # 计算概率密度函数值 pdf = norm.pdf(x, mu, sigma) # 计算期望(理论值) expected_value = mu # 绘制概率密度函数图像 plt.plot(x, pdf, label='PDF') plt.axvline(x=expected_value, color='r', linestyle='--', label='Expected Value') plt.title('Normal Distribution PDF and Expected Value') plt.xlabel('x') plt.ylabel('Probability Density') plt.legend() plt.show() print(f"Expected Value: {expected_value}") ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值