概率论的随机变量
定义:设随机实验的样本空间为S={e},如果函数X=X(e)是定义在S上的实值单值函数那么称X=X(e)为随机变量。
性质:在实验之前不知道具体取值,且他的取值有一定概率。
离散型随机变量:
定义:可能的取值是有限个的或者是可以列出来无限个的随机变量。
分布律:
- 0—1分布
X只有两种情况时才为0-1分布。
分布律可以写成:x 0 1 P k P_k Pk p 1-p - n重伯努利分布(二项分布)
设实验E只有两种可能的实验结果:A和非A那么这个实验为伯努利实验,将实验独立的重复n次可能的结果的就是n重伯努利分布。
在n次实验中A发生k次的概率为
P
{
X
=
k
}
=
C
n
k
n
!
p
k
(
1
−
p
)
n
−
k
=
(
n
k
)
p
k
(
1
−
p
)
n
−
k
P\{X=k\}=\frac{C_n^k}{n!}p^k(1-p)^{n-k}=\begin{pmatrix} n \\ k \end{pmatrix}p^k(1-p)^{n-k}
P{X=k}=n!Cnkpk(1−p)n−k=(nk)pk(1−p)n−k
- 泊松分布
X
−
π
X- \pi
X−π(不会打 ~)
设某个随机变量的可能取值为0,1,2,3……n
P { X = k } = λ k e − λ k ! P\lbrace X=k\rbrace=\frac{\lambda^k e^{-\lambda}}{k!} P{X=k}=k!λke−λ
泊松分布经常用作二项分布的近似运算,当n>20时效果非常好。
0-1 分布就是扔了一次硬币。
二项分布就是扔了好多次硬币,求正面朝上 X X X次的概率
泊松分布就是二项分布的近似分布。
分布函数:
定义:
F
(
x
)
=
P
{
X
≤
x
}
=
∑
k
−
>
−
∞
k
=
x
P
{
X
=
k
}
F(x)=P\{X\leq x \}=\sum_{k->-\infty}^{k=x} P\{X=k\}
F(x)=P{X≤x}=∑k−>−∞k=xP{X=k}
由概率的特点(非负性、可列可加性)可知:
- F(x)∈[0,1]
- F(x)不是减函数。
- 当x-> - ∞ \infty ∞时 F(x)=0
- 当x-> ∞ \infty ∞时 F(x)=1
均匀分布
X
−
U
(
a
,
b
)
X-U(a,b)
X−U(a,b)
特点:函数图像是一条平滑的直线
f
(
x
)
=
1
a
−
b
x
∈
[
b
,
a
]
f(x)=\frac{1}{a-b} \quad x∈[b,a]
f(x)=a−b1x∈[b,a]
指数分布:
若函数满足:
f
(
x
)
=
{
1
θ
e
−
x
θ
x
>
0
0
x
≤
0
%这是指数分布的概率密度 f(x)=\begin{cases} \frac{1}{\theta }e^{-\frac{x}{\theta}} \quad &x>0 \\ 0 &x\leq 0 \end{cases}
f(x)={θ1e−θx0x>0x≤0
F
(
x
)
=
∫
0
∞
f
(
x
)
d
x
=
1
−
e
−
x
θ
F(x)=\int_0^\infty f(x)dx=1-e^{-\frac{x}{\theta}}
F(x)=∫0∞f(x)dx=1−e−θx
则函数
F
(
X
)
F(X)
F(X)满足
θ
\theta
θ为参数的指数分布,
θ
\theta
θ是
F
(
x
)
F(x)
F(x)的期望。
性质:
P
{
X
>
s
+
t
∣
X
>
s
}
=
P
{
X
>
t
}
P\{X>s+t|X>s\}=P\{X>t\}
P{X>s+t∣X>s}=P{X>t}
即无记忆性
性质的证明:
P
{
X
>
s
+
t
∣
X
>
s
}
=
P
{
(
X
>
s
+
t
)
⋃
(
X
>
s
)
}
P
{
X
>
s
}
=
P
{
X
>
s
+
t
}
P
{
X
>
s
}
=
1
−
F
(
s
+
t
)
1
−
F
(
s
)
=
e
−
(
s
+
t
)
θ
e
−
s
θ
=
e
−
t
θ
=
P
{
X
>
t
}
\begin{aligned} P\{X>s+t|X>s\}&=\frac{P\{(X>s+t) \bigcup (X>s)\}}{P\{X>s\}}\\ &=\frac{P\{X>s+t\}}{P\{X>s\}}\\ &=\frac{1-F(s+t)}{1-F(s)}\\ &=\frac{e^{\frac{-(s+t)}{\theta}}}{e^{\frac{-s}{\theta}}}\\ &=e^\frac{-t}{\theta}\\ &=P\{X>t\} \end{aligned}
P{X>s+t∣X>s}=P{X>s}P{(X>s+t)⋃(X>s)}=P{X>s}P{X>s+t}=1−F(s)1−F(s+t)=eθ−seθ−(s+t)=eθ−t=P{X>t}
正态分布:
X
−
N
(
μ
,
σ
2
)
X-N(\mu,\sigma ^2)
X−N(μ,σ2)
公式:
F
(
x
)
=
1
2
π
σ
e
(
x
−
μ
)
2
2
σ
2
F(x)=\frac{1}{\sqrt{2\pi}\sigma}e^\frac{(x-\mu)^2}{2\sigma^2}
F(x)=2πσ1e2σ2(x−μ)2
此函数的分布函数较为复杂。
在正态分布中
σ
\sigma
σ表示标准差,
μ
\mu
μ表示平均数。
当
x
=
μ
x=\mu
x=μ时函数取得最大值。
当
X
1
X
2
X_1X_2
X1X2相互独立并
X
1
−
N
(
μ
1
,
σ
1
2
)
,
X
2
−
N
(
μ
2
,
σ
2
2
)
X_1-N(\mu_1,\sigma^2_1), X_2-N(\mu_2,\sigma^2_2)
X1−N(μ1,σ12),X2−N(μ2,σ22):
C
1
X
1
+
C
2
X
2
−
N
(
C
1
μ
1
+
C
2
μ
2
,
C
1
2
σ
1
2
+
C
2
2
σ
2
2
)
C_1X_1+C_2X_2-N(C_1\mu_1+C_2\mu_2,C1^2\sigma_1 ^2+C_2^2\sigma_2^2)
C1X1+C2X2−N(C1μ1+C2μ2,C12σ12+C22σ22)
标准正态分布:
当 σ = 1 \sigma=1 σ=1且 μ = 0 \mu=0 μ=0时称随机变量x服从标准正太分布
特点:沿y轴对称
Φ ( − x ) = 1 − Φ ( x ) \Phi(-x)=1-\Phi(x) Φ(−x)=1−Φ(x)
在求概率时经常需要转为标准正态分布之后查表。
概率密度:
其实就是描述分布函数变化趋势的一个函数。
f
(
x
)
=
l
i
m
ξ
−
>
0
+
F
(
x
+
ξ
)
−
F
(
x
)
ξ
f(x)=\mathop{lim}\limits_{\xi->0^+}\frac{F(x+\xi)-F(x)}{\xi}
f(x)=ξ−>0+limξF(x+ξ)−F(x)
f
(
x
0
)
f(x_0)
f(x0)就差不多相等于取
x
0
x_0
x0的概率。
易知:
1.
f
(
x
)
≥
0
f(x)\geq0
f(x)≥0
2.
∫
−
∞
+
∞
f
(
x
)
=
1
\int_{-\infty}^{+\infty}f(x)=1
∫−∞+∞f(x)=1
3.
P
{
x
1
≤
X
<
x
2
}
=
F
(
x
2
)
−
F
(
x
1
)
=
∫
x
1
x
2
f
(
x
)
d
x
P\lbrace x_1\leq X<x_2 \rbrace=F(x_2)-F(x_1)=\int_{x_1}^{x_2}f(x)dx
P{x1≤X<x2}=F(x2)−F(x1)=∫x1x2f(x)dx
4.若函数f(x)在
x
0
x_0
x0处连续,则
F
′
(
x
)
=
f
(
x
)
F'(x)=f(x)
F′(x)=f(x)
另外如果一个函数具有以上几个特点那么该函数一定是某个分布函数的概率密度。
若
f
(
x
)
f(x)
f(x)处处可导则
F
(
x
)
F(x)
F(x)为连续型随机变量,换句话说离散型随机变量不是处处可导。