随机变量及其相关概念解析
1. 随机变量
1.1 随机变量的定义与示例
以抛硬币实验为例,当我们有限次抛硬币时,会产生一些自然的问题,比如正面出现的次数、反面出现的次数、首次出现正面之前反面出现的次数等。对于每次实验的结果,都能回答这些问题。例如,抛 5 次硬币,结果为 TTHHT,那么正面出现 2 次,反面出现 3 次,首次出现正面之前反面出现 2 次。
我们可以把随机变量看作是从样本空间到另一个空间(如整数空间)的映射或函数。例如,对于序列 TTHHT,这个函数会根据我们的问题输出相应的答案。随机变量虽然能将给定输入映射到单个输出,但它的输出空间有相应的分布,这是由于实验本身的随机性导致的,不同输入结果的概率不同,其对应的输出出现的可能性也不同。
同时,多个输入可能映射到同一个输出,比如在图 2 - 3 中,X(HHH) = 3,X(HHTH) 也可能等于 3。
1.2 简单随机变量示例
一种简单的理解方式是将这种映射看作恒等函数。在抛硬币时,将正面编码为 1,反面编码为 0,那么表示抛硬币结果是否为正面的随机变量 C 满足 C(1) = 1;在掷骰子的场景中,随机变量 D 满足 D(5) = 5,即映射输出与掷出的结果相同。
1.3 随机变量在深度学习中的应用
随机变量及其分布在深度学习和机器学习中起着至关重要的作用。以神经网络中的 dropout 技术为例,在训练过程中,dropout 层会以一定概率独立随机地屏蔽上一层的每个神经元,防止网络过度依赖特定的连接或子网络。我们可以将上一层的每个神经元看作一个类似抛硬币的实验,不同的是,这里我们设定了实验的概率,而不
超级会员免费看
订阅专栏 解锁全文
70

被折叠的 条评论
为什么被折叠?



