在數學與統計學中,大数定律(英語:Law of large numbers)又称大数法则、大数律,是描述相当多次数重复实验的结果的定律。根据这个定律知道,樣本數量越多,則其算术平均值就有越高的機率接近期望值。
大数定律很重要,因为它“說明”了一些随机事件的均值的长期稳定性。人们发现,在重複試驗中,随着试验次数的增加,事件发生的频率趋于一个稳定值;人们同时也发现,在对物理量的测量实践中,测定值的算术平均也具有稳定性。比如,我们向上抛一枚硬币,硬币落下后哪一面朝上是偶然的,但当我们上抛硬币的次数足够多后,达到上万次甚至几十万几百万次以后,我们就会发现,硬币每一面向上的次数约占总次数的二分之一,亦即偶然之中包含着必然。
上述现象是切比雪夫不等式的一个特殊应用情况,辛钦定理和伯努利大数定律也都概括了这一现象,它们统称为大数定律。
例如,抛掷一颗均匀的6面的骰子,1,2,3,4,5,6应等概率出现,所以每次扔出骰子後,出現點數的期望值是
根据大数定理,如果多次抛掷骰子,随着抛掷次数的增加,平均值(样本平均值)应该接近3.5,根据大数定理,在多次伯努利实验中,实验频率最后收敛于理论推断的概率值,对于伯努利随机变量,理论推断的成功概率就是期望值,而若对n个相互独立的随机变量的平均值,频率越多则相对越精准。
例如硬币投掷即伯努利实验,当投掷一枚均匀的硬币,理论上得出的正面向上的概率应是1/2。因此,根据大数定理,正面朝上的比例在相对“大”的数字下,“理应”接近为1/2,尤其是正面朝上的频率在n次实验(n接近无限大时)后应几近收敛到1/2。
即使正面朝上(或背面朝上)的比例接近1/2,几乎很自然的正面与负面朝上的绝对差值(absolute difference差值范围)应该相应随着抛掷次数的增加而增加。换句话说,绝对差值的概率应该是会随着抛掷次数而接近于0。直观的来看,绝对差值的期望会增加,只是慢于抛掷次数增加的速度。
大数定律主要有两种表现形式:弱大数定律和强大数定律。定律的两种形式都肯定无疑地表明,样本均值
-
收敛于真值
-
其中 , , ... 是独立同分布、期望值 且皆勒贝格可积的随机变量构成的无穷序列。 的勒贝格可积性意味着期望值 存在且有限。
方差 有限的假设是非必要的。很大或者无穷大的方差会使其收敛得緩慢一些,但大数定律仍然成立。通常采用这个假设来使证明更加简洁。
强和弱之间的差别在所断言的收敛的方式。对于这些方式的解释,参见随机变量的收敛。
弱大数定律(WLLN) 也称为辛钦定理,陈述为:样本均值依概率收敛于期望值。[1]
-
也就是说对于任意正数 ε,
-
强大数定律(SLLN)指出,样本均值以概率1收敛于期望值。
-
即
-
设 为相互独立的随机变量,其数学期望为: ,方差为:
则序列 依概率收敛于 (即收敛于此数列的数学期望 )。
换言之,在定理条件下,当 无限变大时, 个随机变量的算术平均将变成一个常数。
设在 次独立重复伯努利试验中,事件 发生的次数为 ,事件 在每次试验中发生的母體機率为 , 代表樣本發生事件 的频率。
则对任意正数 ,伯努利大数定律表明:
-
換言之,事件发生的频率依機率收敛于事件的母體機率。該定理以严格的数学形式表达了频率的稳定性,也就是说当 很大时,事件发生的频率与母體機率有较大偏差的可能性很小。