Law Of Large Numbers - 大数定律 - 大数定理

大数实质上可以理解为多数

在随机事件的大量重复出现中,往往呈现几乎必然的规律,这个规律就是大数定律。这个定理就是在试验不变的条件下,重复试验多次,随机事件的频率近似于它的概率。偶然中包含着某种必然。

大数定律分为弱大数定律和强大数定律。

大数定律是一种描述当试验次数很大时所呈现的概率性质的定律。大数定律并不是经验规律,而是在一些附加条件上经严格证明了的定理,它是一种自然规律因而通常不叫定理而是大数定律。

如果统计数据足够大,那么事物出现的频率就能无限接近他的期望值。

1. 切比雪夫大数定理 (切比雪夫不等式)

设 x1,x2,...,xnx_{1}, x_{2}, ..., x_{n}x1​,x2​,...,xn​ 是相互独立的随机变量 (或者两两不相关),他们分别存在期望 E(xk)E(x_{k})E(xk​) 和方差 D(xk)D(x_{k})D(xk​)。若存在常数 CCC 使得,D(xk)≤C(k=1,2,...,n)D(x_{k}) \leq C (k = 1, 2, ..., n)D(xk​)≤C(k=1,2,...,n)
则对任意小的正数 ϵ\epsilonϵ,满足下列公式

limn→∞P{∣1n∑k=1nxk−1n∑k=1nE(xk)∣<ϵ}=1{\underset {n \rightarrow \infty}{\text{lim}}} P\{ |\frac{1}{n} \sum_{k=1}^{n} x_{k} - \frac{1}{n} \sum_{k=1}^{n} E(x_{k})| < \epsilon \} = 1n→∞lim​P{∣n1​k=1∑n​xk​−n1​k=1∑n​E(xk​)∣<ϵ}=1

随着样本容量 n 的增加,样本平均数将接近于总体平均数。从而为统计推断中依据样本平均数估计总体平均数提供了理论依据。

切比雪夫大数定理并未要求 x1,x2,...,xnx_{1}, x_{2},... , x_{n}x1​,x2​,...,xn​ 同分布,相较于伯努利大数定律和辛钦大数定律更具一般性。

2. 伯努利大数定律

设 μ\muμ 是 nnn 次独立试验中事件 A 发生的次数,且事件 A 在每次试验中发生的概率为 PPP,则对任意正数 ϵ\epsilonϵ,

limn→∞P{∣μnn−p∣<ϵ}=1{\underset {n \rightarrow \infty}{\text{lim}}} P\{ |\frac{\mu_{n}}{n} - p| < \epsilon \} = 1n→∞lim​P{∣nμn​​−p∣<ϵ}=1

伯努利大数定律是切比雪夫大数定律的特例,当 n 足够大时,事件 A 出现的频率将几乎接近于其发生的概率,即频率的稳定性。

3. 辛钦大数定律

设 {ai,i≥1}\{a_{i}, i \geq 1\}{ai​,i≥1} 为独立同分布的随机变量序列,若 aia_{i}ai​ 的数学期望存在,则服从大数定律。对任意正数 ϵ\epsilonϵ,

limn→∞P{∣1n∑i=1nai−μ∣<ϵ}=1{\underset {n \rightarrow \infty}{\text{lim}}} P\{ |\frac{1}{n} \sum_{i=1}^{n} a_{i} - \mu| < \epsilon \} = 1n→∞lim​P{∣n1​i=1∑n​ai​−μ∣<ϵ}=1

辛钦大数定律指出用算术平均值来近似实际真值是合理的,而在数理统计中,用算术平均值来估计数学期望就是根据此定律,这一定律使算术平均值的法则有了理论依据。

对于弱大数定律,上述收敛是指依概率收敛 (in probability)。
对于强大数定律,上述收敛是指几乎必然收敛 (almost surely/with probability one)。

大数定律通俗来讲就是样本数量很大的时候,样本均值和真实均值充分接近。大数定律与中心极限定理一起,成为现代概率论、统计学、理论科学和社会科学的基石。

Law Of Large Numbers - 大数定律 - 大数定理相关推荐

  1. 大数定律(law of large numbers)

    大数定律(law of large numbers),又称大数定理,是一种描述当试验次数很大时所呈现的概率性质的定律. 事实上,这个定律在日常生活中的应用很广泛,也很实用.比如,一大早去乘公交车,从时 ...

  2. 【概率论】6-2:大数定理(The Law of Large Numbers)

    title: [概率论]6-2:大数定理(The Law of Large Numbers) categories: - Mathematic - Probability keywords: - Ma ...

  3. 二项分布(Binomial Probability Distribution)与概率,大数法则Law of Large Numbers,期望值

    二项分布(又名伯努利实验) 满足四个条件才能称为二项分布: 实验次数固定为n次 每一次实验都有两种可能结果:成功或是失败 而且每一次实验成功的概率都相等 每次实验都是独立的 例如抛硬币实验- 实验: ...

  4. 数据科学与大数据排名思考题_排名前5位的数据科学课程

    数据科学与大数据排名思考题 目录 (Table of Contents) Introduction介绍 Udemy乌迪米 Machine Learning A-Z™: Hands-On Python ...

  5. Learn OpenGL 笔记7.4 PBR-Specular IBL(Image based lighting-特殊的基于图像的照明)

    在上一章中,我们通过预先计算辐照度贴图作为照明的间接漫反射部分,将 PBR 与基于图像的照明相结合. 在本章中,我们将关注反射方程的specular part镜面反射部分: 您会注意到 Cook-To ...

  6. learnopengl——Specular IBL——貌似读懂了

    https://learnopengl.com/#!PBR/IBL/Specular-IBL in the previous tutorial we've set up PBR in combinat ...

  7. 这 725 个机器学习术语表,太全了!

    下面是几位机器学习权威专家汇总的725个机器学习术语表,非常全面了,值得收藏! 英文术语 中文翻译 0-1 Loss Function 0-1损失函数 Accept-Reject Sampling M ...

  8. 这725个机器学习术语表,太全了!

    大家好,我是阳哥 这是几位机器学习权威专家汇总的725个机器学习术语表,非常全面了,值得收藏! 英文术语 中文翻译 0-1 Loss Function 0-1损失函数 Accept-Reject Sa ...

  9. 【机器学习】建议收藏的 725 个机器学习术语表,太全了!

    编辑:东哥 下面是几位机器学习权威专家汇总的725个机器学习术语表,非常全面了,值得收藏! 英文术语 中文翻译 0-1 Loss Function 0-1损失函数 Accept-Reject Samp ...

最新文章

  1. “分布式哈希”和“一致性哈希”的概念与算法实现
  2. linux进程状态d状态,Linux下进程的状态
  3. 三年51亿!30岁的TA携「三瑞」打通场景级智慧,走入极「智」医疗
  4. 传微软有意收购EA公司,连《绝地求生》的蓝洞也想一并收入囊中
  5. 智能车竞赛技术报告 | 智能车视觉 - 扬州大学 - 这辆盲车不吃水果
  6. 节假日api_iOS能跳过节假日的晚安闹钟捷径
  7. python学习-知识点进阶使用(end、while else、range、iter、list的多种遍历方式)
  8. 文本数据可视化_如何使用TextHero快速预处理和可视化文本数据
  9. android窗口动画体系,Android 7.1 GUI系统-窗口管理WMS-动画的执行(七)
  10. linux下sort详解(sort对科学记数法的排序)
  11. as 使用类模拟枚举类
  12. 华鑫证券王习平:让投资变成一件容易事、有趣事
  13. OpenGL ES2 学习教程5——顶点属性
  14. html播放韰 寸 频,asp.net 汉字转换拼音及首字母实现代码
  15. [网络安全自学篇] 十九.Powershell基础入门及常见用法(一)
  16. kettle效率提升
  17. 操作系统虚拟内存管理
  18. 读书笔记——事务总结
  19. 线程池有哪几种状态,分别是如何发生变化的?
  20. 【前端】CSS 背景颜色渐变

热门文章

  1. 当图片加载失败时,做处理(onerror)(vue)
  2. php打开sdf文件,sdf文件扩展名,sdf文件怎么打开?
  3. 想知道如何给游戏视频配音?有三个好方法教给你
  4. Binder机制详解(一)
  5. 提高PPT操作APM的小技巧
  6. 全球13万条地震数据可视化,深扒地震是否变频繁
  7. cmake添加系统标准库
  8. delphi 经销商 英巴卡迪诺delphi代理
  9. BZOJ3730 震波 【动态点分治】
  10. 详谈简略式购物车代码