Law Of Large Numbers - 大数定律 - 大数定理
Law Of Large Numbers - 大数定律 - 大数定理
大数
实质上可以理解为多数
。
在随机事件的大量重复出现中,往往呈现几乎必然的规律,这个规律就是大数定律。这个定理就是在试验不变的条件下,重复试验多次,随机事件的频率近似于它的概率。偶然中包含着某种必然。
大数定律分为弱大数定律和强大数定律。
大数定律是一种描述当试验次数很大时所呈现的概率性质的定律。大数定律并不是经验规律,而是在一些附加条件上经严格证明了的定理,它是一种自然规律因而通常不叫定理而是大数定律。
如果统计数据足够大,那么事物出现的频率就能无限接近他的期望值。
1. 切比雪夫大数定理 (切比雪夫不等式)
设 x1,x2,...,xnx_{1}, x_{2}, ..., x_{n}x1,x2,...,xn 是相互独立的随机变量 (或者两两不相关),他们分别存在期望 E(xk)E(x_{k})E(xk) 和方差 D(xk)D(x_{k})D(xk)。若存在常数 CCC 使得,D(xk)≤C(k=1,2,...,n)D(x_{k}) \leq C (k = 1, 2, ..., n)D(xk)≤C(k=1,2,...,n)
则对任意小的正数 ϵ\epsilonϵ,满足下列公式
limn→∞P{∣1n∑k=1nxk−1n∑k=1nE(xk)∣<ϵ}=1{\underset {n \rightarrow \infty}{\text{lim}}} P\{ |\frac{1}{n} \sum_{k=1}^{n} x_{k} - \frac{1}{n} \sum_{k=1}^{n} E(x_{k})| < \epsilon \} = 1n→∞limP{∣n1k=1∑nxk−n1k=1∑nE(xk)∣<ϵ}=1
随着样本容量 n
的增加,样本平均数将接近于总体平均数。从而为统计推断中依据样本平均数估计总体平均数提供了理论依据。
切比雪夫大数定理并未要求 x1,x2,...,xnx_{1}, x_{2},... , x_{n}x1,x2,...,xn 同分布,相较于伯努利大数定律和辛钦大数定律更具一般性。
2. 伯努利大数定律
设 μ\muμ 是 nnn 次独立试验中事件 A
发生的次数,且事件 A
在每次试验中发生的概率为 PPP,则对任意正数 ϵ\epsilonϵ,
limn→∞P{∣μnn−p∣<ϵ}=1{\underset {n \rightarrow \infty}{\text{lim}}} P\{ |\frac{\mu_{n}}{n} - p| < \epsilon \} = 1n→∞limP{∣nμn−p∣<ϵ}=1
伯努利大数定律是切比雪夫大数定律的特例,当 n
足够大时,事件 A
出现的频率将几乎接近于其发生的概率,即频率的稳定性。
3. 辛钦大数定律
设 {ai,i≥1}\{a_{i}, i \geq 1\}{ai,i≥1} 为独立同分布的随机变量序列,若 aia_{i}ai 的数学期望存在,则服从大数定律。对任意正数 ϵ\epsilonϵ,
limn→∞P{∣1n∑i=1nai−μ∣<ϵ}=1{\underset {n \rightarrow \infty}{\text{lim}}} P\{ |\frac{1}{n} \sum_{i=1}^{n} a_{i} - \mu| < \epsilon \} = 1n→∞limP{∣n1i=1∑nai−μ∣<ϵ}=1
辛钦大数定律指出用算术平均值来近似实际真值是合理的,而在数理统计中,用算术平均值来估计数学期望就是根据此定律,这一定律使算术平均值的法则有了理论依据。
对于弱大数定律,上述收敛是指依概率收敛 (in probability)。
对于强大数定律,上述收敛是指几乎必然收敛 (almost surely/with probability one)。
大数定律通俗来讲就是样本数量很大的时候,样本均值和真实均值充分接近。大数定律与中心极限定理一起,成为现代概率论、统计学、理论科学和社会科学的基石。
Law Of Large Numbers - 大数定律 - 大数定理相关推荐
- 大数定律(law of large numbers)
大数定律(law of large numbers),又称大数定理,是一种描述当试验次数很大时所呈现的概率性质的定律. 事实上,这个定律在日常生活中的应用很广泛,也很实用.比如,一大早去乘公交车,从时 ...
- 【概率论】6-2:大数定理(The Law of Large Numbers)
title: [概率论]6-2:大数定理(The Law of Large Numbers) categories: - Mathematic - Probability keywords: - Ma ...
- 二项分布(Binomial Probability Distribution)与概率,大数法则Law of Large Numbers,期望值
二项分布(又名伯努利实验) 满足四个条件才能称为二项分布: 实验次数固定为n次 每一次实验都有两种可能结果:成功或是失败 而且每一次实验成功的概率都相等 每次实验都是独立的 例如抛硬币实验- 实验: ...
- 数据科学与大数据排名思考题_排名前5位的数据科学课程
数据科学与大数据排名思考题 目录 (Table of Contents) Introduction介绍 Udemy乌迪米 Machine Learning A-Z™: Hands-On Python ...
- Learn OpenGL 笔记7.4 PBR-Specular IBL(Image based lighting-特殊的基于图像的照明)
在上一章中,我们通过预先计算辐照度贴图作为照明的间接漫反射部分,将 PBR 与基于图像的照明相结合. 在本章中,我们将关注反射方程的specular part镜面反射部分: 您会注意到 Cook-To ...
- learnopengl——Specular IBL——貌似读懂了
https://learnopengl.com/#!PBR/IBL/Specular-IBL in the previous tutorial we've set up PBR in combinat ...
- 这 725 个机器学习术语表,太全了!
下面是几位机器学习权威专家汇总的725个机器学习术语表,非常全面了,值得收藏! 英文术语 中文翻译 0-1 Loss Function 0-1损失函数 Accept-Reject Sampling M ...
- 这725个机器学习术语表,太全了!
大家好,我是阳哥 这是几位机器学习权威专家汇总的725个机器学习术语表,非常全面了,值得收藏! 英文术语 中文翻译 0-1 Loss Function 0-1损失函数 Accept-Reject Sa ...
- 【机器学习】建议收藏的 725 个机器学习术语表,太全了!
编辑:东哥 下面是几位机器学习权威专家汇总的725个机器学习术语表,非常全面了,值得收藏! 英文术语 中文翻译 0-1 Loss Function 0-1损失函数 Accept-Reject Samp ...
最新文章
- “分布式哈希”和“一致性哈希”的概念与算法实现
- linux进程状态d状态,Linux下进程的状态
- 三年51亿!30岁的TA携「三瑞」打通场景级智慧,走入极「智」医疗
- 传微软有意收购EA公司,连《绝地求生》的蓝洞也想一并收入囊中
- 智能车竞赛技术报告 | 智能车视觉 - 扬州大学 - 这辆盲车不吃水果
- 节假日api_iOS能跳过节假日的晚安闹钟捷径
- python学习-知识点进阶使用(end、while else、range、iter、list的多种遍历方式)
- 文本数据可视化_如何使用TextHero快速预处理和可视化文本数据
- android窗口动画体系,Android 7.1 GUI系统-窗口管理WMS-动画的执行(七)
- linux下sort详解(sort对科学记数法的排序)
- as 使用类模拟枚举类
- 华鑫证券王习平:让投资变成一件容易事、有趣事
- OpenGL ES2 学习教程5——顶点属性
- html播放韰 寸 频,asp.net 汉字转换拼音及首字母实现代码
- [网络安全自学篇] 十九.Powershell基础入门及常见用法(一)
- kettle效率提升
- 操作系统虚拟内存管理
- 读书笔记——事务总结
- 线程池有哪几种状态,分别是如何发生变化的?
- 【前端】CSS 背景颜色渐变