前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >无偏估计

无偏估计

作者头像
marsggbo
发布于 2018-08-10 06:38:20
发布于 2018-08-10 06:38:20
1.4K0
举报

定义

无偏估计估计量的均值等于真实值,即具体每一次估计值可能大于真实值,也可能小于真实值,而不能总是大于或小于真实值(这就产生了系统误差)。

估计量评价的标准

(1)无偏性 如上述

(2)有效性 有效性是指估计量与总体参数的离散程度。如果两个估计量都是无偏的,那么离散程度较小的估计量相对而言是较为有效的。即虽然每次估计都会大于或小于真实值,但是偏离的程度都更小的估计更优。

(3)一致性 又称相合性,是指随着样本容量的增大,估计量愈来愈接近总体参数的真值。

为什么方差的分母是n-1?

结论: 首先这个问题本身概念混淆了。

如果已知全部的数据,那么均值和方差可以直接求出。但是对一个随机变量X,需要估计它的均值和方差,此时才用分母为n-1的公式来估计他的方差,因此分母是n-1才能使对方差的估计(而不是方差)是无偏的。

因此,这个问题应该改为,为什么随机变量的方差的估计的分母是n-1?

如果我们已经知道了全部的数据,那就可以求出均值μ,σ,此时就是常规的分母为n的公式直接求,但这并不是估计!

现在,对于一个随机变量X,我们要去估计它的期望和方差。

期望的估计就是样本的均值\(\overline{X}\)

现在,在估计的X的方差的时候,如果我们预先知道真实的期望μ,那么根据方差的定义:

\[E[(X_i-μ)^2]=\frac{1}{n}\sum_i^n{(X_i-μ)^2}=σ^2\]

这时分母为n的估计是正确的,就是无偏估计!

但是,在实际估计随机变量X的方差的时候,我们是不知道它的真实期望的,而是用期望的估计值\(\overline{X}\)去估计方差,那么:

由上式可知,只有除非\(\overline{X}=μ\),否则必有

\[ \frac{1}{n}\sum_i^n(X_i-\overline{X})^2 < \frac{1}{n} \sum_i^n(X_i-μ)^2 \]

上面不等式中的右边才算是方差的"正确估计"!

这也就说明了为什么不能使用\(frac{1}{n}\)

所以把分母从n换成n-1,就是把对方差的估计稍微放大一点点。至于为什么是n-1,而不是n-2,n-3,...,有严格的数学证明。

无偏估计虽然在数学上更好,但是并不总是“最好”的估计,在实际中经常会使用具有其它重要性质的有偏估计。

原文链接:无偏估计

MARSGGBO♥原创 2018-8-4

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2018-08-04 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
【干货】全面总结(值函数与优势函数)的估计方法
大部分强化学习算法中需要用到值函数(状态值函数或者动作值函数),估计值函数的方法主要有时序差分(Temporal-difference, TD)算法和蒙特卡罗(Monte Carlo, MC)方法。这些方法各有优缺点,TD算法的估计量具有高偏差(Bias)低方差(Variance)的特点,相反,MC算法的估计量具有低偏差高方差的特点。Hajime在2000年提出了一种巧妙地在偏差与方差间找平衡的方法,称为
深度强化学习实验室
2021/01/29
2.2K0
【干货】全面总结(值函数与优势函数)的估计方法
数据科学基础(六) 参数估计
📚 文档目录 随机事件及其概率 随机变量及其分布 期望和方差 大数定律与中心极限定理 数理统计的基本概念 参数估计 假设检验 多维 回归分析和方差分析 降维 6.1. 参数的点估计 总体分布 X 的分布形式已知,未知的只是分布中的参数,要估计的只是参数或者参数的某一函数. 6.1.1. 矩估计法 公式 样本矩 总体矩 注意: 样本阶中的计算都是 n 而不会用到样本方差 S^2 6.1.2. 极大似然估计 估计参数值,使得出现
Rikka
2022/01/19
8190
数据科学基础(六) 参数估计
无偏估计(Unbiased Estimator)「建议收藏」
一个简单的例子(https://www.zhihu.com/question/22983179/answer/23470969):
全栈程序员站长
2022/09/20
8530
无偏估计(Unbiased Estimator)「建议收藏」
小白的大数据笔记——3(统计学1)
描述统计学:是阐述如何对客观现象的数量表现进行计量、搜集、整理、表示、一般分析与解释的一系列统计方法。其内容包括统计指标、统计调查、统计整理、统计图表、集中趋势测度、离散程度测度、统计指数、时间数列常规分析等理论和方法。
DifficultWork
2021/02/24
6250
方差、协方差、标准差、均方差、均方根值、均方误差、均方根误差对比分析[通俗易懂]
本文由博主经过查阅网上资料整理总结后编写,如存在错误或不恰当之处请留言以便更正,内容仅供大家参考学习。
全栈程序员站长
2022/11/11
8.2K0
方差、协方差、标准差、均方差、均方根值、均方误差、均方根误差对比分析[通俗易懂]
贝叶斯估计、最大似然估计、最大后验概率估计
1. 引言 贝叶斯估计、最大似然估计(MLE)、最大后验概率估计(MAP)这几个概念在机器学习和深度学习中经常碰到,读文章的时候还感觉挺明白,但独立思考时经常会傻傻分不清楚(?),因此希望通过本文对其
Tyan
2019/05/25
1.3K0
MSE = Bias² + Variance?什么是“好的”统计估计器
“偏差-方差权衡”是ML/AI中被经常提到的一个流行概念。我们这里用一个直观的公式来对它进行解释:
deephub
2023/02/01
8160
【概率论与数理统计(研究生课程)】知识点总结7(参数估计)
$$ \begin{aligned} EX^l &= \mu_l, \quad l=1,2,... \ A_l &= \frac{1}{n}\sum\limits_{i=1}^{n}X_i^l \ make \quad \mu_l &=A_l \end{aligned} $$
Marigold
2023/08/23
4490
【概率论与数理统计(研究生课程)】知识点总结7(参数估计)
全网最全总结,有源码!期望、有效值、方差、相关系数、自相关函、互相关函数,还分不清吗?
期望也就是平均值,是一个数值,反应的是随机变量平均取值的情况,期望也叫做加权平均。在信号中代表直流分量。
工程师看海
2022/06/23
1.4K0
全网最全总结,有源码!期望、有效值、方差、相关系数、自相关函、互相关函数,还分不清吗?
无偏估计
尽管在一次抽样中得到的估计值不一定恰好等于待估参数的真值,但在大量重复抽样时,所得到的估计值平均起来应与待估参数的真值相同。
小小杨
2021/10/13
1K0
如何评价估计量的好坏
其中 𝑆2S2 是总体方差的无偏估计量,证明过程是先求出 𝐸[(𝑋𝑖−𝜇)2]=𝜎2E[(Xi​−μ)2]=σ2,然后利用 𝐸[1𝑛∑𝑖=1𝑛(𝑋𝑖−𝜇)2]=𝑛𝑛−1𝜎2E[n1​∑i=1n​(Xi​−μ)2]=n−1n​σ2,从而得出 𝑆2=𝜎2S2=σ2。
用户11315985
2024/10/16
5400
如何评价估计量的好坏
机器学习之从极大似然估计到最大熵原理以及EM算法详解
极大似然估计是建立在极大似然原理的基础上的一个统计方法,极大似然原理的直观想法是,一个随机试验如有若干个可能的结果A,B,C,... ,若在一次试验中,结果A出现了,那么可以认为实验条件对A的出现有利,也即出现的概率P(A)较大。极大似然原理的直观想法我们用下面例子说明。设甲箱中有99个白球,1个黑球;乙箱中有1个白球.99个黑球。现随机取出一箱,再从抽取的一箱中随机取出一球,结果是黑球,这一黑球从乙箱抽取的概率比从甲箱抽取的概率大得多,这时我们自然更多地相信这个黑球是取自乙箱的。一般说来,事件A发生的概率与某一未知参数 \theta 有关, \theta 取值不同,则事件A发生的概率P(A|\theta )也不同,当我们在一次试验中事件A发生了,则认为此时的\theta 值应是t的一切可能取值中使P(A|\theta )达到最大的那一个,极大似然估计法就是要选取这样的t值作为参数t的估计值,使所选取的样本在被选的总体中出现的可能性为最大。
大黄大黄大黄
2018/04/01
3.1K17
机器学习之从极大似然估计到最大熵原理以及EM算法详解
R语言与点估计学习笔记(EM算法与Bootstrap法)
众所周知,R语言是个不错的统计软件。今天分享一下利用R语言做点估计的内容。主要有:矩估计、极大似然估计、EM算法、最小二乘估计、刀切法(Jackknife)、自助法(Bootstrap)的相关内容。 点估计是参数估计的一个组成部分。有许多的估计方法与估计理论,具体内容可以参见lehmann的《点估计理论》(推荐第一版,第二版直接从UMVU估计开始的) 一、矩估计 对于随机变量来说,矩是其最广泛,最常用的数字特征,母体的各阶矩一般与的分布中所含的未知参数有关,有的甚至就等
机器学习AI算法工程
2018/03/14
2.6K0
R语言与点估计学习笔记(EM算法与Bootstrap法)
统计学.参数估计(点估计~最大似然估计)
先介绍无偏估计 是统计学中一个非常重要的概念。简单来说,如果我们用样本统计量去估计总体参数,当这个统计量的期望值等于总体参数的真实值时,我们就称这个统计量为该参数的无偏估计。
云深无际
2024/11/25
2580
统计学.参数估计(点估计~最大似然估计)
概率论基础 - 3 - 方差
本文介绍方差。 方差 定义 数学期望(mean)(或均值,亦简称期望)是试验中每次可能结果的概率乘以其结果的总和,是最基本的数学特征之一。它反映随机变量平均取值的大小。 ——百度百科 对随机变量X,若\mathbb{E}\left[(X-\mathbb{E}[X])^{2}\right]存在,则称它为X的方差,记作 Var[X]。 X的标准差为方差的开平方:\sigma=\sqrt{\operatorname{Var}[X]} 方差度量了随机变量X与期望值偏离的程度,衡量了X取值分散程度
为为为什么
2022/08/05
9540
概率论基础 - 3 - 方差
蒙特卡洛法求积分
问题一:我们如何用蒙特卡洛方法求积分?问题二:如何近似求一个随机变量的数学期望?问题三:估计的误差是多少?问题四:如何从理论上对蒙特卡洛估计做分析?结论
用户3577892
2020/08/10
1K0
蒙特卡洛法求积分
最大似然估计详解
  最大似然估计是建立在最大似然原理的基础之上。最大似然原理的直观理解是:设一个随机试验有若干个可能的结果 A1,A2,...,An A_1,A_2,...,A_n,在一次试验中,结果 Ak A_k出现,则一般认为实验对 Ak A_k的出现最有利,即 Ak A_k出现的概率较大。这里用到了”概率最大的事件最可能出现”的直观想法,然后对 Ak A_k出现的概率公式求极大值,这样便可解未知参数。下面用一个例子说明最大似然估计的思想方法。
全栈程序员站长
2022/11/17
5370
UCB Data100:数据科学的原理和技巧:第十六章到第十八章
在特征工程讲座结束时(第 14 讲),我们提出了调整模型复杂度的问题。我们发现一个过于复杂的模型会导致过拟合,而一个过于简单的模型会导致欠拟合。这带来了一个自然的问题:我们如何控制模型复杂度以避免欠拟合和过拟合?
ApacheCN_飞龙
2024/01/13
2830
UCB Data100:数据科学的原理和技巧:第十六章到第十八章
python数据分析——在数据分析中有关概率论的知识
参数和统计量在数据分析中起着至关重要的作用。参数是对总体特征的描述,如均值、方差等,而统计量则是基于样本数据计算得出的,用于估计或推断总体参数的值。
鲜于言悠
2024/03/20
3040
python数据分析——在数据分析中有关概率论的知识
线性回归(一)-多元线性回归原理介绍
高中的数学必修三有一个概念——线性拟合,其主要原理是通过对两组变量的统计值模型化。高中的的模型主要是简单的一维线性模型,在某种程度上也可以叫做一次函数,即 y = kx + b 的形式。这是一个简单的线性拟合,可以处理两组变量的变化趋势呈现相当的线性规律的问题,且关于因变量只有一个自变量。实际情况下,对于一个目标函数进行估计,其影响因素可能会有多个,且各个因素对于结果的影响程度各不相同。若多个变量的的取值与目标函数取值仍呈现线性关系,则可以使用多元线性回归进行建模预测。本文将从一元线性回归推广到多元线性回归。并通过统计学的显著性检验和误差分析从原理上探究多元线性回归方法,以及该方法的性质和适用条件。
EatRice
2020/06/13
5.8K0
线性回归(一)-多元线性回归原理介绍
推荐阅读
相关推荐
【干货】全面总结(值函数与优势函数)的估计方法
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档