Web Analytics
Privacy Policy Cookie Policy Terms and Conditions 估计理论 - Wikipedia

估计理论

维基百科,自由的百科全书

Image:03wiki-zn-frontpage-icon.gif估计理论正在翻译。欢迎您积极翻译与修订

估计理论是统计学和信号处理中的一个分支,主要是通过测量(或经验)数据来估计概率分布参数的数值。这些参数描述了实质情况或实际对象,它们能够回答估计函数提出的问题。例如,估计投票人总体中,给特定候选人投票的人的比例.这个比例是一个不可观测的参数(因为投票人总体很大);估计值建立在投票者的一个小的随机采样上.

又如,雷达的目的是物体(飞机,船等)的定位.这种定位是通过分析收到的回声(回波)来实现的.定位提出的问题是"飞机在哪里?".为了回答"飞机在哪里?",必须估计飞机到雷达之间的距离.如果雷达的绝对位置是已知的,那么飞机的绝对位置也是可以确定的.

在估计理论中,通常假定信息隐藏在包含噪声信号中.噪声增加了不确定性.如果没有不确定性,那么也就没有必要估计了.

目录

[编辑] 使用估计理论的领域

有非常多的领域使用参数估计理论。这些领域包括(当然不局限于以下列出的领域):

  • 信号处理
    • CAT
    • 脑电图
    • 心电图
    • MRI
    • 医学超声波扫描术
    • 雷达, 声纳, Seismology - Localization of objects
    • 噪声方差
    • 参数化(e.g., 周期图, 相关图)谱分析
    • 非参数化 (e.g., MUSIC, Root-MUSIC, ESPRIT)谱分析
    • 维纳滤波
    • Particle filter

测量参数包含噪声(或者其他不确定性).通过统计概率,可以求得最优化的解,用来从数据中提取尽可能多的信息.

[编辑] 估计过程

估计理论的全部目的都是获取一个估计函数,最好是一个可以实现的(implementable)估计函数.估计函数输入测量数据,输出相应参数的估计.

我们通常希望估计函数能最优.一个最优的估计意味着所有的信息都被提取出来了;如果还有还有信息没有提取出来,那就意味着它不是最优的.

一般来说,求估计函数需要三步:

  • 为了实现一个预测单个或者多个参数的所期望的估计器,首先需要确定系统的模型。这个模型需要将需要建模的过程以及不确定性和和噪声融合到一起,这个模型将描述参数应用领域的物理场景。
  • 在确定模型之后,需要确定估计器的限制条件。这些限制条件可以通过如Cramér-Rao inequality这样的方法找到。
  • 下一步,需要开发一个估计器或者应用一个已知的对于模型有效的估计器。这个估计器需要根据限制条件进行测试以确定它是否是最优估计器,如果是的话,它就是最好的估计器。
  • 最后,在估计器上运行试验或者仿真以测试性能。

当实现一个估计器之后,实际的数据有可能证明推导出估计器的模型是不正确的,这样的话就需要重复上面的过程重新寻找估计器。

不能实现的估计器需要抛弃,然后开始一个新的过程。

总的来说,估计器根据实际测量的数据预测物理模型的参数。

[编辑] 基础

为了建立一个模型,需要知道几项统计“因素”。为了保证预测在数学上是可以追踪的而不是仅仅基于“内心感受”来说这是必需的。

第一个是从大小为 N 的随机矢量中取出的统计采样,将它们放到一个矢量中,

\mathbf{x} = \begin{bmatrix} x[0] \\ x[1] \\ \vdots \\ x[N-1] \end{bmatrix}.

第二,有相应的 M 参数

\mathbf{\theta} = \begin{bmatrix} \theta_1 \\ \theta_2 \\ \vdots \\ \theta_M \end{bmatrix},

它需要根据概率密度函数(pdf)或者概率聚集函数(:en:probability mass function)(pmf)建立

p(\mathbf{x} | \mathbf{\theta}).

参数本身还可能有一个概率分布(Bayesian statistics),需要定义epistemic probability

\pi( \mathbf{\theta}).

模型形成之后的目标就是预测参数,通常表示为 \hat{\mathbf{\theta}},其中“hat”表示预测值。

一个普通的估计器是最小均方误差(MMSE)估计器,它利用了参数估计值与实际值之间的误差

\mathbf{e} = \hat{\mathbf{\theta}} - \mathbf{\theta}

作为优化的基础。在最小均方误差估计器中误差进行取平方、最小化。

[编辑] 估计函数(估计子)

以下是一些相关的估计函数以及相关的主题

[编辑] 例子: 高斯白噪声中的直流增益

让我们来看一个接收到的 N 个独立采样点的离散信号 x[n] , 它由一个直流增益 A已知方差σ2 (例如,\mathcal{N}(0, \sigma^2))的叠加白噪声 w[n] 组成。

由于方差已经知道,所以仅有的未知参数就是 A

于是信号的模型是

x[n] = A + w[n] \quad n=0, 1, \dots, N-1

两个可能的估计器是:

  • \hat{A}_1 = x[0]
  • \hat{A}_2 = \frac{1}{N} \sum_{n=0}^{N-1} x[n] 它是采样平均

这两个估计器都有一个平均值 A,这可以通过代如每个估计器的期望得到

\mathrm{E}\left[\hat{A}_1\right] = \mathrm{E}\left[ x[0] \right] = A

\mathrm{E}\left[ \hat{A}_2 \right] = \mathrm{E}\left[ \frac{1}{N} \sum_{n=0}^{N-1} x[n] \right] = \frac{1}{N} \left[ \sum_{n=0}^{N-1} \mathrm{E}\left[ x[n] \right] \right] = \frac{1}{N} \left[ N A \right] = A

在这一点上,这两个估计器看起来是一样的。但是,当比较方差部分的时候它们之间的不同就很明显了。

\mathrm{var} \left( \hat{A}_1 \right) = \mathrm{var} \left( x[0] \right) = \sigma^2

\mathrm{var} \left( \hat{A}_2 \right) = \mathrm{var} \left( \frac{1}{N} \sum_{n=0}^{N-1} x[n] \right) = \frac{1}{N^2} \left[ \sum_{n=0}^{N-1} \mathrm{var} (x[n]) \right] = \frac{1}{N^2} \left[ N \sigma^2 \right] = \frac{\sigma^2}{N}

看起来采样平均是一个更好的估计器,因为方差部分 N \to \infty 趋向于 0。

[编辑] 最大似然估计

使用最大似然估计器继续上面的例子,噪声在一个采样点 w[n]概率密度函数(pdf)是

p(w[n]) = \frac{1}{\sigma \sqrt{2 \pi}} \exp\left(- \frac{1}{2 \sigma^2} w[n]^2 \right)

这样 x[n] 的概率变为(x[n] 可以认为是 \mathcal{N}(A, \sigma^2)

p(x[n]; A) = \frac{1}{\sigma \sqrt{2 \pi}} \exp\left(- \frac{1}{2 \sigma^2} (x[n] - A)^2 \right)

由于相互独立,\mathbf{x} 的概率变为

p(\mathbf{x}; A) = \prod_{n=0}^{N-1} p(x[n]; A) = \frac{1}{\left(\sigma \sqrt{2\pi}\right)^N} \exp\left(- \frac{1}{2 \sigma^2} \sum_{n=0}^{N-1}(x[n] - A)^2 \right)

概率密度函数取自然对数

\ln p(\mathbf{x}; A) = -N \ln \left(\sigma \sqrt{2\pi}\right) - \frac{1}{2 \sigma^2} \sum_{n=0}^{N-1}(x[n] - A)^2

于是最大似然估计器是

\hat{A} = \arg \max \ln p(\mathbf{x}; A)

对数最大似然函数取一阶 导数

\frac{\partial}{\partial A} \ln p(\mathbf{x}; A) = \frac{1}{\sigma^2} \left[ \sum_{n=0}^{N-1}(x[n] - A) \right] = \frac{1}{\sigma^2} \left[ \sum_{n=0}^{N-1}x[n] - N A \right]

并且将它赋值为 0

0 = \frac{1}{\sigma^2} \left[ \sum_{n=0}^{N-1}x[n] - N A \right] = \sum_{n=0}^{N-1}x[n] - N A

这就得到最大似然估计器

\hat{A} = \frac{1}{N} \sum_{n=0}^{N-1}x[n]

它是一个简单的采样平均。

从这个例子中,我们发现对于带有固定未知直流增益的 AWGN 的 N 个采样点来说采样平均就是最大似然估计器。

[编辑] Cramér-Rao 下限

为了找到采样平均估计器的Cramér-Rao 下限(CRLB),需要找到 Fisher information 数

\mathcal{I}(A) = \mathrm{E} \left(  \left[   \frac{\partial}{\partial\theta} \ln p(\mathbf{x}; A)  \right]^2 \right) = -\mathrm{E} \left[  \frac{\partial^2}{\partial\theta^2} \ln p(\mathbf{x}; A) \right]

从上面得到

\frac{\partial}{\partial A} \ln p(\mathbf{x}; A) = \frac{1}{\sigma^2} \left[ \sum_{n=0}^{N-1}x[n] - N A \right]

取二阶导数

\frac{\partial^2}{\partial A^2} \ln p(\mathbf{x}; A) = \frac{1}{\sigma^2} (- N) = \frac{-N}{\sigma^2}

发现负的期望值是无关紧要的(trivial),因为它现在是一个确定的常数

-\mathrm{E} \left[  \frac{\partial^2}{\partial A^2} \ln p(\mathbf{x}; A) \right] = \frac{N}{\sigma^2}

最后,将 Fisher information 代入

\mathrm{var}\left( \hat{A} \right) \geq \frac{1}{\mathcal{I}}

得到

\mathrm{var}\left( \hat{A} \right) \geq \frac{\sigma^2}{N}

将这个值与前面确定的采样平均的变化比较显示对于所有的 NA 来说采样平均都是等于 Cramér-Rao 下限。

采样平均除了是最大似然估计器之外还是最小变化无偏估计器(MVUE)。

这个直流增益 + WGN 的例子是 Kay 的 统计信号处理基础中一个例子的再现。

[编辑] 相关书籍

[编辑] 参见

  • 偏差
  • Completeness (statistics)
  • 检测理论
  • Efficiency (statistics)
  • Expectation-maximization algorithm (EM algorithm)
  • 信息论
  • Rao-Blackwell theorem
  • Sufficiency (statistics)
  • 最大似然估计
  • 矩方法, generalized method of moments
  • Cramér-Rao inequality
  • 最小均方差 (MMSE)
  • 最大后验概率 (MAP)
  • Minimum variance unbiased estimator (MVUE)
  • Best linear unbiased estimator (BLUE)
  • Unbiased estimators — see bias (statistics).
  • Particle filter
  • Markov chain Monte Carlo (MCMC)
  • 卡尔曼滤波
  • 维纳滤波
其他语言
THIS WEB:

aa - ab - af - ak - als - am - an - ang - ar - arc - as - ast - av - ay - az - ba - bar - bat_smg - be - bg - bh - bi - bm - bn - bo - bpy - br - bs - bug - bxr - ca - cbk_zam - cdo - ce - ceb - ch - cho - chr - chy - closed_zh_tw - co - cr - cs - csb - cu - cv - cy - da - de - diq - dv - dz - ee - el - eml - en - eo - es - et - eu - fa - ff - fi - fiu_vro - fj - fo - fr - frp - fur - fy - ga - gd - gl - glk - gn - got - gu - gv - ha - haw - he - hi - ho - hr - hsb - ht - hu - hy - hz - ia - id - ie - ig - ii - ik - ilo - io - is - it - iu - ja - jbo - jv - ka - kg - ki - kj - kk - kl - km - kn - ko - kr - ks - ksh - ku - kv - kw - ky - la - lad - lb - lbe - lg - li - lij - lmo - ln - lo - lt - lv - map_bms - mg - mh - mi - mk - ml - mn - mo - mr - ms - mt - mus - my - mzn - na - nah - nap - nds - nds_nl - ne - new - ng - nl - nn - no - nov - nrm - nv - ny - oc - om - or - os - pa - pag - pam - pap - pdc - pi - pih - pl - pms - ps - pt - qu - rm - rmy - rn - ro - roa_rup - roa_tara - ru - ru_sib - rw - sa - sc - scn - sco - sd - se - searchcom - sg - sh - si - simple - sk - sl - sm - sn - so - sq - sr - ss - st - su - sv - sw - ta - te - test - tet - tg - th - ti - tk - tl - tlh - tn - to - tokipona - tpi - tr - ts - tt - tum - tw - ty - udm - ug - uk - ur - uz - ve - vec - vi - vls - vo - wa - war - wo - wuu - xal - xh - yi - yo - za - zea - zh - zh_classical - zh_min_nan - zh_yue - zu

Static Wikipedia 2008 (no images)

aa - ab - af - ak - als - am - an - ang - ar - arc - as - ast - av - ay - az - ba - bar - bat_smg - bcl - be - be_x_old - bg - bh - bi - bm - bn - bo - bpy - br - bs - bug - bxr - ca - cbk_zam - cdo - ce - ceb - ch - cho - chr - chy - co - cr - crh - cs - csb - cu - cv - cy - da - de - diq - dsb - dv - dz - ee - el - eml - en - eo - es - et - eu - ext - fa - ff - fi - fiu_vro - fj - fo - fr - frp - fur - fy - ga - gan - gd - gl - glk - gn - got - gu - gv - ha - hak - haw - he - hi - hif - ho - hr - hsb - ht - hu - hy - hz - ia - id - ie - ig - ii - ik - ilo - io - is - it - iu - ja - jbo - jv - ka - kaa - kab - kg - ki - kj - kk - kl - km - kn - ko - kr - ks - ksh - ku - kv - kw - ky - la - lad - lb - lbe - lg - li - lij - lmo - ln - lo - lt - lv - map_bms - mdf - mg - mh - mi - mk - ml - mn - mo - mr - mt - mus - my - myv - mzn - na - nah - nap - nds - nds_nl - ne - new - ng - nl - nn - no - nov - nrm - nv - ny - oc - om - or - os - pa - pag - pam - pap - pdc - pi - pih - pl - pms - ps - pt - qu - quality - rm - rmy - rn - ro - roa_rup - roa_tara - ru - rw - sa - sah - sc - scn - sco - sd - se - sg - sh - si - simple - sk - sl - sm - sn - so - sr - srn - ss - st - stq - su - sv - sw - szl - ta - te - tet - tg - th - ti - tk - tl - tlh - tn - to - tpi - tr - ts - tt - tum - tw - ty - udm - ug - uk - ur - uz - ve - vec - vi - vls - vo - wa - war - wo - wuu - xal - xh - yi - yo - za - zea - zh - zh_classical - zh_min_nan - zh_yue - zu -

Static Wikipedia 2007:

aa - ab - af - ak - als - am - an - ang - ar - arc - as - ast - av - ay - az - ba - bar - bat_smg - be - bg - bh - bi - bm - bn - bo - bpy - br - bs - bug - bxr - ca - cbk_zam - cdo - ce - ceb - ch - cho - chr - chy - closed_zh_tw - co - cr - cs - csb - cu - cv - cy - da - de - diq - dv - dz - ee - el - eml - en - eo - es - et - eu - fa - ff - fi - fiu_vro - fj - fo - fr - frp - fur - fy - ga - gd - gl - glk - gn - got - gu - gv - ha - haw - he - hi - ho - hr - hsb - ht - hu - hy - hz - ia - id - ie - ig - ii - ik - ilo - io - is - it - iu - ja - jbo - jv - ka - kg - ki - kj - kk - kl - km - kn - ko - kr - ks - ksh - ku - kv - kw - ky - la - lad - lb - lbe - lg - li - lij - lmo - ln - lo - lt - lv - map_bms - mg - mh - mi - mk - ml - mn - mo - mr - ms - mt - mus - my - mzn - na - nah - nap - nds - nds_nl - ne - new - ng - nl - nn - no - nov - nrm - nv - ny - oc - om - or - os - pa - pag - pam - pap - pdc - pi - pih - pl - pms - ps - pt - qu - rm - rmy - rn - ro - roa_rup - roa_tara - ru - ru_sib - rw - sa - sc - scn - sco - sd - se - searchcom - sg - sh - si - simple - sk - sl - sm - sn - so - sq - sr - ss - st - su - sv - sw - ta - te - test - tet - tg - th - ti - tk - tl - tlh - tn - to - tokipona - tpi - tr - ts - tt - tum - tw - ty - udm - ug - uk - ur - uz - ve - vec - vi - vls - vo - wa - war - wo - wuu - xal - xh - yi - yo - za - zea - zh - zh_classical - zh_min_nan - zh_yue - zu

Static Wikipedia 2006:

aa - ab - af - ak - als - am - an - ang - ar - arc - as - ast - av - ay - az - ba - bar - bat_smg - be - bg - bh - bi - bm - bn - bo - bpy - br - bs - bug - bxr - ca - cbk_zam - cdo - ce - ceb - ch - cho - chr - chy - closed_zh_tw - co - cr - cs - csb - cu - cv - cy - da - de - diq - dv - dz - ee - el - eml - en - eo - es - et - eu - fa - ff - fi - fiu_vro - fj - fo - fr - frp - fur - fy - ga - gd - gl - glk - gn - got - gu - gv - ha - haw - he - hi - ho - hr - hsb - ht - hu - hy - hz - ia - id - ie - ig - ii - ik - ilo - io - is - it - iu - ja - jbo - jv - ka - kg - ki - kj - kk - kl - km - kn - ko - kr - ks - ksh - ku - kv - kw - ky - la - lad - lb - lbe - lg - li - lij - lmo - ln - lo - lt - lv - map_bms - mg - mh - mi - mk - ml - mn - mo - mr - ms - mt - mus - my - mzn - na - nah - nap - nds - nds_nl - ne - new - ng - nl - nn - no - nov - nrm - nv - ny - oc - om - or - os - pa - pag - pam - pap - pdc - pi - pih - pl - pms - ps - pt - qu - rm - rmy - rn - ro - roa_rup - roa_tara - ru - ru_sib - rw - sa - sc - scn - sco - sd - se - searchcom - sg - sh - si - simple - sk - sl - sm - sn - so - sq - sr - ss - st - su - sv - sw - ta - te - test - tet - tg - th - ti - tk - tl - tlh - tn - to - tokipona - tpi - tr - ts - tt - tum - tw - ty - udm - ug - uk - ur - uz - ve - vec - vi - vls - vo - wa - war - wo - wuu - xal - xh - yi - yo - za - zea - zh - zh_classical - zh_min_nan - zh_yue - zu