当前位置: 首页 > news >正文

Fisher信息与最大似然估计的渐进正态性(附有在Bernoulli分布上的计算)

写在前面

最大似然估计具有很多好的性质,包括相合性,同变性,渐进正态性等。本文主要关注的是渐进正态性。渐近正态性表明,估计量的极限分布是正态分布。而该正态分布的方差,与Fisher信息有着密不可分的关系。

Fisher信息

(定义)记分函数(Score Function):
s ( X ; θ ) = ∂ l o g f ( X ; θ ) ∂ θ . s(X;\theta)=\frac{\partial logf(X;\theta)}{\partial \theta}. s(X;θ)=θlogf(X;θ).
(定义)Fisher信息量(Fisher Information):
I n ( θ ) = V ( ∑ i = 1 n s ( X i ; θ ) ) = ∑ i = 1 n V ( s ( X i ; θ ) ) \begin{aligned} I_n(\theta)&=\mathbb{V}(\sum_{i=1}^{n}s(X_i;\theta))\\ &=\sum_{i=1}^{n}\mathbb{V}(s(X_i;\theta)) \end{aligned} In(θ)=V(i=1ns(Xi;θ))=i=1nV(s(Xi;θ))
(定理)
E θ [ s ( X ; θ ) ] = 0 \mathbb{E}_\theta[s(X;\theta)]=0 Eθ[s(X;θ)]=0
证明:
E θ [ s ( X ; θ ) ] = ∫ x ∂ l o g f ( x ; θ ) ∂ θ f ( x ; θ ) d x = ∫ x 1 f ( x ; θ ) ∂ f ( x ; θ ) ∂ θ f ( x ; θ ) d x = ∫ x ∂ f ( x ; θ ) ∂ θ d x = ∂ ∂ θ ∫ x f ( x ; θ ) d x = ∂ ∂ θ 1 = 0 \begin{aligned} \mathbb{E}_\theta[s(X;\theta)] &= \int_x\frac{\partial logf(x;\theta)}{\partial \theta}f(x;\theta)dx\\ &=\int_x\frac{1}{f(x;\theta)}\frac{\partial f(x;\theta)}{\partial \theta}f(x;\theta)dx\\ &=\int_x\frac{\partial f(x;\theta)}{\partial \theta}dx\\ &=\frac{\partial}{\partial \theta} \int_xf(x;\theta)dx=\frac{\partial}{\partial \theta}1\\ &=0 \end{aligned} Eθ[s(X;θ)]=xθlogf(x;θ)f(x;θ)dx=xf(x;θ)1θf(x;θ)f(x;θ)dx=xθf(x;θ)dx=θxf(x;θ)dx=θ1=0
(定理)若 f ( X ; θ ) f(X;\theta) f(X;θ)二阶可导,则Fisher信息矩阵可以写为如下形式:
I n ( θ ) = n I ( θ ) = − n ∫ x ∂ 2 l o g f ( x ; θ ) ∂ θ 2 f ( x ; θ ) d x I_n(\theta)=nI(\theta)=-n\int_x\frac{\partial^2logf(x;\theta)}{\partial\theta^2}f(x;\theta)dx In(θ)=nI(θ)=nxθ22logf(x;θ)f(x;θ)dx
证明:
V θ [ s ( X ; θ ) ] = E θ [ s ( X ; θ ) 2 ] − E θ [ s ( X ; θ ) ] 2 = E θ [ s ( X ; θ ) 2 ] = ∫ x ∂ l o g f ( x ; θ ) ∂ θ ∂ l o g f ( x ; θ ) ∂ θ f ( x ; θ ) d x ∫ x ∂ 2 l o g f ( x ; θ ) ∂ θ 2 f ( x ; θ ) d x = ∫ x ∂ ∂ θ ( 1 f ( x ; θ ) ∂ f ( x ; θ ) ∂ θ ) d x = ∫ x − ( ∂ f ( x ; θ ) ∂ θ ) 2 f ( x ; θ ) 2 + ( ∂ 2 f ( x ; θ ) ∂ θ 2 ) f ( x ; θ ) f ( x ; θ ) d x = ∫ x − ( ∂ f ( x ; θ ) ∂ θ ) 2 f ( x ; θ ) 2 d x = − ∫ x ∂ 2 l o g f ( x ; θ ) ∂ θ 2 f ( x ; θ ) d x \begin{aligned} \mathbb{V}_\theta[s(X;\theta)] &= E_{\theta}[s(X;\theta)^2]-E_\theta[s(X;\theta)]^2\\ &= E_{\theta}[s(X;\theta)^2]\\ &= \int_x\frac{\partial logf(x;\theta)}{\partial \theta}\frac{\partial logf(x;\theta)}{\partial \theta}f(x;\theta)dx\\ \int_x\frac{\partial^2logf(x;\theta)}{\partial\theta^2}f(x;\theta)dx &= \int_x \frac{\partial}{\partial \theta}(\frac{1}{f(x;\theta)}\frac{\partial f(x;\theta)}{\partial \theta})dx\\ &=\int_x-\frac{(\frac{\partial f(x;\theta)}{\partial \theta})^2}{f(x;\theta)^2}+\frac{(\frac{\partial ^2f(x;\theta)}{\partial \theta^2})}{f(x;\theta)}f(x;\theta)dx \\ &= \int_x-\frac{(\frac{\partial f(x;\theta)}{\partial \theta})^2}{f(x;\theta)^2}dx\\ &=-\int_x\frac{\partial^2logf(x;\theta)}{\partial\theta^2}f(x;\theta)dx \end{aligned} Vθ[s(X;θ)]xθ22logf(x;θ)f(x;θ)dx=Eθ[s(X;θ)2]Eθ[s(X;θ)]2=Eθ[s(X;θ)2]=xθlogf(x;θ)θlogf(x;θ)f(x;θ)dx=xθ(f(x;θ)1θf(x;θ))dx=xf(x;θ)2(θf(x;θ))2+f(x;θ)(θ22f(x;θ))f(x;θ)dx=xf(x;θ)2(θf(x;θ))2dx=xθ22logf(x;θ)f(x;θ)dx

渐进正态性

极大似然估计具有渐进正态性
θ ^ n − θ s e → N ( 0 , 1 ) \frac{\hat{\theta}_n-\theta}{se}\rightarrow N(0,1) seθ^nθN(0,1)
其中, s e ≈ 1 I n ( θ ) ≈ 1 I n ( θ ^ ) se\approx\sqrt{\frac{1}{I_n(\theta)}}\approx\sqrt{\frac{1}{I_n(\hat{\theta})}} seIn(θ)1 In(θ^)1
证明从略,资料比较多。

由此可以构建估计的置信区间。

Bernoulli分布的最大似然估计及其方差

X 1 , ⋯   , X n ∼ B e r n o u l l i ( p ) X_1, \cdots,X_n \sim Bernoulli(p) X1,,XnBernoulli(p),则其似然函数是 L ( p ) = ∏ i = 1 n p X i ( 1 − p ) 1 − X i L(p)=\prod_{i=1}^{n} p^{X_i}(1-p)^{1-X_i} L(p)=i=1npXi(1p)1Xi l o g L ( p ) = ∑ i n X i l o g p + ( 1 − X i ) l o g ( 1 − p ) logL(p)=\sum_{i}^{n}X_ilogp+(1-X_i)log(1-p) logL(p)=inXilogp+(1Xi)log(1p)
最大化对数似然,就得到:
d d x l o g L ( p ) = 0 ∑ i n X i 1 p − ( 1 − X i ) 1 1 − p = 0 p = 1 n ∑ i = 1 n X i \begin{aligned} &\frac{d}{dx}logL(p)=0\\ &\sum_{i}^{n}X_i \frac{1}{p}-(1-X_i) \frac{1}{1-p}=0\\ &p=\frac{1}{n}\sum_{i=1}^{n}X_i \end{aligned} dxdlogL(p)=0inXip1(1Xi)1p1=0p=n1i=1nXi
其记分函数是:
∂ l o g L ( p ) ∂ p = X p − 1 − X 1 − p \frac{\partial logL(p)}{\partial p}=\frac{X}{p}-\frac{1-X}{1-p} plogL(p)=pX1p1X
I ( p ) = − E θ [ d ( X p − 1 − X 1 − p ) d p ] = 1 1 − p + 1 p = 1 p ( 1 − p ) I(p)=-E_\theta[\frac{d(\frac{X}{p}-\frac{1-X}{1-p})}{dp}]=\frac{1}{1-p}+\frac{1}{p}\\=\frac{1}{p(1-p)} I(p)=Eθ[dpd(pX1p1X)]=1p1+p1=p(1p)1
I n ( p ) = n I ( p ) I_n(p)=nI(p) In(p)=nI(p),估计的方差 V ( p ) = n p ( 1 − p ) ≈ n p ^ ( 1 − p ^ ) V(p)=np(1-p) \approx n\hat{p}(1-\hat{p}) V(p)=np(1p)np^(1p^)

相关文章:

  • Patroin源码修改八:初始化Opengauss
  • 金仓数据库 KingbaseES 插件参考手册 zhparser
  • 多御安全浏览器超强版本发布:新增密码检查功能
  • java架构知识-设计模式与实践(学习笔记)
  • Evil.js(罪恶的) —— 代码
  • 全球与中国多壁碳纳米管行业市场调查及投资竞争力分析报告2022-2028年
  • java计算机毕业设计交通事故档案管理系统源码+数据库+系统+lw文档+mybatis+运行部署
  • linux ifconfig命令:显示或设置网络设备参数信息
  • django请求生命周期流程图 路由匹配 无名分组 有名分组 反向解析 无名有名反向解析 路由分发 名称空间
  • cks 考试指南
  • 全球与中国防水薄膜行业市场前瞻及未来投资潜力预测报告2022-2028年
  • CTFHUB.introduction
  • 基于神经网络的图像识别,人工神经网络图像识别
  • 快鲸智慧楼宇系统:助力商办楼宇快速实现智慧化、数字化运营
  • 在线订票系统--永胜票务网是怎么搭建的?
  • 【108天】Java——《Head First Java》笔记(第1-4章)
  • axios请求、和返回数据拦截,统一请求报错提示_012
  • centos安装java运行环境jdk+tomcat
  • chrome扩展demo1-小时钟
  • Date型的使用
  • dva中组件的懒加载
  • Gradle 5.0 正式版发布
  • Java程序员幽默爆笑锦集
  • leetcode讲解--894. All Possible Full Binary Trees
  • Next.js之基础概念(二)
  • Vue.js 移动端适配之 vw 解决方案
  • Vue2 SSR 的优化之旅
  • 那些年我们用过的显示性能指标
  • 我这样减少了26.5M Java内存!
  • 一加3T解锁OEM、刷入TWRP、第三方ROM以及ROOT
  • 用quicker-worker.js轻松跑一个大数据遍历
  • ​Distil-Whisper:比Whisper快6倍,体积小50%的语音识别模型
  • ​LeetCode解法汇总2583. 二叉树中的第 K 大层和
  • ​人工智能书单(数学基础篇)
  • (1)(1.19) TeraRanger One/EVO测距仪
  • (145)光线追踪距离场柔和阴影
  • (2)STL算法之元素计数
  • (二)c52学习之旅-简单了解单片机
  • (附源码)spring boot儿童教育管理系统 毕业设计 281442
  • (附源码)计算机毕业设计高校学生选课系统
  • (七)Java对象在Hibernate持久化层的状态
  • (强烈推荐)移动端音视频从零到上手(上)
  • (十六)一篇文章学会Java的常用API
  • (一) storm的集群安装与配置
  • (一)UDP基本编程步骤
  • (转) 深度模型优化性能 调参
  • (转)ObjectiveC 深浅拷贝学习
  • (转)树状数组
  • .NET Core Web APi类库如何内嵌运行?
  • .NET Core 中插件式开发实现
  • .NET Framework杂记
  • .NET中的十进制浮点类型,徐汇区网站设计
  • /etc/X11/xorg.conf 文件被误改后进不了图形化界面
  • @property括号内属性讲解
  • [ C++ ] STL---string类的使用指南