统计学中的得分函数(Score Function)是什么?它和Fisher信息矩阵有什么关系?

devtools/2025/2/28 3:59:40/

得分函数:统计学中的“敏感探针”

在统计学和概率论中,得分函数(Score Function)是一个看似简单却非常重要的概念。它不仅是Fisher信息矩阵的核心组成部分,还在参数估计、模型优化等领域发挥着关键作用。今天,我们就来聊聊什么是得分函数,它有什么用,以及为什么它能揭示参数间的“正交性”——比如在正态分布中,均值 ( μ \mu μ ) 和方差 ( σ 2 \sigma^2 σ2 ) 的得分函数为何在期望上“互不干扰”。


什么是得分函数?

得分函数的定义非常直白:它是对数似然函数(log-likelihood)对某个参数的偏导数。假设我们有一个概率分布 ( p ( x ∣ θ ) p(x|\theta) p(xθ) ),其中 ( θ \theta θ ) 是参数(可以是一个标量或向量),对数似然函数是 ( log ⁡ p ( x ∣ θ ) \log p(x|\theta) logp(xθ) )。那么,得分函数就是:

s ( θ ) = ∂ log ⁡ p ( x ∣ θ ) ∂ θ s(\theta) = \frac{\partial \log p(x|\theta)}{\partial \theta} s(θ)=θlogp(xθ)

简单来说,得分函数衡量了当参数 ( θ \theta θ ) 发生微小变化时,对数似然函数的“敏感度”。它就像一个探针,告诉你数据对参数的依赖程度。

一个通俗的比喻

想象你在调收音机的频率,想找到最清晰的信号(最佳参数)。你轻轻转动旋钮,信号强度的变化就是“得分函数”——它告诉你当前频率是否接近最佳点。如果变化很大(得分函数值大),说明你离目标还远;如果变化趋于零,说明你可能已经调到最佳位置了。


得分函数的数学性质

得分函数不仅仅是一个偏导数,它还有一些有趣的统计性质,让它在理论和实践中都非常有用。

期望为零

一个关键性质是:得分函数在真实参数下的期望为零。数学上:

E [ ∂ log ⁡ p ( x ∣ θ ) ∂ θ ∣ θ ] = 0 E\left[ \frac{\partial \log p(x|\theta)}{\partial \theta} \bigg| \theta \right] = 0 E[θlogp(xθ) θ]=0

为什么会这样?因为对数似然函数的导数反映了似然函数的“坡度”,而在真实参数 ( θ \theta θ ) 下,似然函数达到极大值(对于最大似然估计来说),坡度为零。这个性质可以通过积分证明:

E [ s ( θ ) ] = ∫ ∂ log ⁡ p ( x ∣ θ ) ∂ θ p ( x ∣ θ ) d x = ∫ 1 p ( x ∣ θ ) ∂ p ( x ∣ θ ) ∂ θ p ( x ∣ θ ) d x = ∫ ∂ p ( x ∣ θ ) ∂ θ d x E[s(\theta)] = \int \frac{\partial \log p(x|\theta)}{\partial \theta} p(x|\theta) \, dx = \int \frac{1}{p(x|\theta)} \frac{\partial p(x|\theta)}{\partial \theta} p(x|\theta) \, dx = \int \frac{\partial p(x|\theta)}{\partial \theta} \, dx E[s(θ)]=θlogp(xθ)p(xθ)dx=p(xθ)1θp(xθ)p(xθ)dx=θp(xθ)dx

由于 ( p ( x ∣ θ ) p(x|\theta) p(xθ) ) 是概率密度函数,其积分恒等于 1,对 ( θ \theta θ ) 求导后:

∂ ∂ θ ∫ p ( x ∣ θ ) d x = ∫ ∂ p ( x ∣ θ ) ∂ θ d x = 0 \frac{\partial}{\partial \theta} \int p(x|\theta) \, dx = \int \frac{\partial p(x|\theta)}{\partial \theta} \, dx = 0 θp(xθ)dx=θp(xθ)dx=0

所以期望为零。这说明得分函数的波动是围绕零对称的。

方差与Fisher信息

具体请看笔者的另一篇博客:Fisher信息矩阵(Fisher Information Matrix,简称FIM)

得分函数的方差却不是零,而是与Fisher信息密切相关。对于单个参数 ( θ \theta θ ):

I ( θ ) = E [ ( ∂ log ⁡ p ( x ∣ θ ) ∂ θ ) 2 ∣ θ ] I(\theta) = E\left[ \left( \frac{\partial \log p(x|\theta)}{\partial \theta} \right)^2 \bigg| \theta \right] I(θ)=E[(θlogp(xθ))2 θ]

如果是多参数情况,Fisher信息矩阵的元素是:

I i j = E [ ∂ log ⁡ p ∂ θ i ∂ log ⁡ p ∂ θ j ∣ θ ] I_{ij} = E\left[ \frac{\partial \log p}{\partial \theta_i} \frac{\partial \log p}{\partial \theta_j} \bigg| \theta \right] Iij=E[θilogpθjlogp θ]

这意味着Fisher信息捕捉了得分函数的“波动大小”或“信息含量”。


得分函数有什么用?

得分函数看似抽象,但在实际应用中非常强大。以下是它的几个主要用途:

1. 最大似然估计(MLE)

在最大似然估计中,我们通过求解得分函数等于零的点来估计参数:

∂ log ⁡ p ( x ∣ θ ) ∂ θ = 0 \frac{\partial \log p(x|\theta)}{\partial \theta} = 0 θlogp(xθ)=0

这就像找到山顶(似然函数的最大值)。例如,对于正态分布 ( N ( μ , σ 2 ) N(\mu, \sigma^2) N(μ,σ2) ):

  • ( ∂ log ⁡ p ∂ μ = x − μ σ 2 \frac{\partial \log p}{\partial \mu} = \frac{x - \mu}{\sigma^2} μlogp=σ2xμ ),令其为零,解得 ( μ ^ = x \hat{\mu} = x μ^=x )。

得分函数直接引导我们找到最佳估计。

2. Fisher信息与参数不确定性

Fisher信息矩阵由得分函数的二阶统计量构成,它告诉我们参数估计的精度有多高。Fisher信息的逆矩阵给出了参数估计方差的下界(Cramér-Rao下界),反映了估计的不确定性。

例如,在正态分布中:

  • ( I μ μ = 1 σ 2 I_{\mu\mu} = \frac{1}{\sigma^2} Iμμ=σ21 ),说明 ( μ \mu μ ) 的估计方差下界与 ( σ 2 \sigma^2 σ2 ) 成正比。

3. 参数正交性与 ( I 12 = 0 I_{12} = 0 I12=0 )

当我们有多个参数时,得分函数之间的关系揭示了参数间的依赖性。如果 ( I i j = 0 I_{ij} = 0 Iij=0 )(( i ≠ j i \neq j i=j )),说明 ( θ i \theta_i θi ) 和 ( θ j \theta_j θj ) 的得分函数在期望上无关,这种情况称为“信息正交”。

以正态分布为例:

  • ( ∂ log ⁡ p ∂ μ = x − μ σ 2 \frac{\partial \log p}{\partial \mu} = \frac{x - \mu}{\sigma^2} μlogp=σ2xμ )

  • ( ∂ log ⁡ p ∂ σ 2 = − 1 2 σ 2 + ( x − μ ) 2 2 ( σ 2 ) 2 \frac{\partial \log p}{\partial \sigma^2} = -\frac{1}{2\sigma^2} + \frac{(x - \mu)^2}{2(\sigma^2)^2} σ2logp=2σ21+2(σ2)2(xμ)2 )

计算交叉项:

I 12 = E [ x − μ σ 2 ⋅ ( − 1 2 σ 2 + ( x − μ ) 2 2 ( σ 2 ) 2 ) ] I_{12} = E\left[ \frac{x - \mu}{\sigma^2} \cdot \left( -\frac{1}{2\sigma^2} + \frac{(x - \mu)^2}{2(\sigma^2)^2} \right) \right] I12=E[σ2xμ(2σ21+2(σ2)2(xμ)2)]

展开后取期望,因为 ( E [ x − μ ] = 0 E[x - \mu] = 0 E[xμ]=0 ) 和 ( E [ ( x − μ ) 3 ] = 0 E[(x - \mu)^3] = 0 E[(xμ)3]=0 )(正态分布奇数阶矩为零),结果为 ( I 12 = 0 I_{12} = 0 I12=0 )。这表明 ( μ \mu μ ) 和 ( σ 2 \sigma^2 σ2 ) 的信息是独立的,估计一个参数不会干扰另一个。具体计算过程请看笔者的另一篇博客:Fisher信息矩阵(Fisher Information Matrix,简称FIM)


参数正交的意义

当 ( I 12 = 0 I_{12} = 0 I12=0 ) 时,参数在信息上是正交的,这有什么实际意义呢?

1. 估计的独立性

信息正交意味着估计 ( μ \mu μ ) 时,方差 ( σ 2 \sigma^2 σ2 ) 的不确定性不会混淆结果,反之亦然。这简化了统计推断,尤其在大样本下,估计的协方差矩阵是对角的。

2. 模型设计的启示

在参数化模型设计中,如果能让参数正交,就能减少估计时的相互干扰。例如,正态分布的自然参数化(用 ( 1 σ 2 \frac{1}{\sigma^2} σ21 ) 和 ( μ σ 2 \frac{\mu}{\sigma^2} σ2μ ))保持了这种正交性。

3. 机器学习中的应用

在深度学习中,Fisher信息矩阵用于优化(如自然梯度下降)。参数正交性可以帮助分离梯度方向,提高训练效率。


总结

得分函数是对数似然函数的偏导数,是统计学中的“敏感探针”。它不仅帮助我们找到最大似然估计,还通过Fisher信息揭示参数的信息含量和不确定性。当不同参数的得分函数交叉项期望为零(如 ( I 12 = 0 I_{12} = 0 I12=0 )),它们在信息上正交,意味着参数估计互不干扰。这种性质在正态分布等模型中尤为明显,也为统计建模和优化提供了重要指导。

后记

2025年2月24日21点53分于上海,在Grok3大模型辅助下完成。


http://www.ppmy.cn/devtools/163242.html

相关文章

大白话html 第一章了解基本概念

第一章了解基本概念 什么是HTML HTML呢,简单来说就是一种专门用来跟浏览器“沟通”的语言。咱们平时看到的那些花花绿绿、各种各样的网页,都是靠HTML来搭建起来的。它就像是一个建筑师手里的图纸,告诉浏览器这个网页上都有啥东西&#xff0…

DeepSeek系统架构的逐层分类拆解分析,从底层基础设施到用户端分发全链路

一、底层基础设施层 1. 硬件服务器集群 算力单元: GPU集群:基于NVIDIA H800/H100 GPU构建,单集群规模超10,000卡,采用NVLink全互联架构实现低延迟通信。国产化支持:适配海光DCU、寒武纪MLU等国产芯片,通过…

Word表格中如何只单独调整某一单元格宽度

大家好,我是小鱼。 在日常制作Word表格时,表格中不同单元格有时需要设置不同的宽度,但是很多小伙伴会发现想单独调整某一个单元格宽度时,发现其它单元格宽度也会发生变化。那么,到底怎么才能单独调整某一单元格宽度呢…

DIALOGPT:大规模生成式预训练用于对话响应生成

摘要 我们提出了一个大规模、可调节的神经对话响应生成模型,DIALOGPT(对话生成预训练变换器)。该模型训练于从2005年至2017年间Reddit评论链中提取的1.47亿次类似对话的交流,DIALOGPT扩展了Hugging Face的PyTorch变换器&#xff…

基于ffmpeg+openGL ES实现的视频编辑工具-添加背景音乐(十)

在视频编辑领域,背景音乐宛如灵魂,为视频注入情感与氛围,极大地提升其观赏性与感染力。本文将深入探讨如何借助 ffmpeg 和 openGL ES 技术,在视频编辑工具中实现添加背景音乐这一关键功能。 一、技术实现流程概述 在视频中添加背景音乐,首要步骤是借助 ffmpeg 从视频文件…

使用 Promptic 进行对话管理需要具备python技术中的那些编程能力?

使用 Promptic 进行对话管理时,需要掌握一些基础的编程知识和技能,以下是详细说明: 1. Python 编程基础 Promptic 是一个基于 Python 的开发框架,因此需要具备一定的 Python 编程能力,包括: 函数定义与使用:了解如何定义函数、使用参数和返回值。类型注解:熟悉 Python…

螺旋数字矩阵

螺旋数字矩阵 真题目录: 点击去查看 E 卷 100分题型 题目描述 疫情期间,小明隔离在家,百无聊赖,在纸上写数字玩。他发明了一种写法: 给出数字个数n和行数m(0 < n ≤ 999,0 < m ≤ 999),从左上角的1开始,按照顺时针螺旋向内写方式,依次写出2,3…n,最终形成一…

DeepSeek写扫雷手机小游戏

DeepSeek写扫雷手机小游戏 提问 根据提的要求&#xff0c;让DeepSeek整理的需求&#xff0c;进行提问&#xff0c;内容如下&#xff1a; 请生成一个包含以下功能的可运行移动端扫雷H5文件&#xff1a; 要求 显示剩余雷数 选择简单、普通、困难模式 技术要求 纯HTML/CSS/JavaS…