最大值的期望 与 期望的最大值

news/2025/2/5 10:18:50/

期望的最大值与最大值的期望

先上结论: m a x i E [ X i ] ≠ E [ m a x i X i ] max_i \mathbb{E}[X_i]\neq \mathbb{E}[max_i X_i] maxiE[Xi]=E[maxiXi]

情况一:最大值和数学期望都关于自变量 i i i

在这种情况下,最大值与期望都依赖于同一个随机变量。设有一个随机变量 X i X_i Xi,其中 i i i 是一个离散的索引集合,例如 i = 1 , 2 , … , n i = 1, 2, \dots, n i=1,2,,n

1.最大值的期望
假设我们有 n n n 个独立同分布的随机变量 X 1 , X 2 , … , X n X_1, X_2, \dots, X_n X1,X2,,Xn,我们关心的是它们的最大值的期望。
E [ max ⁡ ( X 1 , X 2 , … , X n ) ] = E [ max ⁡ i X i ] \mathbb{E}\left[\max \left(X_1, X_2, \ldots, X_n\right)\right]=\mathbb{E}\left[\max _i X_i\right] E[max(X1,X2,,Xn)]=E[imaxXi]

  1. 期望的最大值
    另一种情况是先计算每个随机变量的期望,然后取这些期望的最大值.
    max ⁡ i E [ X i ] \max _i \mathbb{E}\left[X_i\right] imaxE[Xi]

如果 X i X_i Xi 的分布相同,则有:
max ⁡ i E [ X i ] = E [ X ] \max _i \mathbb{E}\left[X_i\right]=\mathbb{E}[X] imaxE[Xi]=E[X]
但通常情况下,该条件不成立.

情况二:最大值关于非自变量,期望关于自变量

在这种情况下,最大值是关于一个非自变量的,而期望是关于自变量的。举个例子,假设我们有一个固定的随机变量 v v v,然后我们对一组随机变量 X i X_i Xi i i i 是自变量)进行最大化操作。

1.最大值的期望
这里的最大值是关于一个常数变量 v v v 的。数学表达式为:
max ⁡ v E [ X i ] \max _v \mathbb{E}\left[X_i\right] vmaxE[Xi]

  1. 期望的最大值
    在这种情况下,期望是关于自变量 i i i 的,而最大值则是关于常数 v v v 的:
    E [ max ⁡ v X i ] \mathbb{E}\left[\max _v X_i\right] E[vmaxXi]

下面给出一个反例,说明期望的最大值不等于最大值的期望:

假设有两个节点 v 1 v_1 v1 v 2 v_2 v2,每个节点的函数 L v ( x i ) L_v(x_i) Lv(xi) 是随机变量的函数。考虑以下情况:

假设
  1. L v 1 ( x i ) = x i L_{v_1}(x_i) = x_i Lv1(xi)=xi L v 2 ( x i ) = − x i L_{v_2}(x_i) = -x_i Lv2(xi)=xi,其中 x i x_i xi 是随机变量,且 E [ x i ] = 0 \mathbb{E}[x_i] = 0 E[xi]=0

  2. 计算 E [ max ⁡ v L v ( x i ) ] E[\max_v L_v(x_i)] E[maxvLv(xi)],即:
    E [ max ⁡ v L v ( x i ) ] = E [ max ⁡ ( x i , − x i ) ] . E[\max_v L_v(x_i)] = E[\max(x_i, -x_i)]. E[vmaxLv(xi)]=E[max(xi,xi)].
    假设 x i x_i xi 服从对称分布,比如 x i ∼ N ( 0 , 1 ) x_i \sim N(0,1) xiN(0,1),则:
    max ⁡ ( x i , − x i ) = ∣ x i ∣ . \max(x_i, -x_i) = |x_i|. max(xi,xi)=xi∣.
    因此,期望值为:
    E [ max ⁡ ( x i , − x i ) ] = E [ ∣ x i ∣ ] . E[\max(x_i, -x_i)] = E[|x_i|]. E[max(xi,xi)]=E[xi].
    对于标准正态分布, E [ ∣ x i ∣ ] E[|x_i|] E[xi] 是已知的常数,约为 0.798。

  3. 计算 max ⁡ v E [ L v ( x i ) ] \max_v E[L_v(x_i)] maxvE[Lv(xi)],即:
    max ⁡ v E [ L v ( x i ) ] = max ⁡ ( E [ x i ] , E [ − x i ] ) . \max_v E[L_v(x_i)] = \max(E[x_i], E[-x_i]). vmaxE[Lv(xi)]=max(E[xi],E[xi]).
    由于 E [ x i ] = 0 \mathbb{E}[x_i] = 0 E[xi]=0 E [ − x i ] = 0 \mathbb{E}[-x_i] = 0 E[xi]=0,因此:
    max ⁡ v E [ L v ( x i ) ] = 0. \max_v E[L_v(x_i)] = 0. vmaxE[Lv(xi)]=0.

结果:
  • E [ max ⁡ v L v ( x i ) ] = E [ ∣ x i ∣ ] ≈ 0.798 E[\max_v L_v(x_i)] = E[|x_i|] \approx 0.798 E[maxvLv(xi)]=E[xi]0.798
  • max ⁡ v E [ L v ( x i ) ] = 0 \max_v E[L_v(x_i)] = 0 maxvE[Lv(xi)]=0

结论

由于期望是对整个随机变量分布的平均,而最大值操作通常会使得期望值偏离,因此在一般情况下,交换顺序是不成立的


http://www.ppmy.cn/news/1569483.html

相关文章

CSDN原力值提升秘籍:解锁社区活跃新姿势

在 CSDN 这个技术交流的大舞台上,原力值不仅是个人活跃度的象征,更是开启更多权益与福利的钥匙。最近,我出于自身需求,一头扎进了提升原力值的研究中,经过多方探索与资料整理,现在就迫不及待地把这些干货分…

【Linux系统】信号:再谈OS与内核区、信号捕捉、重入函数与 volatile

再谈操作系统与内核区 1、浅谈虚拟机和操作系统映射于地址空间的作用 我们调用任何函数(无论是库函数还是系统调用),都是在各自进程的地址空间中执行的。无论操作系统如何切换进程,它都能确保访问同一个操作系统实例。换句话说&am…

在LINUX上安装英伟达CUDA Toolkit

下载安装包 wget https://developer.download.nvidia.com/compute/cuda/12.8.0/local_installers/cuda-repo-rhel8-12-8-local-12.8.0_570.86.10-1.x86_64.rpm 安装RPM包 sudo rpm -i cuda-repo-rhel8-12-8-local-12.8.0_570.86.10-1.x86_64.rpm sudo dnf clean all sudo dnf…

2.4学习内容

922. 按奇偶排序数组 IIhttps://leetcode.cn/problems/sort-array-by-parity-ii/ 922. 按奇偶排序数组 II 给定一个非负整数数组 nums, nums 中一半整数是 奇数 ,一半整数是 偶数 。 对数组进行排序,以便当 nums[i] 为奇数时,…

机器学习10

自定义数据集 使用scikit-learn中svm的包实现svm分类 代码 import numpy as np import matplotlib.pyplot as pltclass1_points np.array([[1.9, 1.2],[1.5, 2.1],[1.9, 0.5],[1.5, 0.9],[0.9, 1.2],[1.1, 1.7],[1.4, 1.1]])class2_points np.array([[3.2, 3.2],[3.7, 2.9],…

从理论到实践:Linux 进程替换与 exec 系列函数

个人主页:chian-ocean 文章专栏-Linux 前言: 在Linux中,进程替换(Process Substitution)是一个非常强大的特性,它允许将一个进程的输出直接当作一个文件来处理。这种技术通常用于Shell脚本和命令行操作中…

Linux网络 | 理解TCP面向字节流、打通socket与文件的关系

前言:我们经常说TCP是面向字节流的, TCP是面向字节流的。 但是, 到底是什么事面向字节流呢? 另外, 我们知道sockfd其实就是文件fd。 但是,为什么sockfd是文件fd呢? 这些问题都在本节内容中的到回…

DeepSeek本地部署的一些使用体会

春节期间我也尝试了一下Deepseek的本地部署,方案选用了Ollama Chatbox或AnythingLLM。Chatbox里有很多有意思的“助手”,而AnythingLLM支持本地知识库。 网上教程很多,总的来说还是很方便的,不需要费太多脑子。甚至可以这么说&a…