【推导过程】常用离散分布的数学期望、方差、特征函数

news/2024/10/21 2:26:32/

文章目录

  • 相关教程
  • 相关文献
  • 常用离散分布的数学期望&方差&特征函数
  • 二项分布
    • 数学期望
    • 方差
  • 泊松分布
    • 泊松定理
    • 数学期望
    • 方差
  • 超几何分布
    • 超几何分布的二项近似
    • 数学期望
    • 方差
  • 几何分布
    • 几何分布的无记忆性
    • 数学期望
    • 方差
  • 负二项分布

作者:小猪快跑

基础数学&计算数学,从事优化领域7年+,主要研究方向:MIP求解器、整数规划、随机规划、智能优化算法

常用离散分布(二项分布、泊松分布、超几何分布、几何分布与负二项分布)的数学期望、方差、特征函数具体推导。

如有错误,欢迎指正。如有更好的算法,也欢迎交流!!!——@小猪快跑

相关教程

  • 常用分布的数学期望、方差、特征函数
  • 【推导过程】常用离散分布的数学期望、方差、特征函数
  • 【推导过程】常用连续分布的数学期望、方差、特征函数

相关文献

  • [1]茆诗松,周纪芗.概率论与数理统计 (第二版)[M].中国统计出版社,2000.

常用离散分布的数学期望&方差&特征函数

分布名称概率分布或密度函数 p ( x ) p(x) p(x)数学期望方差特征函数
单点分布 p c = 1 \begin{array}{c}{p_{c}=1}\end{array} pc=1
( c c c 为常数)
c c c 0 0 0 e i c t e^{ict} eict
0 − 1 0-1 01分布 p 0 = 1 − p , p 1 = p ( 0 < p < 1 ) \begin{array}{c} p_{0}=1-p,p_{1}=p\\ (0<p<1)\end{array} p0=1p,p1=p(0<p<1) p p p p ( 1 − p ) p(1-p) p(1p) 1 − p + p e i t 1-p+pe^{it} 1p+peit
二项分布
b ( n , p ) b(n,p) b(n,p)
p k = ( n k ) p k ( 1 − p ) n − k k = 0 , 1 , 2 , ⋯ , n ( 0 < p < 1 ) p_{k}=\binom{n}{k}p^{k}(1-p)^{n-k}\\k=0,1,2,\cdots,n\\(0<p<1) pk=(kn)pk(1p)nkk=0,1,2,,n(0<p<1) n p np np n p ( 1 − p ) np(1-p) np(1p) ( 1 − p + p e i t ) n (1-p+pe^{it})^{n} (1p+peit)n
泊松分布
P ( λ ) P(\lambda) P(λ)
p k = λ k k ! e − k k = 0 , 1 , 2 , ⋯ ; ( λ > 0 ) p_{k}=\frac{\lambda^{k}}{k!}e^{-k}\\k=0,1,2,\cdots;(\lambda>0) pk=k!λkekk=0,1,2,;(λ>0) λ \lambda λ λ \lambda λ e λ ( e i t − 1 ) e^{\lambda(e^{it}-1)} eλ(eit1)
超几何分布
h ( n , N , M ) h(n,N,M) h(n,N,M)
p k = ( M k ) ( N − M n − k ) ( N n ) M ⩽ N , n ⩽ N , M , N , n 正整数, k = 0 , 1 , 2 , ⋯ , min ⁡ ( M , N ) p_{k}=\frac{\displaystyle\binom{M}{k}\binom{N-M}{n-k}}{\displaystyle\binom{N}{n}}\\M\leqslant N,n\leqslant N,M,N,n\text{ 正整数,}\\k=0,1,2,\cdots,\min(M,N) pk=(nN)(kM)(nkNM)MN,nN,M,N,n 正整数,k=0,1,2,,min(M,N) n M N n\displaystyle\frac MN nNM n M N ( 1 − M N ) N − n N − 1 \displaystyle\frac{nM}N(1-\frac MN)\frac{N-n}{N-1} NnM(1NM)N1Nn ∑ k = 0 n ( M k ) ( N − M n − k ) ( N n ) e i t k \displaystyle\sum_{k=0}^n\frac{\displaystyle\binom Mk\binom{N-M}{n-k}}{\displaystyle\binom Nn}e^{itk} k=0n(nN)(kM)(nkNM)eitk
几何分布
G e ( p ) Ge(p) Ge(p)
p k = ( 1 − p ) k − 1 p k = 1 , 2 , ⋯ ( 0 < p < 1 ) p_{k}=(1-p)^{k-1}p\\k=1,2,\cdots\\(0<p<1) pk=(1p)k1pk=1,2,(0<p<1) 1 p \displaystyle\frac1p p1 1 − p p 2 \displaystyle\frac{1-p}{p^2} p21p p e i t 1 − ( 1 − p ) e i t \displaystyle\frac{pe^{it}}{1-(1-p)e^{it}} 1(1p)eitpeit
负二项分布
帕斯卡分布
N b ( r , p ) Nb(r,p) Nb(r,p)
p k = ( k − 1 r − 1 ) ( 1 − p ) k − r p r r 正整数 , k = r , r + 1 , ⋯ ( 0 < p < 1 ) \begin{gathered}p_{k}={\binom{k-1}{r-1}}(1-p)^{k-r}p^{r} \\r正整数,k=r,r+1,\cdots \\(0<p<1) \end{gathered} pk=(r1k1)(1p)krprr正整数,k=r,r+1,(0<p<1) r p \displaystyle\frac rp pr r ( 1 − p ) p 2 \displaystyle\frac{r(1-p)}{p^2} p2r(1p) ( p e i t 1 − ( 1 − p ) e i t ) r \left(\displaystyle\frac{pe^{it}}{1-(1-p)e^{it}}\right)^r (1(1p)eitpeit)r

二项分布

如果记 X X X n n n 重伯努利试验中成功(记为事件 A A A )的次数,则 X X X 的可能取值为 0 , 1 , ⋯ , n 0,1,\cdots,n 0,1,,n。 记 p p p 为每次试验中 A A A 发生的概率,即 P ( A ) = p P(A)=p P(A)=p,则 P ( A ˉ ) = 1 − p P(\bar A)=1-p P(Aˉ)=1p

因为 n n n重伯努利试验的基本结果可以记作
ω = ( ω 1 , ω 2 , ⋯ , ω n ) \omega = (\omega_1, \omega_2, \cdots , \omega_n) ω=(ω1,ω2,,ωn)
其中 ω i \omega_i ωi 或者为 A A A,或者为 A ˉ \bar A Aˉ。 这样的 ω \omega ω 共有 2 n 2^n 2n 个,这 2 n 2^n 2n 个样本点 ω \omega ω 组成了样本空间 Ω \Omega Ω

下面求 X X X 的分布列,即求事件 { X = k } \{X=k\} {X=k} 的概率。若某个样本点
ω = ( ω 1 , ω 2 , ⋯ , ω n ) ∈ { X = k } \omega = (\omega_1,\omega_2,\cdots,\omega_n) \in \{ X = k \} ω=(ω1,ω2,,ωn){X=k}
意味着 ω 1 , ω 2 , ⋯ , ω n \omega_1,\omega_2,\cdots,\omega_n ω1,ω2,,ωn 中有 k k k A , n − k A,n-k A,nk A ˉ \bar A Aˉ,所以由独立性知
P ( ω ) = p k ( 1 − p ) n − k P(\omega) = p^k(1-p)^{n-k} P(ω)=pk(1p)nk
而事件 { X = k } \{X=k\} {X=k} 中这样的 ω \omega ω 共有 ( n k ) \binom nk (kn) 个,所以 X X X 的分布列为

P ( X = k ) = ( n k ) p k ( 1 − p ) n − k , k = 0 , 1 , ⋯ , n P(X=k)=\binom{n}{k}p^k(1-p)^{n-k}, k=0,1,\cdots,n P(X=k)=(kn)pk(1p)nk,k=0,1,,n

数学期望

E ( X ) = ∑ k = 0 n k ( n k ) p k ( 1 − p ) n − k = n p ∑ k = 1 n ( n − 1 k − 1 ) p k − 1 ( 1 − p ) ( n − 1 ) − ( k − 1 ) = n p [ p + ( 1 − p ) ] n − 1 = n p \begin{aligned} E(X)& =\sum_{k=0}^nk\binom nkp^k(1-p)^{n-k} \\ &=np\sum_{k=1}^n\binom{n-1}{k-1}p^{k-1}(1-p)^{(n-1)-(k-1)} \\ &=np[p+(1-p)]^{n-1}=np \end{aligned} E(X)=k=0nk(kn)pk(1p)nk=npk=1n(k1n1)pk1(1p)(n1)(k1)=np[p+(1p)]n1=np

方差

E ( X 2 ) = ∑ k = 0 n k 2 ( n k ) p k ( 1 − p ) n − k = ∑ k = 1 n ( k − 1 + 1 ) k ( n k ) p k ( 1 − p ) n − k = ∑ k = 1 n k ( k − 1 ) ( n k ) p k ( 1 − p ) n − k + ∑ k = 1 n k ( n k ) p k ( 1 − p ) n − k = ∑ k = 2 n k ( k − 1 ) ( n k ) p k ( 1 − p ) n − k + n p = n ( n − 1 ) p 2 ∑ k = 2 n ( n − 2 k − 2 ) p k − 2 ( 1 − p ) ( n − 2 ) − ( k − 2 ) + n p = n ( n − 1 ) p 2 + n p . \begin{align*} E(X^2) & = \sum_{k=0}^nk^2\binom nkp^k(1-p)^{n-k} \\ & = \sum_{k=1}^n(k-1+1)k\binom nkp^k(1-p)^{n-k} \\ & = \sum_{k=1}^nk(k-1)\binom nkp^k(1-p)^{n-k} + \sum_{k=1}^nk\binom nkp^k(1-p)^{n-k} \\ & = \sum_{k=2}^nk(k-1)\binom nkp^k(1-p)^{n-k} + np \\ & = n(n-1)p^2\sum_{k=2}^n\binom{n-2}{k-2} p^{k-2} (1-p)^{(n-2)-(k-2)} + np \\ & = n(n-1)p^2 + np. \end{align*} E(X2)=k=0nk2(kn)pk(1p)nk=k=1n(k1+1)k(kn)pk(1p)nk=k=1nk(k1)(kn)pk(1p)nk+k=1nk(kn)pk(1p)nk=k=2nk(k1)(kn)pk(1p)nk+np=n(n1)p2k=2n(k2n2)pk2(1p)(n2)(k2)+np=n(n1)p2+np.

V a r ( X ) = E ( X 2 ) − [ E ( X ) ] 2 = n ( n − 1 ) p 2 + n p − ( n p ) 2 = n p ( 1 − p ) \mathrm{Var}(X) = E(X^2) - [E(X)]^2 = n(n-1)p^2 + np - (np)^2 = np(1-p) Var(X)=E(X2)[E(X)]2=n(n1)p2+np(np)2=np(1p)

泊松分布

  • 在单位时间内,电话总机接到用户呼唤的次数

  • 在单位时间内,一电路受到外界电磁波的冲击次数

  • 1平方米内,玻璃上的气泡数

  • 一铸件上的砂眼数

  • 在单位时间内,某种放射性物质分裂到某区域的质点数等等

设随机变量 X ∼ P ( λ ) X\sim P(\lambda) XP(λ)
P ( X = k ) = λ k k ! e − λ , k = 0 , 1 , 2 , ⋯ , P(X=k)=\frac{\lambda^k}{k!}\mathrm{e}^{-\lambda}, k=0, 1,2,\cdots, P(X=k)=k!λkeλ,k=0,1,2,,

泊松定理

n n n重伯努利试验中,记事件 A A A 在一次试验中发生的概率为 p n p_n pn(与试验次数 n n n 有关),如果当 n → + ∞ n\to+\infty n+ 时,有 n p n → λ np_n\to\lambda npnλ,则
lim ⁡ n → + ∞ ( n k ) p n k ( 1 − p n ) n − k = λ k k ! e − λ . \lim_{n\to+\infty} \binom nk p_n^k(1-p_n)^{n-k} = \frac{\lambda^k}{k!}\mathrm{e}^{-\lambda}. n+lim(kn)pnk(1pn)nk=k!λkeλ.
n p n = λ n np_n=\lambda_n npn=λn,记 p n = λ n / n p_n=\lambda_n/n pn=λn/n,我们可得
( n k ) p n k ( 1 − p n ) n − k = n ( n − 1 ) ⋯ ( n − k + 1 ) k ! ( λ n n ) k ( 1 − λ n n ) n − k = λ n k k ! ( 1 − 1 n ) ( 1 − 2 n ) ⋯ ( 1 − k − 1 n ) ( 1 − λ n n ) n − k . \begin{align*} \binom nk p_n^k(1-p_n)^{n-k} & = \frac{n(n-1)\cdots(n-k+1)}{k!}\left( \frac{\lambda_n}n \right)^k \left( 1 - \frac{\lambda_n}n \right)^{n-k} \\ & = \frac{\lambda_n^k}{k!}\left( 1 - \frac1n \right)\left( 1 - \frac2n \right) \cdots \left( 1 - \frac{k-1}n \right) \left( 1 - \frac{\lambda_n}n \right)^{n-k}. \end{align*} (kn)pnk(1pn)nk=k!n(n1)(nk+1)(nλn)k(1nλn)nk=k!λnk(1n1)(1n2)(1nk1)(1nλn)nk.
对固定的 k k k
lim ⁡ n → + ∞ λ n = λ lim ⁡ n → + ∞ ( 1 − λ n n ) n − k = e − λ lim ⁡ n → + ∞ ( 1 − 1 n ) ⋯ ( 1 − k − 1 n ) = 1 \begin{align*} & \lim_{n\to+\infty}\lambda_n = \lambda \\ & \lim_{n\to+\infty}\left( 1 - \frac{\lambda_n}n \right)^{n-k} = \mathrm{e}^{-\lambda} \\ & \lim_{n\to+\infty}\left( 1 - \frac1n \right) \cdots \left( 1 - \frac{k-1}n \right) = 1 \end{align*} n+limλn=λn+lim(1nλn)nk=eλn+lim(1n1)(1nk1)=1
从而
lim ⁡ n → + ∞ ( n k ) p n k ( 1 − p n ) n − k = λ k k ! e − λ \lim_{n\to+\infty} \binom nk p_n^k(1-p_n)^{n-k} = \frac{\lambda^k}{k!}\mathrm{e}^{-\lambda} n+lim(kn)pnk(1pn)nk=k!λkeλ
对任意的 k k k k = 0 , 1 , 2 , ⋯ k=0,1,2,\cdots k=0,1,2,)成立。

数学期望

E ( X ) = ∑ k = 0 + ∞ k λ k k ! e − λ = λ e − λ ∑ k = 1 + ∞ λ k − 1 ( k − 1 ) ! = λ e − λ e λ = λ E(X) = \sum_{k=0}^{+\infty} k\frac{\lambda^k}{k!}\mathrm{e}^{-\lambda} = \lambda\mathrm{e}^{-\lambda} \sum_{k=1}^{+\infty}\frac{\lambda^{k-1}}{(k-1)!} = \lambda\mathrm{e}^{-\lambda} \mathrm{e}^\lambda = \lambda E(X)=k=0+kk!λkeλ=λeλk=1+(k1)!λk1=λeλeλ=λ

方差

E ( X 2 ) = ∑ k = 0 + ∞ k 2 λ k k ! e − λ = ∑ k = 1 + ∞ k λ k ( k − 1 ) ! e − λ = ∑ k = 1 + ∞ [ ( k − 1 ) + 1 ] λ k ( k − 1 ) ! e − λ = λ 2 e − λ ∑ k = 2 + ∞ λ k − 2 ( k − 2 ) ! + λ e − λ ∑ k = 1 + ∞ λ k − 1 ( k − 1 ) ! = λ 2 + λ . \begin{aligned} E(X^{2})& =\sum_{k=0}^{+\infty}k^{2}\frac{\lambda^{k}}{k!}\mathrm{e}^{-\lambda}=\sum_{k=1}^{+\infty}k \frac{\lambda^{k}}{(k-1)!}\mathrm{e}^{-\lambda} \\ &=\sum_{k=1}^{+\infty}[(k-1)+1]\frac{\lambda^k}{(k-1)!}\mathrm{e}^{-\lambda} \\ &=\lambda^{2}\mathrm{e}^{-\lambda}\sum_{k=2}^{+\infty}\frac{\lambda^{k-2}}{(k-2)!}+\lambda\mathrm{e}^{-\lambda}\sum_{k=1}^{+\infty}\frac{\lambda^{k-1}}{(k-1)!} \\ &=\lambda^{2}+\lambda. \end{aligned} E(X2)=k=0+k2k!λkeλ=k=1+k(k1)!λkeλ=k=1+[(k1)+1](k1)!λkeλ=λ2eλk=2+(k2)!λk2+λeλk=1+(k1)!λk1=λ2+λ.

V a r ( X ) = E ( X 2 ) − [ E ( X ) ] 2 = λ 2 + λ − λ 2 = λ \mathrm{Var}(X)=E(X^2)-[E(X)]^2=\lambda^2+\lambda-\lambda^2=\lambda Var(X)=E(X2)[E(X)]2=λ2+λλ2=λ

超几何分布

从一个有限总体中进行不放回抽样常会遇到超几何分布。

设有 N N N 个产品,其中有 M M M 个不合格品。若从中不放回地随机抽取 n n n 个,则其中含有的不合格品的个数 X X X 服从超几何分布,记为 X ∼ h ( n , N , M ) X\sim h(n,N,M) Xh(n,N,M)。超几何分布的概率分布列为
P ( X = k ) = ( M k ) ( N − M n − k ) ( N n ) , k = 0 , 1 , ⋯ , r P(X = k) = \frac{\binom Mk \binom{N-M}{n-k}} {\binom Nn},\; k = 0,1,\cdots,r P(X=k)=(nN)(kM)(nkNM),k=0,1,,r

其中 r = min ⁡ { M , n } r=\min\{M,n\} r=min{M,n},且 M ≤ N , n ≤ N , n , N , M M\le N,n\le N,n,N,M MN,nN,n,N,M 均为正整数。

超几何分布的二项近似

n ≪ N n\ll N nN 时,即抽取个数 n n n 远小于产品总数 N N N 时,每次抽取后,总体中的不合格品率 p = M / N p=M/N p=M/N 改变甚徽,所以不放回抽样可近似地看成放回抽样,这时超几何分布可用二项分布近似:
( M k ) ( N − M n − k ) ( N n ) ≅ ( n k ) p k ( 1 − p ) n − k , 其中 p = M N \frac{\binom Mk \binom{N-M}{n-k}} {\binom Nn} \cong \binom nkp^k(1-p)^{n-k},\;\text{其中}\,p = \frac MN (nN)(kM)(nkNM)(kn)pk(1p)nk,其中p=NM

数学期望

X ∼ h ( n , N , M ) X\sim h(n,N,M) Xh(n,N,M),则 X X X 的数学期望为
E ( X ) = ∑ k = 0 r k ( M k ) ( N − M n − k ) ( N n ) = n M N ∑ k = 1 r ( M − 1 k − 1 ) ( N − M n − k ) ( N − 1 n − 1 ) = n M N E(X) = \sum_{k=0}^rk\frac{\binom Mk \binom{N-M}{n-k}} {\binom Nn} = n\frac MN \sum_{k=1}^r \frac{\binom {M-1}{k-1} \binom{N-M}{n-k}} {\binom {N-1}{n-1}} = n\frac MN E(X)=k=0rk(nN)(kM)(nkNM)=nNMk=1r(n1N1)(k1M1)(nkNM)=nNM

方差

E ( X 2 ) = ∑ k = 1 r k 2 ( M k ) ( N − M n − k ) ( N n ) = ∑ k = 2 r k ( k − 1 ) ( M k ) ( N − M n − k ) ( N n ) + n M N = M ( M − 1 ) ( N n ) ∑ k = 2 r k ( k − 1 ) ( M − 2 k − 2 ) ( N − M n − k ) + n M N = M ( M − 1 ) ( N n ) ( N − 2 n − 2 ) + n M N = M ( M − 1 ) n ( n − 1 ) N ( N − 1 ) + n M N , \begin{align*} E(X^2) & = \sum_{k=1}^rk^2\frac{\binom Mk \binom{N-M}{n-k}} {\binom Nn} = \sum_{k=2}^r k(k-1) \frac{\binom Mk \binom{N-M}{n-k}} {\binom Nn} + n \frac MN \\ & = \frac{M(M-1)}{\binom Nn} \sum_{k=2}^rk(k-1) \binom{M-2}{k-2} \binom{N-M}{n-k} + n\frac MN \\ & = \frac{M(M-1)}{\binom Nn} \binom{N-2}{n-2} + n \frac MN = \frac{M(M-1)n(n-1)}{N(N-1)} + n \frac MN, \end{align*} E(X2)=k=1rk2(nN)(kM)(nkNM)=k=2rk(k1)(nN)(kM)(nkNM)+nNM=(nN)M(M1)k=2rk(k1)(k2M2)(nkNM)+nNM=(nN)M(M1)(n2N2)+nNM=N(N1)M(M1)n(n1)+nNM,

由此得 X X X 的方差为
V a r ( X ) = E ( X 2 ) − [ E ( X ) ] 2 = n M ( N − M ) ( N − n ) N 2 ( N − 1 ) \mathrm{Var}(X) = E(X^2) - [E(X)]^2 = \frac{nM(N-M)(N-n)}{N^2(N-1)} Var(X)=E(X2)[E(X)]2=N2(N1)nM(NM)(Nn)

几何分布

在伯努利试验序列中,记每次试验中事件 A A A发生的概率为 p p p,如果 X X X为事件 A A A首次出现时的试验次数,则 X X X的可能取值为 1 , 2 , ⋯ 1,2,\cdots 1,2,,称 X X X服从几何分布,记为 X ∼ G e ( p ) X\sim Ge(p) XGe(p),其分布列为
P ( X = k ) = ( 1 − p ) k − 1 p , k = 1 , 2 , ⋯ P(X = k) = (1 - p)^{k-1}p,\; k = 1,2,\cdots P(X=k)=(1p)k1p,k=1,2,
实际中有不少随机变量服从几何分布,譬如,

  • 某产品的不合格率为0.05,则首次查到不合格品的检查次数 X ∼ G e ( 0.05 ) X\sim Ge(0.05) XGe(0.05)

  • 某射手的命中率为0.8,则首次击中目标的射击次数 Y ∼ G e ( 0.8 ) Y\sim Ge(0.8) YGe(0.8)

  • 掷一颗骰子,首次出现6点的投掷次数 Z ∼ G e ( 1 / 6 ) Z\sim Ge(1/6) ZGe(1/6)

  • 同时掷两颗骰子,首次达到两个点数之和为8的投掷次数 W ∼ G e ( 5 / 36 ) W\sim Ge(5/36) WGe(5/36)

几何分布的无记忆性

X ∼ G e ( p ) X\sim Ge(p) XGe(p),则对任意正整数 m m m n n n
P ( X > m + n ∣ X > m ) = P ( X > n ) P(X > m + n| X > m) = P(X > n) P(X>m+nX>m)=P(X>n)
在证明之前先解释上述概率等式的含义.在一列伯努利试验序列中,若首次成功 ( A ) (A) (A)出现的试验次数X服从几何分布,则事件“ X > m X>m X>m”表示前 m m m次试验中 A A A没有出现.假如在接下去的 n n n次试验中 A A A仍未出现,这个事件记为“ X > m + n X>m+n X>m+n”.这个定理表明:在前 m m m次试验中 A A A没有出现的条件下,则在接下去的 n n n次试验中 A A A仍未出现的概率只与 n n n有关,而与以前的 m m m次试验无关,似乎忘记了前 m m m次试验结果,这就是无记忆性。

因为
P ( X > n ) = ∑ k = n + 1 + ∞ ( 1 − p ) k − 1 p = p ( 1 − p ) n 1 − ( 1 − p ) = ( 1 − p ) n P(X > n) = \sum_{k=n+1}^{+\infty}(1-p)^{k-1}p = \frac{p(1-p)^n}{1-(1-p)} = (1-p)^n P(X>n)=k=n+1+(1p)k1p=1(1p)p(1p)n=(1p)n
所以对任意的正整数 m m m n n n,条件概率
P ( X > m + n ∣ X > m ) = P ( X > m + n ) P ( X > m ) = ( 1 − p ) m + n ( 1 − p ) m = ( 1 − p ) n = P ( X > n ) \begin{align*} P(X > m + n | X > m) & = \frac{P(X>m+n)}{P(X>m)} = \frac{(1-p)^{m+n}}{(1-p)^m} \\ & = (1 - p)^n = P(X > n) \end{align*} P(X>m+nX>m)=P(X>m)P(X>m+n)=(1p)m(1p)m+n=(1p)n=P(X>n)

数学期望

设随机变量 X X X服从几何分布 G e ( p ) Ge(p) Ge(p),令 q = 1 − p q=1-p q=1p,利用逐项微分可得 X X X的数学期望为
E ( X ) = ∑ k = 1 + ∞ k p q k − 1 = p ∑ k = 1 + ∞ k q k − 1 = p ∑ k = 1 + ∞ d q k d q = p d d q ( ∑ k = 0 + ∞ q k ) = p d d q ( 1 1 − q ) = p ( 1 − q ) 2 = 1 p \begin{align*} E(X) & = \sum_{k=1}^{+\infty} kpq^{k-1} = p\sum_{k=1}^{+\infty}kq^{k-1} = p\sum_{k=1}^{+\infty}\frac{\mathrm dq^k}{\mathrm dq} \\ & = p\frac{\mathrm d}{\mathrm dq}\Big( \sum_{k=0}^{+\infty}q^k \Big) = p \frac{\mathrm d}{\mathrm dq}\left( \frac1{1-q} \right) = \frac p{(1-q)^2} = \frac1p \end{align*} E(X)=k=1+kpqk1=pk=1+kqk1=pk=1+dqdqk=pdqd(k=0+qk)=pdqd(1q1)=(1q)2p=p1

方差

E ( X 2 ) = ∑ k = 1 + ∞ k 2 p q k − 1 = p [ ∑ k = 1 + ∞ k ( k − 1 ) q k − 1 + ∑ k = 1 + ∞ k q k − 1 ] = p q ∑ k = 1 + ∞ k ( k − 1 ) q k − 2 + 1 p = p q ∑ k = 1 + ∞ d 2 d q 2 q k + 1 p = p q d 2 d q 2 ( ∑ k = 1 + ∞ q k ) + 1 p = p q d 2 d q 2 ( 1 1 − q ) + 1 p = p q 2 ( 1 − q ) 3 + 1 p = 2 q p 2 + 1 p \begin{align*} E(X^2) & = \sum_{k=1}^{+\infty} k^2pq^{k-1} = p \bigg[ \sum_{k=1}^{+\infty} k(k-1)q^{k-1} + \sum_{k=1}^{+\infty} kq^{k-1} \bigg] \\ & = pq\sum_{k=1}^{+\infty} k(k-1)q^{k-2} + \frac1p = pq \sum_{k=1}^{+\infty}\frac{\mathrm d^2}{\mathrm dq^2}q^k + \frac1p \\ & = pq\frac{\mathrm d^2}{\mathrm dq^2}\Big(\sum_{k=1}^{+\infty}q^k\big) + \frac1p = pq \frac{\mathrm d^2}{\mathrm dq^2}\left( \frac1{1-q}\right) + \frac1p \\ & = pq\frac2{(1-q)^3} + \frac1p = \frac{2q}{p^2} + \frac1p \end{align*} E(X2)=k=1+k2pqk1=p[k=1+k(k1)qk1+k=1+kqk1]=pqk=1+k(k1)qk2+p1=pqk=1+dq2d2qk+p1=pqdq2d2(k=1+qk)+p1=pqdq2d2(1q1)+p1=pq(1q)32+p1=p22q+p1

由此得 X X X的方差为
V a r ( X ) = E ( X 2 ) − [ E ( X ) ] 2 = 2 q p 2 + 1 p − 1 p 2 = 1 − p p 2 \mathrm{Var}(X) = E(X^2) - [E(X)]^2 = \frac{2q}{p^2} + \frac1p - \frac1{p^2} = \frac{1-p}{p^2} Var(X)=E(X2)[E(X)]2=p22q+p1p21=p21p

负二项分布

作为几何分布的一种延伸,我们注意下面的负二项分布巴斯卡分布

在伯努利试验序列中,记每次试验中事件 A A A发生的概率为 p p p,如果 X X X为事件 A A A r r r次出现时的试验次数,则 X X X的可能取值为 r , r + 1 , ⋯ , r + m , ⋯ r,r+1,\cdots,r+m,\cdots r,r+1,,r+m,. 称 X X X服从负二项分布巴斯卡分布,其分布列为
P ( X = k ) = ( k − 1 r − 1 ) p r ( 1 − p ) k − r , k = r , r + 1 , ⋯ P(X = k) = \binom{k-1}{r-1} p^r(1-p)^{k-r},\; k=r,r+1,\cdots P(X=k)=(r1k1)pr(1p)kr,k=r,r+1,
记为 X ∼ N b ( r , p ) X\sim Nb(r,p) XNb(r,p)。当 r = 1 r=1 r=1时,即为几何分布。

这是因为在次伯努利试验中,最后一次一定是 A A A,而前 k − 1 k-1 k1次中 A A A应出现 r − 1 r-1 r1次,由二项分布知其概率为 ( k − 1 r − 1 ) p r − 1 ( 1 − p ) k − r \binom{k-1}{r-1}p^{r-1}(1-p)^{k-r} (r1k1)pr1(1p)kr,再乘以最后一次出现 A A A的概率 p p p,即得。

可以算得负二项分布的数学期望为 r / p r/p r/p,方差为 r ( 1 − p ) / p 2 r(1-p)/p^2 r(1p)/p2。从直观上看这是合理的,因为首次出现 A A A的平均试验次数是 1 / p 1/p 1/p,那么第 r r r A A A出现所需的平均试验次数是 r / p r/p r/p

如果将第一个 A A A出现的试验次数记为 X 1 X_1 X1,第二个 A A A出现的试验次数(从第一个 A A A出现之后算起)记为 X 2 X_2 X2,第 r r r A A A出现的试验次数(从第 r − 1 r-1 r1 A A A出现之后算起)记为 X r X_r Xr,则 X i X_i Xi独立同分布,且 X i ∼ G e ( p ) X_i\sim Ge(p) XiGe(p).此时有 X = X 1 + X 2 + ⋯ + X r ∼ N b ( r , p ) X=X_1+X_2+\cdots+X_r\sim Nb(r,p) X=X1+X2++XrNb(r,p),即负二项分布的随机变量可以表示成 r r r个独立同分布的几何分布随机变量之和。


http://www.ppmy.cn/news/1540667.html

相关文章

笔试练习day7

目录 OR59 字符串中找出连续最长的数字串题目解析解法(双指针遍历)代码 NC109 岛屿数量题目解析解法代码(dfs)dfs的实现 拼三角题目解析解法(枚举)代码 感谢各位大佬对我的支持,如果我的文章对你有用,欢迎点击以下链接 &#x1f412;&#x1f412;&#x1f412; 个人主页 &…

DBSwitch和Seatunel

一、DBSwitch 什么是DBSwitch?它主要用在什么场景&#xff1f; 通过步骤分析可以看到这个是通过配置数据源&#xff0c;采用一次性或定时方案&#xff0c;同步到数据仓库的指定表&#xff0c;并且指定映射关系的工具。有点类似于flinkcdc的增量同步。 参考&#xff1a; dbs…

webAPI中的排他思想、自定义属性操作、节点操作(配大量案例练习)

一、排他操作 1.排他思想 如果有同一组元素&#xff0c;我们想要某一个元素实现某种样式&#xff0c;需要用到循环的排他思想算法&#xff1a; 1.所有的元素全部清除样式 2.给当前的元素设置样式 注意顺序能不能颠倒&#xff0c;首先清除全部样式&#xff0c;再设置自己当前的…

Debian12离线部署docker详细教程

1、转至 https://download.docker.com/linux/debian/dists/ 2、在列表中选择您的 Debian 版本。 cat /etc/os-release # 我的版本号是bookworm3、转到pool/stable/并选择适用的架构&#xff08;amd64、 armhf、arm64或s390x&#xff09; 4、在deb网址下&#xff0c;下载Doc…

知识点:代理设计模式

1.场景设定和问题复现 1 准备项目 pom.xml <dependency> <groupId>org.junit.jupiter</groupId> <artifactId>junit-jupiter-api</artifactId> <version>5.3.1</version> <scope>test</scope></dependen…

兰迪·舍克曼担任生命银行链(LBC)顾问,赋能基因数据区块链技术发展

兰迪舍克曼&#xff08;Randy Schekman&#xff09;作为生命银行链&#xff08;Life Bank Chain, LBC&#xff09;的顾问参与其中&#xff0c;这无疑是个令人兴奋的消息&#xff01;他在生理医学和基因研究方面拥有深厚的专业知识&#xff0c;必将对LBC的使命&#xff0c;即安全…

10-14到10-16学习笔记

mybatis-plus设置逻辑删除 1.配置全局的逻辑删除规则&#xff08;高版本可以省略&#xff09; 2.配置逻辑删除的组件bean(高版本可以省略) 3.给实体类的属性加上逻辑删除TableLogic注解 Element-ui的Dialog 对话框使用 <el-dialog :title"title" :visible.sync…

FPGA实现SPI接口,用verilog实现,SPI接口使用例程!!!

SPI接口详解 SPI&#xff08;Serial Peripheral Interface&#xff09;是一种高速、全双工、同步的通信总线。它常用于连接微控制器和各种外围设备&#xff0c;如EEPROM、FLASH、AD转换器等。SPI接口主要具有以下优点&#xff1a; 全双工通信&#xff1a;支持同时发送和接收数…