3 votos

Varianza de la distribución compuesta

La distribución binomial describe la probabilidad de $k$ eventos de "éxito" dados $N$ ensayos independientes, cada uno con una probabilidad $p$ de ser un éxito. La distribución se describe mediante la fórmula $$B(k;N,p) = {N \choose k} p^k(1-p)^{N-k}.$$ El proceso que me interesa particularmente está descrito por una distribución binomial, pero en la que el número de ensayos viene dado por otra distribución, digamos $X$ en lugar de un solo número. Un ejemplo podría ser que $X$ es la distribución de Poisson tal que $X = P(k;\lambda) = \frac{e^{-\lambda}\lambda^k}{k!}$ y la distribución compuesta resultante, $D$ (la distribución de mi proceso) viene dada por ( ver aquí para más detalles ): $$D = \sum_{\theta}B(k;\theta,p)P(\theta;\lambda)d\theta .$$ Ahora, para esta distribución particular D, puedo calcular la ecuación de la distribución (que resulta ser poissoniana con media $\lambda p$ para los interesados) y calcular la varianza de la distribución ( $Var[D]=\lambda p$ ).

Ahora tengo una serie de preguntas que me gustaría responder con respecto a este tipo de proceso (¡que espero que me puedan ayudar!):

  1. Para el caso en que $X$ puede ser cualquier distribución arbitraria, ¿es posible calcular qué distribución $X$ daría un mínimo para $Var[D]$ ? (y si es así, ¿cómo?)
  2. Puedo encontrar dos distribuciones $X_1$ y $X_2$ tal que $Var[X_1]>Var[X_2]$ y $Var[D_1]<Var[D_2]$ (es decir, la aplicación de la distribución binomial da lugar a una variación no trivial de las varianzas)?

Soy relativamente nuevo en este tipo de trabajo estadístico, por lo que sería estupendo que las respuestas fueran lo más detalladas posible (aunque parezcan obvias) y pido disculpas si alguna de mis preguntas es de conocimiento común, pero me ha costado encontrar una solución en Internet. Gracias de antemano.

1voto

Dave Carmean Puntos 21

Un colega mío consiguió responder a la pregunta. En realidad es razonablemente sencillo y es un ejemplo bastante bonito de un cálculo de varianza.

Permítanme redefinir la distribución compuesta anterior para que sea de la forma $$\sum_{N=0}^{\infty}X(N)B(n,N;p) =: XB(n;p).$$ Para una distribución binomial simple $B(n;N,p) = {N \choose n} p^n (1-p)^{N-n}$ : $${E}_B[n] := \sum_{n=0}^{\infty}nB(n;N,p) = Np,$$ $${E}_B[n^2] := \sum_{n=0}^{\infty}n^2 B(n;N,p) = Np+N^2p^2-Np^2, $$ $$ \Delta_B^2 = Np-Np^2 = Np(1-p) $$ donde $E$ denota el valor de la expectativa. Para la distribución compuesta $XB(n;p)$ : $$E_{XB}[n] := \sum_{n=0}^{\infty}n \sum_{N=0}^{\infty}X(N)B(n,N;p) = \sum_{N=0}^{\infty}X(N) E_B[n] = \sum_{N=0}^{\infty}X(N) Np = p E_X[N]$$ , $$E_{XB}[n^2] := \sum_{n=0}^{\infty}n^2 \sum_{N=0}^{\infty}X(N)B(n,N;p) = \sum_{N=0}^{\infty}X(N) (N^2p^2+N(p-p^2))$$ $$ = pE_X[N^2] + p(1-p)E_X[N], $$ Lo que resulta en una varianza para la distribución compuesta de $$\Delta_{XB}^2 = p^2E_X[N^2]+p(1-p)E_X[N] - p^2E_X[N]^2 = p^2 \Delta_X^2 + p(1-p)E_X[N].$$ El parámetro particular para el que estaba interesado en reducir la varianza tiene en sí mismo una varianza de $\Delta_{P}^2 = \Delta_{XB}^2/E_X[N] = p^2 \Delta_X^2/E_X[N] + p(1-p)$ y por lo tanto para minimizar la varianza de este parámetro necesito minimizar la varianza de la distribución $X$ .

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X