7 votos

La varianza de la suma de variables Aleatorias de Bernoulli?

$\newcommand{\var}{\operatorname{var}}$

Deje $X_{i}$ ser una variable aleatoria de Bernoulli con paramater $p_{i}$ donde $p_i$ sí es una variable aleatoria que varía de $0$$1$. La expectativa de $p_{i}$$\rho$, e $X_{i}$ es independiente de $X_{j}$ donde $i\neq j$

Deje $Y=\sum_{i=1}^{n} X_{i}$

Mostrar que $\var(Y)>n\rho(1-\rho)$

Esto es lo que he hecho hasta ahora:

$$\var(Y)=\var\left(\sum_{i=1}^n X_{i}\right) = \sum_{i=1}^n \var(X_{i})$$ $$\var(X_{i})=E[\var(X_{i}\mid p_{i})]+\var(E[X_i \mid p_i])$$ $$=E[p_i-p_i^2]+\var(p_i)$$ $$=\rho-E[p_i^2]+E[p_i^2]-E[p_i]^2$$ $$=\rho-\rho^2$$

Así, $$\var(Y)=\sum_{i=1}^n (\rho-\rho^{2})=n\rho(1-\rho)$$

¿Qué estoy haciendo mal? Esta es la varianza de la si $p_i$ fueron una constante. Al $p_i$ varía, seguramente, que debería aumentar la varianza de $Y$. Cualquier visión se agradece!

3voto

EvanK Puntos 691

Al parecer, esta idea no es correcta - dudo de si lo que la pregunta puede ser demostrado a todos:

Al $p_i$ varía, seguramente, que debería aumentar la varianza de $Y$.

Intuitivamente, para algunos valores de $p_i$, $X_i$ tiene menor varianza que una de Bernoulli con parámetro de $\rho$, y para algunos otros valores que tiene una mayor varianza. Pero los efectos se suman en forma tal como si $p_i$ se fija a $\rho$.

Aquí es una alternativa de la prueba:

Desde $X_i$ sólo toma valores de $0$$1$,$X_i^2=X_i$$E[X_i^2] = E[X_i]$. Por lo tanto, $$\operatorname{Var}(X_i) = E[X_i^2]-(E[X_i])^2 = E[X_i](1-E[X_i])$$ mientras que por la ley de la total expectativa, $$E[X_i] = E[E[X_i|p_i]] = E[p_i] = \rho$$ Por lo tanto, $$\operatorname{Var}(X_i) =\rho(1-\rho)$$

2voto

Michael Hardy Puntos 128804

$\newcommand{\var}{\operatorname{var}}$ $\newcommand{\cov}{\operatorname{cov}}$

El cartel original ha puesto este enlace a la pregunta en un comentario debajo de la pregunta. Se diferencia en aspectos cruciales de la pregunta publicado anteriormente (en su forma actual).

Dice:

Supongamos que $P(Y_i=1)=1-P(Y_i=0) = \pi$, $i=1,\ldots,n$, donde $\{Y_i\}$ son independientes. Deje $Y=\sum_i Y_i$.

A continuación, en la parte (c), que el cartel dice en los comentarios que es lo que la pregunta es, que dice:

Supongamos que la heterogeneidad que existe: $P(Y_i=1\mid\pi)=\pi$ todos los $i$, pero $\pi$ es una variable aleatoria con función de densidad de $g(\cdot)$ $[0,1]$ con media de $\rho$ y positiva de la varianza. Mostrar que $\var(Y)>n\rho(1-\rho)$.

Una diferencia fundamental entre este y el publicado cuestión es que no son independientes $\pi_i$$i=1,\ldots,n$, pero sólo un $\pi$ que se aplica a todos los $Y_i$.

Así $Y_i$, $i=1,\ldots,n$ son condicionalmente independientes dado $\pi$, pero no son marginalmente independientes. Por ejemplo, si uno observa a $Y_1=\cdots=Y_{10}=1$, dado que la observación, es mucho más probable que $\pi$ está cerca de a $1$ de lo que era antes de que la observación; por lo tanto $P(Y_{11}=1\mid Y_1=\cdots=Y_{10}=1)$ es mucho mayor que $P(X_{11}=1)$.

Ahora \begin{align} \var(Y) & = \sum_i \var(Y_i) + \sum_{i,j\,:\,i< j} 2\cov(Y_i,Y_j) \\[8pt] & = n\rho(1-\rho) + \sum_{i,j\,:\,i< j} 2\cov(Y_i,Y_j). \end{align}

El primer término en la última línea de arriba de la siguiente manera a partir de lo que el afiche original que escribió.

Después de eso es suficiente para demostrar que $\cov(Y_i,Y_j)>0$$i\ne j$. Observe que

$$ \begin{align} \cov(Y_i,Y_j) & = \mathbb E(Y_i Y_j) - (\mathbb E Y_i)(\mathbb E(Y_j) \\ & = P(Y_i = 1 = Y_j) - \pi^2. \end{align} $$ Por lo tanto, sólo es necesario demostrar que la $P(Y_i=1=Y_j)>\pi^2$. Tenemos $$ P(Y_i=1=Y_j)= P(Y_i=1)P(Y_j=1\mediados de Y_i=1). $$ Eso es suficiente para demostrar que $P(Y_j=1\mid Y_i=1)>\pi=P(Y_j=1)$.

Por ahora voy a dejar el resto como un ejercicio. Tal vez voy a decir más tarde, espectially si los comentarios son publicados.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X