Necesito aclaración sobre un ejemplo de muestra binomial:
tomamos una muestra de tamaño $100$ de una distribución binomial($m = 2$,$p = 0.2$) y observamos $76$ de los $x_i = 0$, $20$ de los $x_i = 1$ y $4$ de los $x_i = 2$
ahora a medida que $n$ la distribución empírica se parecerá más y más a la binomial$(2,0.2)$ de la que se extrajo (¿por qué?).
Supongo que esto es debido a la Ley de los Grandes Números (no estoy seguro si Ley de los Grandes Números Debiles o Fuertes). ¿La media y la varianza de la distribución empírica se acercarán a la media y varianza de la binomial??
mis notas de clase tienen la siguiente explicación:
Por ejemplo, si $X_i$ sigue una distribución $Binom(2, 0.2)$ entonces para $n = 100$,
$$ P \bigg( \frac{1}{n} \sum_{i=1}^{n} 1_{[X_i=0]} \geq 0.76 \bigg) \simeq 0.007 $$ pero para $n = 1000$ $$ P \bigg( \frac{1}{n} \sum_{i=1}^{n} 1_{[X_i=0]} \geq 0.76 \bigg) \simeq 2.3\times(10^{-16}) $$
Entiendo el LHS en la función de probabilidad, que es la proporción total de $x_i = 0$, pero no entiendo por qué el RHS es $0.76$, ¿no debería ser $0.64$ (que es la probabilidad de $x_i = 0$, desde el código R dbinom(0,2,0.2))
.
0 votos
es.wikipedia.org/wiki/Ley_de_los_grandes_números
0 votos
¿Cómo se obtiene 0.64? ¿Qué es 'dbinom(0,2,0.2)'?
1 votos
Esa es la probabilidad de x=0, con m=2 y p=0.2, `dbinom(0, 2, 0.2)` es el comando de R que proporciona la probabilidad.
1 votos
Tal vez tenga algo que ver con la distribución multinomial, porque tienes 3 resultados posibles: $x_i \in \{0,1,2 \}$
0 votos
No, es Binomial, estás pensando en una prueba de Bernoulli, que solo tiene dos resultados, Binomial es la suma de pruebas de Bernoulli. Piensa en un solo lanzamiento de moneda VS una serie de lanzamientos de moneda contando las caras. Entonces en lo anterior, m=2, significa dos pruebas de Bernoulli. Entonces xi{0,1,2} se refiere a posibles conteos de caras en esas dos pruebas.