La definición de estadística suficiente es: Sea $X_1,...,X_n$ sea una muestra aleatoria de una distribución indexada por un parámetro $\theta$ . Dejemos que $T$ sea una estadística. Supongamos que, para cada $\theta$ y todos los valores posibles $t$ de $T$ la distribución conjunta condicional de $X_1,...,X_n$ dado que $T=t$ depende sólo de $t$ pero no en $\theta$ . Entonces, $T$ es una estadística suficiente para el parámetro $\theta$ .
Siento que conozco varias piezas del rompecabezas (como el teorema de la factorización) para entender la estadística suficiente, pero no tengo la teoría general.
Mis principales preguntas son:
1) ¿Por qué dicen que $T$ es una estadística suficiente para el parámetro $\theta$ ? Si $\theta$ fuera la media de la población de una distribución normal, digamos $\mu$ ¿significa que cada vez que queramos encontrar la probabilidad de, digamos, $X_1,...,X_n$ que ocurre de una manera determinada, que no necesitamos el valor de la media de la población?
2) En la vida real, ¿por qué queremos utilizar una estadística suficiente? Parece que el simple cálculo de la estadística no debería suponer mucho trabajo (como la suma de X), así que ¿por qué lo necesitamos?
Gracias.
0 votos
stats.stackexchange.com/q/84226/119261