He estado leyendo sobre estadísticas suficientes, y tengo algunas preguntas cuya respuesta no encuentro en el libro.
-
¿Por qué nos importan las estadísticas suficientes en primer lugar? Entiendo que nos gustaría utilizar la estadística suficiente para hacer inferencia sobre el parámetro $\theta$ . Sin embargo, ¿no podemos utilizar la muestra original? ¿O es que hace mucho tiempo no teníamos ordenadores potentes?
-
Extrañamente, no encuentro ninguna discusión sobre la existencia de estadísticas suficientes/estadísticas mínimas suficientes. ¿Es trivial que dada una muestra aleatoria $X_1,\cdots,X_n \sim f(x\mid \theta)$ ¿podemos encontrar siempre una SS que no sea toda la muestra? ¿Es cierto que siempre podemos encontrar una SSM?
-
¿Cómo utilizamos realmente las SS/MSS para inferir $\theta$ ? He leído sobre el método del momento, así como el método de máxima verosimilitud, pero sólo utilizan toda la muestra en lugar de una estadística suficiente $T(X_1,\cdots,X_n)$ .
-
La mayoría de los libros de texto formulan la idea de estadística suficiente utilizando la probabilidad condicional. Por ejemplo, algo así,
Supongamos que $X_1,\cdots,X_n \sim f(x\mid \theta). $ Una estadística es suficiente si $$\mathbb{P}(X_1,\cdots,X_n \mid T(X_1,\cdots,X_n))$$ no depende de $\theta$ .
Por pura curiosidad, ¿es posible definir la SS utilizando, por ejemplo, la teoría de la información o la entropía? No soy un experto en este tema, pero " $T$ contiene toda la información de la muestra que necesitamos para determinar $\theta$ ", o " $T$ contiene tanta información como la muestra para inferir $\theta$ "me hace pensar en la teoría de la información.