En la estadística clásica, no es una definición de un dato de $T$ de un conjunto de datos de $y_1, \ldots, y_n$ está definido para ser completa para un parámetro $\theta$ es imposible formar un estimador imparcial de $0$ de lo trivial. Es decir, la única manera de tener $E h(T (y )) = 0$ todos los $\theta$ han $h$ $0$ casi seguramente. Hay una intuición detrás de esto? Se parece más bien una forma mecánica de definir esto, soy consciente de que esto se ha preguntado antes, pero se preguntaba si no era muy fácil de entender la intuición de que iba a hacer introductorio de los estudiantes tienen un tiempo más fácil la digestión del material. Gracias!
Respuestas
¿Demasiados anuncios?Voy a tratar de agregar a la otra respuesta. En primer lugar, la integridad es una condición técnica que principalmente se justifica por los teoremas que la utilizan. Así que vamos a empezar con algunos conceptos y teoremas que se produzcan.
Deje $X=(X_1,X_2,\dotsc,X_n)$ representan un vector de iid datos, que el modelo de como tener una distribución $f(x;\theta), \theta \in \Theta$ donde el parámetro de $\theta$ consejo de los datos es desconocido. $T=T(X)$ es suficiente si la distribución condicional de $X \mid T$ no depende del parámetro $\theta$. $V=V(X)$ es auxiliar si la distribución de los $V$ no depende de $\theta$ (dentro de la familia $f(x;\theta)$). $U=U(X)$ es un estimador imparcial de cero si su expectativa es cero, independientemente de $\theta$. $S=S(X)$ es una completa estadística de si cualquier estimador imparcial de cero basado en el $S$ es idéntica a cero, es decir, si $\DeclareMathOperator{\E}{\mathbb{E}} \E g(S)=0 (\text{for all $\theta$})$$g(S)=0$.e. (para todos los $\theta$).
Ahora, supongamos que se tienen dos diferentes imparcial estimadores de $\theta$ basado en la estadística suficiente $T$, $g_1(T), g_2(T)$. Es decir, en símbolos $$ \E g_1(T)=\theta ,\\ \E g_2(T)=\theta $$ y $\DeclareMathOperator{\P}{\mathbb{P}} \P(g_(T) \not = g_2(T) ) > 0$ (para todos los $\theta$). A continuación, $g_1(T)-g_2(T)$ es un estimador imparcial de cero, que no es idéntica a cero, demostrando que $T$ no es completa. Así, la integridad de una estadística suficiente $T$ nos da que existe sólo un único estimador imparcial de $\theta$$T$. Que está ya muy cerca de la Lehmann–Scheffé teorema.
Veamos algunos ejemplos. Supongamos $X_1, \dotsc, X_n$ ahora son iid uniforme en el intervalo de $(\theta, \theta+1)$. Podemos mostrar que (a$X_{(1)} < X_{(2)} < \dotsm < X_{(n)}$ es el fin de estadísticas) el par $(X_{(1)}, X_{(n)})$ es suficiente, pero no es completa, debido a la diferencia de $X_{(n)}-X_{(1)}$ es auxiliares, se pueden calcular sus expectativas, vamos a ser $c$ (que es una función de $n$) y, a continuación, $X_{(n)}-X_{(1)} -c$ será un estimador imparcial de cero, lo que no es idéntica a cero. Así que nuestro suficientes estadística, en este caso, no es suficiente y completa. Y podemos ver lo que significa: existen funciones de la suficiente estadística que no son informativos acerca de $\theta$ (en el contexto del modelo). Esto no puede suceder con una completa estadística suficiente; es, en un sentido máximo informativo, en el que ninguna de las funciones de la misma son poco informativas.
Mira de nuevo en el rango de $R=X_{(n)}-X_{(1)}$ en este ejemplo. Ya que su distribución no depende de $\theta$, no por sí solo contiene información acerca de la $\theta$. Pero, junto con el suficiente estadística, sí! Cómo? Mira el caso de que $R=1$ que se observa.Entonces, en el contexto de nuestra (conocido para ser verdad) modelo, tenemos perfecto conocimiento de $\theta$! Es decir, que podemos decir con certeza que $\theta = X_{(1)}$. Usted puede chech que cualquier otro valor de $\theta$ a continuación, se dirige a $X_{(1)}$ o $X_{(n)}$ siendo imposible la observación, con el supuesto modelo. Por otro lado, si observamos $R=0.1$, entonces el rango de posibles valores de $\theta$ es bastante grande (ejercicio ...).
En este sentido, el auxiliar de estadística $R$ no contienen cierta información acerca de la precisión con la que podemos calcular los $\theta$ a partir de estos datos y el modelo. Esta fue una idea de Fisher, que la inferencia debe estar condicionada a algunos auxiliares de la estadística.
Ahora, Basu del teorema: Si $T$ es completa, suficiente, entonces es independiente de cualquier auxiliar de estadística. Es decir, la inferencia basada en una completa suficientes estadística es más simple, en que no necesitamos considerar condicional de la inferencia. Acondicionado en una estadística que es independiente de la $T$ no cambia nada, por supuesto.
A continuación, un último ejemplo para darle un poco más de intuición. Cambiar nuestra distribución uniforme de ejemplo, para una distribución uniforme en el intervalo de $(\theta_1, \theta_2)$ ( $\theta_1<\theta_2$ ). En este caso la estadística $(X_{(1)}, X_{(n)})$ es completa y suficiente. Lo que ha cambiado? Podemos ver que la integridad es realmente una propiedad de la modelo. En el primer caso, hemos tenido un restringido espacio de parámetros. Esta restricción destruido integridad por la introducción de las relaciones en el orden de las estadísticas. Por la eliminación de esta restricción llegamos integridad! Así, en un sentido, la falta de integridad significa que el parámetro de espacio no es lo suficientemente grande, y por la ampliación de lo que podemos esperar para restaurar la integridad (y por lo tanto, más fácil de inferencia).
Para otro ejemplo donde la falta de veracidad, es causada por las restricciones en el espacio de parámetros, véase mi respuesta a: ¿Qué tipo de información de Fisher información?
Algunos intuición puede estar disponible a partir de la teoría de las mejores (mínima varianza) imparcial de los estimadores.
Si $E_\theta W=\tau(\theta)$ $W$ es un mejor estimador imparcial de $\tau(\theta)$ fib $W$ no tiene correlación con todos los estimadores insesgados de cero.
Prueba: Deje $W$ ser un estimador imparcial correlacionados con la de todos los estimadores insesgados de cero. Deje $W'$ ser otro estimador del tipo que $E_\theta W'=E_\theta W=\tau(\theta)$. Escribir $W'=W+(W'-W)$. Por supuesto, $Var_\theta W'=Var_\theta W+Var_\theta (W'-W)$. Por lo tanto, para cualquier $W'$, $Var_\theta W'\geq Var_\theta W$.
Supongamos ahora que $W$ es un mejor estimador imparcial. Vamos que hay algunos de los otros estimador $U$ con $E_\theta U=0$. $\phi_a:=W+aU$ también es imparcial para $\tau(\theta)$. Tenemos $$Var_\theta \phi_a:=Var_\theta W+2aCov_\theta(W,U)+a^2Var_\theta U.$$ Si hubo un $\theta_0\in\Theta$ tal que $Cov_{\theta_0}(W,U)<0$, obtendríamos $Var_\theta \phi_a<Var_\theta W$ $a\in(0,-2Cov_{\theta_0}(W,U)/Var_{\theta_0} U)$. $W$ a continuación, podría no ser el mejor estimador imparcial. QED
Intuitivamente, el resultado dice que si un estimador es la óptima, no debe ser posible para mejorarlo añadiendo sólo un poco de ruido, en el sentido de que combina con un estimador que es sólo cero en promedio (siendo un estimador imparcial de cero).
Desafortunadamente, es difícil de caracterizar todos los estimadores insesgados de cero. La situación se vuelve mucho más sencillo si el cero sí es la única imparcial estimador de cero, como cualquier estadística $W$ satisface $Cov_\theta(W,0)=0$. Integridad describe una situación.