Dejemos que $(X_1,X_2,\cdots,X_n)$ sea una muestra aleatoria extraída de $\mathcal U(0,\theta)$ distribución. Es un ejercicio común demostrar que el estadístico de orden máximo $X_{(n)}$ es suficiente para $\theta$ como una aplicación de la Teorema de factorización de Fisher-Neyman . Sin embargo, Intento demostrar este hecho a partir de la definición de estadística suficiente .
De hecho, para algunas distribuciones discretas podemos demostrar la suficiencia de un estadístico dado a partir de la definición sin utilizar la Teorema de la factorización . Pero para distribuciones continuas como ésta, supongo que no es tan sencillo.
Densidad conjunta de la muestra $\mathbf X=(X_1,\cdots,X_n)$ viene dada por
\begin {align} f_{ \theta }( \mathbf x)&= \prod_ {i=1}^n \frac {1}{ \theta } \mathbf1_ {0<x_i< \theta } \\ &= \frac {1}{ \theta ^n} \mathbf1_ {0<x_{(1)},x_{(n)}< \theta } \end {align}
Se desprende de la Teorema de la factorización que $T(\mathbf X)=X_{(n)}$ es suficiente para $\theta$ .
Pero a partir de la definición de suficiencia, tengo que demostrar que la distribución condicional de $\mathbf X\mid T$ es independiente de $\theta$ . No creo que pueda decir lo siguiente:
\begin {align} f_{ \mathbf X \mid T}( \mathbf x \mid t)f_T(t)&=f_{T \mid\mathbf X}(t \mid\mathbf x)f_{ \theta }( \mathbf x) \\\implies f_{ \mathbf X \mid T}( \mathbf x \mid t)&= \frac {f_{ \theta }( \mathbf x)}{f_T(t)}f_{T \mid\mathbf X}(t \mid\mathbf x) \end {align}
Sabemos que la densidad de $T$ es $$f_T(t)=\frac{n\,t^{n-1}}{\theta^n}\mathbf1_{0<t<\theta}$$
Pero no sé qué $f_{T\mid\mathbf X}(\cdot)$ es porque parece $T\mid\mathbf X$ tiene una distribución singular.
Si conociera la distribución conjunta de $(\mathbf X,T)$ Entonces tal vez podría haber dicho que $$f_{\mathbf X\mid T}(\mathbf x\mid t)=\frac{f_{\mathbf X,T}(\mathbf x,t)}{f_T(t)}$$
También he intentado trabajar con la función de distribución condicional $$P\left[X_1\le x_1,\cdots,X_n\le x_n\mid T=t\right]=\lim_{\varepsilon\to0}\frac{P\left[X_1\le x_1,\cdots,X_n\le x_n, t-\varepsilon\le T\le t+\varepsilon\right]}{P(t-\varepsilon\le T\le t+\varepsilon)}$$
He pasado por este post relacionado, pero no ha podido encontrar una respuesta. ¿Es también cierto que $\mathbf X\mid T$ tiene una distribución mixta?
También tengo a mano esta definición equivalente de suficiencia, que dice que si $T$ es suficiente para $\theta$ entonces para cualquier otra estadística $T'$ la distribución condicional de $T'\mid T$ también es independiente de $\theta$ . Tal vez para una elección adecuada de $T'$ Puedo demostrar el hecho requerido, pero prefiero hacerlo desde la primera definición. Cualquier pista será genial.
Parece que lo que estoy buscando es básicamente una prueba del Teorema de la factorización para distribuciones continuas, que sí encontré en la obra de Hogg y Craig Estadísticas Matemáticas .
Este es un extracto de Teoría de la estimación de puntos de Lehmann-Casella (2ª edición) que da una pista de un argumento probabilístico para la suficiencia de $T=X_{(n)}$ :
Dejemos que $X_1,\cdots,X_n$ se distribuyen independientemente según la distribución uniforme $U(0,\theta)$ . Sea $T$ sea el mayor de los $n$ $X$ y considerar la distribución condicional de los restantes $n 1$ $X$ de la empresa, que es la siguiente $t$ . Pensando en el $n$ variables como $n$ puntos de la recta real, es intuitivamente obvio y no es difícil ver formalmente (Problema 6.2) que los restantes $n 1$ puntos (después de que el mayor se fije en $t$ ) se comportan como $n 1$ puntos seleccionados al azar en el intervalo $(0, t)$ . Como esta distribución condicional es independiente de $\theta$ , $T$ es suficiente. Dado sólo $T = t$ es obvio cómo reconstruir la muestra original: Seleccione $n 1$ puntos al azar en $(0, t)$ .
El problema 6.2 dice
Dejemos que $X_1,\cdots,X_n$ ser iid según una distribución $F$ y la densidad de probabilidad $f$ . Demuestre que la distribución condicional dada $X_{(i)} = a$ de la $i1$ valores a la izquierda de $a$ y el $ni$ valores a la derecha de $a$ es la de $i1$ variables distribuidas independientemente según la densidad de probabilidad $f(x)/F(a)$ y $ni$ variables distribuidas independientemente con densidad $f(x)/[1 F(a)]$ respectivamente, siendo los dos conjuntos (condicionalmente) independientes entre sí.
Así que para una prueba "formal" de la suficiencia de $T$ sin aplicando el Teorema de la factorización ¿tengo que probar el teorema mismo para este problema en particular o hay otra opción como se destaca en el extracto anterior?