Sé que la definición de familia regular es que la familia exponencial cuyo espacio de parámetros naturales es un conjunto abierto. Pero no sé por qué necesitamos esa definición. ¿Cuál es la diferencia del comportamiento de la familia regular y la familia no regular? ¿Tienes alguna idea al respecto?
Respuesta
¿Demasiados anuncios?Breve historia: la condición de "familia regular" surge de forma natural cuando se quiere la estadística suficiente $T(X)$ para ser mínimo. En pocas palabras, para las familias exponenciales regulares, cualquier estadística suficiente es una función de $T(X)$ .
Del libro de texto de Keener:
Supongamos que $\mathcal{P}$ es un $s$ -familia exponencial de parámetros con densidades $p_\theta(x)=e^{\langle \eta(\theta), T(x)\rangle- B(\theta)} h(x)$ para $\theta \in \Omega$ .
$T$ es una estadística suficiente, por el teorema de la factorización. ¿Es mínimamente suficiente? Una forma de demostrar la suficiencia mínima es mostrar " $p_\theta(x) \propto_\theta p_\theta(y)$ implica $T(x)=T(y)$ ," donde $\propto_\theta$ significa "para los fijos $x$ y $y$ , $p_\theta(x)/p_\theta(y)$ es una constante cuando se ve como una función de $\theta$ ."
En este caso, $p_\theta(x) \propto_\theta p_\theta(y)$ implica $$\langle \eta(\theta), T(x)\rangle = \langle \eta(\theta), T(y)\rangle + c$$ para todos $\theta$ , donde $c$ es constante en $\theta$ pero tal vez una función de $x$ y $y$ .
Si tomamos dos puntos $\theta_1,\theta_2 \in \Omega$ y aplicar lo anterior a cada una, y restar las dos expresiones resultantes, obtenemos $$\langle \eta(\theta_1)-\eta(\theta_2), T(x) - T(y) \rangle = 0.$$ Si la familia exponencial es de rango completo, entonces $\eta(\theta_1)-\eta(\theta_2)$ puede apuntar en cualquier dirección en $\mathbb{R}^s$ con una selección adecuada de $\theta_1$ y $\theta_2$ Así que $T(x)=T(y)$ necesariamente ya que $T(x)-T(y)$ debe ser ortogonal a todas las direcciones. Así, $T$ es una estadística mínima suficiente. Sin el supuesto de rango completo no podemos concluir esto.
Mínimo suficiente frente a mínima representación
Tenemos $T(X)$ . Es una estadística suficiente mínima si cualquier otra estadística suficiente $F(X)$ puede escribirse como una función de $T(X)$ es decir $F(X) = g(T(X))$ .
$T(X)$ es una representación mínima si $\langle v, T(x)\rangle$ es no una constante, cuando se ve como una función de $x$ . Esto es para asegurar que cada distribución está asociada con una $\eta(\theta)$ . Si $\langle v, T(x)\rangle$ fuera una constante, entonces sustituyendo $\eta(\theta)$ con $\eta(\theta)+v$ no cambia la distribución (la constante de normalización cambiará adecuadamente). Si una representación no es mínima, creo que se puede reducir la dimensión $s$ de la estadística suficiente.
No estoy seguro de la relación entre ambas nociones. Creo que una estadística mínima suficiente puede ser una rep. mínima o una rep. no mínima.