5 votos

Ayuda para entender el concepto de familias exponenciales de rango completo

Estoy estudiando Familias Exponenciales y hay algunos conceptos que no entiendo del todo. Aquí hay dos definiciones para el rango de una familia exponencial y una familia exponencial de rango completo:

Definición 1:

Dejemos que $\mathscr{P}=\{P_\eta:\eta\in H\}$ es un $s-$ familia exponencial mínima dimensional. Si $H$ contiene un $s-$ rectángulo dimensional, entonces $\mathscr{P}$ se denomina de rango completo. Por lo demás, $\mathscr{P}$ se llama curvado.

Definición 2:

Una familia exponencial es de rango $k$ si y sólo si la estadística generadora $T$ es $k-$ dimensiones y $\{1, T_1(X), \ldots,T_k(X)\}$ son linealmente independientes con probabilidad positiva. Formalmente, $P_\eta\left(\sum_{j=1}^{k}a_jT_j(X)=a_{k+1}\right)<1$ a menos que todos $a_j$ son ceros.

Aquí, la definición 1 la tomé de este nota y la definición 2 es de Doksum & Bickel's.

Es la definición 2 la que me confunde. Cuando leo la primera frase de la definición 2, la traduzco como sigue Existe un conjunto $A$ tal que $P_\eta(A)>0$ y si $\sum_{j=1}^{k}a_jT_j(X)=a_{k+1}$ para todos $x\in A$ entonces $a_1=a_2=\cdots=a_{k+1}=0.$ Pero entonces, ¿cómo es equivalente a la segunda frase de la definición 2? En otras palabras, ¿cómo debo entender la frase " Formalmente, $P_\eta(\sum_{j=1}^{k}a_jT_j(X)=a_{k+1})<1$ a menos que todos $a_j$ son ceros ¿"correctamente"?

1voto

sepiabrown Puntos 17

Creo que la segunda frase significa,

$$ \forall(a_1,\ldots,a_{k+1})\neq0,\, P_\eta(\sum a_jT_j(X) = a_{k+1}) \lt 1 $$ o replanteado en forma de argumento condicional, $$ (a_1,\ldots,a_{k+1})\neq0 \Rightarrow P_\eta(\sum a_jT_j(X) = a_{k+1}) \lt 1 $$

Y equivale a las siguientes formas.

$$ \begin{aligned} &(a_1,\ldots,a_{k+1})\neq0 \Rightarrow P_\eta(\sum a_jT_j(X) \neq a_{k+1}) \ge 0 & (1)\\ &P_\eta(\sum a_jT_j(X) \neq a_{k+1}) = 0 \Rightarrow \forall(a_1,\ldots,a_{k+1}) = 0 & (2)\\ &P_\eta(\sum a_jT_j(X) = a_{k+1}) = 1 \Rightarrow \forall(a_1,\ldots,a_{k+1}) = 0 & (3) \end{aligned} $$

(2) es contrapositivo de (1).

Creo que esta noción es equivalente a $P$ -independencia de la afinidad. Consulte este enlace p.15

Además, creo que la razón por la que hay "probabilidad positiva" en la definición 2 de la independencia lineal de los estadísticos es porque (3) es exactamente análoga a la definición de la independencia lineal de los vectores, excepto que se define en sentido casi seguro, lo que puede interpretarse como probabilidad positiva en término fácil.

También creo que la parte "mínima" de la definición 1 puede derivarse de la definición 2 añadiendo la hipótesis de independencia de los parámetros. De nuevo, compruebe este enlace p.15 Teorema 2.1.9 (i). (El teorema 2.1.9 (i) remite al lector a Witting (1985), Thm. 1.153, p. 145. para la prueba, pero el libro es Mathematische Statistik I Parametrische Verfahren bei festem Stichprobenumfang escrito en alemán. También quiero entender la prueba completa pero no pude encontrarla en inglés).

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X