3 votos

Independencia de funciones estadísticas de orden cuando las variables aleatorias están uniformemente distribuidas

Sea $X_1$ , $X_2$ , , $X_n$ sea $n$ variables aleatorias i.i.d. con $f(x)$ como el pdf y $F(x)$ como la fdc en el intervalo $[0,1]$ . Sea $F$ se distribuyan uniformemente. Sea $X_{i:n}$ sea el $i^{th}$ estadística de orden tal que $X_{1:n} \leq X_{2:n} \leq ... \leq X_{n:n}$ . Deseo calcular el valor esperado $\mathbb{E} [\frac{X_{(k-1):n} X_{i:n}}{X_{k:n}} ]$ para cualquier $ k < i \leq n$ . Así que la pregunta es $\frac{X_{(k-1):n}}{X_{k:n}}$ y $X_{i:n}$ ¿independiente? Porque si no lo son, el problema no es trivial. Debido a un resultado estándar en la teoría de la estadística de orden, ya sabemos que para cualquier $i \leq n$ , $\frac{X_{(i-1):n}}{X_{i:n}}$ y $X_{i:n}$ son independientes.

2voto

zhoraster Puntos 5893

Es fácil demostrar que dado $X_{i:n} = x$ las estadísticas de pedidos $X_{1:n}, \dots, X_{(i-1):n}$ tienen la misma distribución conjunta que las estadísticas de orden $X_{1:(i-1)}, \dots, X_{(i-1):(i-1)}$ de una muestra de la distribución uniforme en $[0,x]$ que, a su vez, tienen la misma distribución que $x$ veces las estadísticas de orden de una muestra de $[0,1]$ . Se deduce, en particular, que para $k<i$ , $\frac{X_{(k-1):n}}{X_{k:n}}$ es independiente de $X_{i:n}$ y $$ \mathrm{E}\Big[\frac{X_{(k-1):n} X_{i:n}}{X_{k:n}} \Big] = \mathrm{E}\Big[\frac{X_{(k-1):n} }{X_{k:n}} \Big]\mathrm{E}[X_{i:n}] = \frac{k-1}k \cdot \frac{i}{n+1}. $$

1voto

P. Quinton Puntos 172

Los siguientes usos información mutua (condicional) de la teoría de la información. Las tres únicas propiedades importantes de ésta que utilizamos son

  • Independencia : Si $X,Y$ son variables aleatorias independientes y $Z$ es una variable aleatoria cualquiera, entonces $I(X;Y|Z)=0$
  • Regla de la cadena : $I(X;Y,Z) = I(X;Y)+I(X;Z|Y)$ (obsérvese la distinción entre $,$ y $;$ )
  • Invariante a través del procesamiento uno a uno : si $f:A\rightarrow B$ es una función uno a uno, entonces $I(X;Y)=I(X;f(Y))$ en una definición adecuada $X$ y $Y$ .

Sea $Y_{k} = \frac{X_{(k-1)}}{X_{(k)}}$ Supongamos que $Y_k$ y $X_{(i)}$ no son independientes, entonces tienes $I(Y_k; X_{(i)}) > 0 $ queremos demostrar que $I(Y_k;X_{(n)})>0$ . Primero observe que $Y_{k}$ y $Y_{j}$ para $j\geq i$ entonces

\begin{align*} I(Y_k;X_{(i)}) &= I(Y_k;X_{(i)}) + \sum_{j=i+1}^n I(Y_k;Y_j|X_{(i)},Y_{i+1},\dots,Y_{j-1})\\ &= I(Y_k;X_{(i)},Y_{i+1},\dots,Y_{n})\\ &= I(Y_k;X_{(n)},Y_{i},\dots,Y_{n-1})\\ &= I(Y_k;X_{(n)}) + \sum_{j=i}^{n-1} I(Y_k;Y_j|X_{(n)},Y_{j+1},\dots,Y_{n-1})\\ &= I(Y_k;X_{(n)}) \end{align*}

Esta prueba puede adaptarse probablemente a una no teórica de la información.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X