Sea X1 , X2 , , Xn sea n variables aleatorias i.i.d. con f(x) como el pdf y F(x) como la fdc en el intervalo [0,1] . Sea F se distribuyan uniformemente. Sea Xi:n sea el ith estadística de orden tal que X1:n≤X2:n≤...≤Xn:n . Deseo calcular el valor esperado E[X(k−1):nXi:nXk:n] para cualquier k<i≤n . Así que la pregunta es X(k−1):nXk:n y Xi:n ¿independiente? Porque si no lo son, el problema no es trivial. Debido a un resultado estándar en la teoría de la estadística de orden, ya sabemos que para cualquier i≤n , X(i−1):nXi:n y Xi:n son independientes.
Respuestas
¿Demasiados anuncios?Es fácil demostrar que dado Xi:n=x las estadísticas de pedidos X1:n,…,X(i−1):n tienen la misma distribución conjunta que las estadísticas de orden X1:(i−1),…,X(i−1):(i−1) de una muestra de la distribución uniforme en [0,x] que, a su vez, tienen la misma distribución que x veces las estadísticas de orden de una muestra de [0,1] . Se deduce, en particular, que para k<i , X(k−1):nXk:n es independiente de Xi:n y E[X(k−1):nXi:nXk:n]=E[X(k−1):nXk:n]E[Xi:n]=k−1k⋅in+1.
Los siguientes usos información mutua (condicional) de la teoría de la información. Las tres únicas propiedades importantes de ésta que utilizamos son
- Independencia : Si X,Y son variables aleatorias independientes y Z es una variable aleatoria cualquiera, entonces I(X;Y|Z)=0
- Regla de la cadena : I(X;Y,Z)=I(X;Y)+I(X;Z|Y) (obsérvese la distinción entre , y ; )
- Invariante a través del procesamiento uno a uno : si f:A→B es una función uno a uno, entonces I(X;Y)=I(X;f(Y)) en una definición adecuada X y Y .
Sea Yk=X(k−1)X(k) Supongamos que Yk y X(i) no son independientes, entonces tienes I(Yk;X(i))>0 queremos demostrar que I(Yk;X(n))>0 . Primero observe que Yk y Yj para j≥i entonces
I(Yk;X(i))=I(Yk;X(i))+n∑j=i+1I(Yk;Yj|X(i),Yi+1,…,Yj−1)=I(Yk;X(i),Yi+1,…,Yn)=I(Yk;X(n),Yi,…,Yn−1)=I(Yk;X(n))+n−1∑j=iI(Yk;Yj|X(n),Yj+1,…,Yn−1)=I(Yk;X(n))
Esta prueba puede adaptarse probablemente a una no teórica de la información.