Observar que la variable aleatoria $i_j$ es una función de $\mathbf{Z} = (Z_1, \ldots, Z_n)$ solamente. Para un $n$-vector, $\mathbf{z}$, escribimos $i_j(\mathbf{z})$ para el índice de la $j$th más grande de coordenadas. Vamos también a $P_z(A) = P(X_1 \in A \mid Z_1 = z)$ denotar la distribución condicional de $X_1$$Z_1$.
Si partimos de las probabilidades según el valor de $i_j$ y desintegrate w.r.t. $\mathbf{Z}$ tenemos
$$\begin{array}{rcl}
P(X_{i_j} \in A) & = & \sum_{k} P(X_k \in A, i_j = k) \\
& = &\sum_k \int_{(i_j(z) = k)} P(X_k \in A \mid \mathbf{Z} = \mathbf{z}) P(\mathbf{Z} \in d\mathbf{z}) \\
& = & \sum_k \int_{(i_j(z) = k)} P(X_k \in A \mid Z_k = z_k) P(\mathbf{Z} \in d\mathbf{z}) \\
& = & \sum_k \int_{(i_j(z) = k)} P_{z_k}(A) P(\mathbf{Z} \in d\mathbf{z}) \\
& = & \int P_{z}(A) P(Z_{i_j} \in dz) \\
\end{array}$$
Este argumento es bastante general y se basa sólo en el indicado yo.yo.d. supuestos, y $Z_k$ podría ser cualquier función de $(X_k, Y_k)$.
Bajo los supuestos de normalidad de las distribuciones (teniendo en $\sigma_y = 1$) y $Z_k$ la suma, la distribución condicional de $X_1$ $Z_1 = z$ es
$$N\left(\frac{\sigma_x^2}{1+\sigma_x^2} z, \sigma_x^2\left(1 - \frac{\sigma_x^2}{1+\sigma_x^2}\right)\right)$$
y @probabilityislogic muestra cómo calcular la distribución de $Z_{i_j}$, por lo tanto, tenemos las expresiones explícitas tanto las distribuciones que entrar en la última integral anterior. Si la integral puede ser calculada analíticamente, es otra cuestión. Usted puede ser capaz, pero fuera de la parte superior de mi cabeza yo no puedo decir si es posible. Para el análisis asintótico al $\sigma_x \to 0$ o $\sigma_x \to \infty$ podría no ser necesario.
La intuición detrás del cálculo anterior, es que esta es una independencia condicional argumento. Dado $Z_{k} = z$ variables $X_{k}$ $i_j$ son independientes.