9 votos

La distribución de los 'puros' partes basado en el orden de la mezcla

Supongamos que tengo emparejado observaciones dibujado yo.yo.d. como $X_i \sim \mathcal{N}\left(0,\sigma_x^2\right), Y_i \sim \mathcal{N}\left(0,\sigma_y^2\right),$$i=1,2,\ldots,n$. Deje $Z_i = X_i + Y_i,$ y denotan por $Z_{i_j}$ $j$th mayor valor observado de $Z$. ¿Cuál es la (condicional) distribución de $X_{i_j}$? (o, equivalentemente, que de $Y_{i_j}$)

Es decir, ¿cuál es la distribución de $X_i$ condicional en $Z_i$ $j$th más grande de $n$ que se observa en los valores de $Z$?

Supongo que como $\rho = \frac{\sigma_x}{\sigma_y} \to 0$, la distribución de $X_{i_j}$ converge sólo a la distribución incondicional de $X$, mientras que como $\rho \to \infty$, la distribución de $X_{i_j}$ converge a la distribución incondicional de la $j$th el fin de estadística de $X$. En el centro, aunque, no estoy seguro.

1voto

patfla Puntos 1

La distribución de $Z_{i_{j}}$ no es difícil, y está dada por la Beta-F compuesto de distribución:

$$p_{Z_{i_{j}}}(z)dz=\frac{n!}{(j-1)!(n-j)!} \frac{1}{\sigma_{z}}\phi(\frac{z}{\sigma_{z}})\left[\Phi(\frac{z}{\sigma_{z}})\right]^{j-1}\left[1-\Phi(\frac{z}{\sigma_{z}})\right]^{n-j}dz$$

Donde $\phi(x)$ es un estándar PDF normal, y $\Phi(x)$ es un estándar normal del CDF, y $\sigma_{z}^{2}=\sigma_{y}^{2}+\sigma_{x}^{2}$.

Ahora, si sabes que $Y_{i_{j}}=y$, $X_{i_{j}}$ es un 1-a-1 en función de $Z_{i_{j}}$, es decir,$X_{i_{j}}=Z_{i_{j}}-y$. Así que yo creo que esto no debe ser una simple aplicación de la jacobiana de la regla.

$$p_{X_{i_{j}}|Y_{i_{j}}}(x|y)=\frac{n!}{(j-1)!(n-j)!} \frac{1}{\sigma_{z}}\phi(\frac{x+y}{\sigma_{z}})\left[\Phi(\frac{x+y}{\sigma_{z}})\right]^{j-1}\left[1-\Phi(\frac{x+y}{\sigma_{z}})\right]^{n-j}dx$$

Esto parece demasiado fácil, pero creo que es correcto. Feliz de ser demostrado equivocado.

1voto

Nathan Long Puntos 30303

Observar que la variable aleatoria $i_j$ es una función de $\mathbf{Z} = (Z_1, \ldots, Z_n)$ solamente. Para un $n$-vector, $\mathbf{z}$, escribimos $i_j(\mathbf{z})$ para el índice de la $j$th más grande de coordenadas. Vamos también a $P_z(A) = P(X_1 \in A \mid Z_1 = z)$ denotar la distribución condicional de $X_1$$Z_1$.

Si partimos de las probabilidades según el valor de $i_j$ y desintegrate w.r.t. $\mathbf{Z}$ tenemos

$$\begin{array}{rcl} P(X_{i_j} \in A) & = & \sum_{k} P(X_k \in A, i_j = k) \\ & = &\sum_k \int_{(i_j(z) = k)} P(X_k \in A \mid \mathbf{Z} = \mathbf{z}) P(\mathbf{Z} \in d\mathbf{z}) \\ & = & \sum_k \int_{(i_j(z) = k)} P(X_k \in A \mid Z_k = z_k) P(\mathbf{Z} \in d\mathbf{z}) \\ & = & \sum_k \int_{(i_j(z) = k)} P_{z_k}(A) P(\mathbf{Z} \in d\mathbf{z}) \\ & = & \int P_{z}(A) P(Z_{i_j} \in dz) \\ \end{array}$$

Este argumento es bastante general y se basa sólo en el indicado yo.yo.d. supuestos, y $Z_k$ podría ser cualquier función de $(X_k, Y_k)$.

Bajo los supuestos de normalidad de las distribuciones (teniendo en $\sigma_y = 1$) y $Z_k$ la suma, la distribución condicional de $X_1$ $Z_1 = z$ es $$N\left(\frac{\sigma_x^2}{1+\sigma_x^2} z, \sigma_x^2\left(1 - \frac{\sigma_x^2}{1+\sigma_x^2}\right)\right)$$ y @probabilityislogic muestra cómo calcular la distribución de $Z_{i_j}$, por lo tanto, tenemos las expresiones explícitas tanto las distribuciones que entrar en la última integral anterior. Si la integral puede ser calculada analíticamente, es otra cuestión. Usted puede ser capaz, pero fuera de la parte superior de mi cabeza yo no puedo decir si es posible. Para el análisis asintótico al $\sigma_x \to 0$ o $\sigma_x \to \infty$ podría no ser necesario.

La intuición detrás del cálculo anterior, es que esta es una independencia condicional argumento. Dado $Z_{k} = z$ variables $X_{k}$ $i_j$ son independientes.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X