9 votos

Velocidad a la cual una variable aleatoria Gaussiana es el máximo en un conjunto independiente de variables aleatorias Gaussianas

Supongamos un vector aleatorio $X = [x_1, x_2, ..., x_n]$ donde las variables aleatorias son independientes y Gaussiano distribuido. Al mismo tiempo, no son idénticamente distribuidas; pueden tener arbitraria medias y varianzas.

¿Cuál es la probabilidad de que $x_k > x_i \forall i \neq k$? En otras palabras, ¿cuál es la probabilidad de que una realización de la aleatorios vectoriales producirá $x_k$ como valor máximo en el vector? Estoy buscando una forma cerrada de la solución, si existe.

Aquí tan lejos como llegué a la solución de este problema. Suponga $k=1$ sin pérdida de generalidad.

$P\left(x_1 > x_i \forall_{i > 1}\right) = \int_{-\infty}^\infty p(x_1)P\left(x_1 > x_i \forall_{i>1}|x_1\right)dx_1$

$P\left(x_1 > x_i \forall_{i > 1}\right) = \int_{-\infty}^\infty p(x_1)\prod_{i=2}^n P\left(x_1 > x_i|x_1\right)dx_1$

$P\left(x_1 > x_i \forall_{i > 1}\right) = \int_{-\infty}^\infty p(x_1)\prod_{i=2}^nF_i(x_1)dx_1$

donde $F_i(x)$ es la función de distribución acumulativa para $x_i$.

Francamente no estoy seguro de dónde ir desde aquí. Cualquier sugerencia sobre si hay un camino hacia adelante o si hay una mejor enfoque? Integración numérica es una opción para salir adelante pero yo preferiría una solución de forma cerrada si es posible, ya que abriría otras opciones para la investigación en un problema más grande que yo estoy atacando.

Gracias!

ACTUALIZACIÓN: La anterior pregunta-respuesta par marcados como proporcionar una respuesta a esta pregunta es no, por dos razones. (1) La pregunta es la búsqueda de la probabilidad de que $x_k$ es el mínimo, no el máximo, y (2) no hay forma cerrada de la solución que se ofrece. Si una forma cerrada de la solución se deriva, podría haber sido un enfoque similar en la respuesta que podría haber sido aprovechado aquí. Pero eso no es simplemente la actualidad.

ACTUALIZACIÓN 2: ahora Hay una forma cerrada de la solución propuesta para el problema relacionado con el mínimo que proporciona la base para resolver la cuestión planteada aquí.

5voto

Bauna Puntos 176

$\newcommand{\N}{\mathcal N}\newcommand{\tr}{\mathrm{tr}}$Retomando la pregunta: vamos a $X \sim \N(\mu, \Sigma)$ donde $\Sigma = \mathrm{diag}(\sigma_1^2, \dots, \sigma_n^2))$. ¿Qué es $\Pr(\forall i \ne k, X_k \ge X_i)$?

Ahora, esto ocurre si y sólo si el $(n-1)$-dimensiones aleatorios vectoriales $Y$, donde eliminamos a la $k$th componente y restar uno al otro con la dimensión de lo $X_k$, es de las componentes positivas. Definir el $(n-1) \times n$ matriz $A$ tomando la negativa de $(n-1)$ identidad y la inserción de una columna de todos los $1$s como el $k$ésima columna, de modo que $Y = A X$: si $k = n$, esto es $A = \begin{bmatrix}-I & 1\end{bmatrix}$.

Entonces $Y \sim \N(A \mu, A \Sigma A^T)$. $A \mu$ es fácil, y $A \Sigma A^T$ termina cayendo la $k$ésima fila y la columna de $\Sigma$ y, a continuación, la adición de $\sigma_k^2$ a cada entrada: $\Sigma' + \sigma_k^2 1 1^T$ donde $\Sigma'$ gotas $k$$\Sigma$.

Ahora bien, la probabilidad en cuestión es conocido naturalmente como un "Gaussiano orthant probabilidad". En general, estos son difíciles de obtener en forma cerrada (aquí son pocos; hay un montón de algoritmos que hay para aproximarse a ellas).

Pero tenemos una forma especial de la matriz de covarianza aquí (un simple rango-1 además de diagonal), lo cual puede dar una solución razonable. A continuación es un esfuerzo en esta dirección, pero ojo: no tengo una forma cerrada.


La probabilidad en cuestión es: \begin{align} \Pr\left( Y > 0 \right) = \int_{y \in (0, \infty)^{n-1}} \left( 2 \pi \right)^{-\frac{n-1}{2}} \lvert A \Sigma A^T \rvert^{-\frac12} \exp\left( -\frac12 (y - A \mu)^T (A \Sigma A^T)^{-1} (y - A \mu) \right) \mathrm{d}y .\end{align} Para evitar esos molestos $A \mu$ términos, definir $Z = Y - A \mu$, $\mathcal Z = \{ z : \forall i, z_i > (- A \mu)_i \}$. A continuación, nos preocupamos por \begin{align} \Pr\left( Z > - A \mu \right) = \int_{z \in \mathcal{Z}} \left( 2 \pi \right)^{-\frac{n-1}{2}} \lvert A \Sigma A^T \rvert^{-\frac12} \exp\left( -\frac12 z^T (A \Sigma A^T)^{-1} z \right) \mathrm{d}z .\end{align}

La aplicación de la matriz de determinante lema: \begin{align} \lvert A \Sigma A^T \rvert &= \left\lvert \Sigma' + \sigma_k^2 1 1^T \right\rvert \\&= (1 + \sigma_k^2 1^T \Sigma^{-1} 1) \lvert \Sigma^{-1} \rvert \\&= \left( 1 + \sum_{i \ne k} \frac{\sigma_k^2}{\sigma_i^2} \right) \prod_{i \ne k} \frac{1}{\sigma_i^2} ,\end{align} así que al menos la normalización constante es bastante fácil.

Para abordar el exponente, aplicar Sherman-Morrison: \begin{align} \left( A \Sigma A^T \right)^{-1} &= \left( \Sigma' + \sigma_k^2 1 1^T \right)^{-1} \\&= \Sigma'^{-1} - \frac{\sigma_k^2 \Sigma'^{-1} 1 1^T \Sigma'^{-1}}{1 + \sigma_k^2 1^T \Sigma'^{-1} 1} \\&= \Sigma'^{-1} - \frac{1}{\frac{1}{\sigma_k^2} + \sum_{i \ne k} \frac{1}{\sigma_i^2}} \left[ \frac{1}{\sigma_i^2 \sigma_j^2} \right]_{ij} \\&= \Sigma'^{-1} - \frac{1}{\tr(\Sigma^{-1})} \left[ \frac{1}{\sigma_i^2 \sigma_j^2} \right]_{ij} \\ z^T (A \Sigma A^T)^{-1} z &= \sum_i \frac{z_i^2}{\sigma_i^2} - \frac{1}{\tr(\Sigma^{-1})} \sum_{ij} \frac{z_i z_j}{\sigma_i^2 \sigma_j^2} \end{align} y entonces la integral (después de retirar constantes) es \begin{align} \int_{z \in \mathcal{Z}} &\exp\left( - \tfrac12 z^T (A \Sigma A^T)^{-1} z \right) \mathrm{d}z \\&= \int_{z \in \mathcal{Z}} \prod_i \exp\left( - \frac{z_i^2}{2 \sigma_i^2} \right) \prod_{ij} \exp\left( \frac{1}{2 \tr(\Sigma^{-1})} \frac{z_i z_j}{\sigma_i^2 \sigma_j^2} \right) \mathrm{d}z .\end{align}

Esta integral parece susceptible de algo más inteligente que acaba de ciego de integración numérica, pero es tarde ahora....

-1voto

Zachary Blumenfeld Puntos 1543

Voy a utilizar $P(X_k \geq X_i\;\;\forall i \neq k)$ para denotar la probabilidad de que $X_k\geq X_i\;\;\forall i \neq k$

Deje $X_1,...,X_n$ independiente (pero no idéntica) Gaussiano distribuido de la muestra de variables aleatorias, es decir,$X_i \sim N(\mu_i,\sigma_i)$. También vamos a $Z_{k,i}=X_k - X_i$.

como @Dougal señalado, las variables aleatorias $Z_{k,1},...,Z_{k,n}$ (con la omisión de $Z_{k,k}$) NO son independientes distribuidas. En lugar de seguir un multivariante de Gauss, donde el $$ cov(Z_{k,i},Z_{k,j})=\begin{cases} \sigma_k^2 \;\; \mathrm{for}\;\; i \neq j \\ \sigma_k^2+\sigma_i^2 \;\; \mathrm{for}\;\; i = j \end{casos} $$ Las distribuciones marginales son dadas por $$Z_{k,i} \sim N\bigg(\mu_k-\mu_i,\sqrt{\sigma_k^2+\sigma_i^2}\bigg)\;\;\forall i \neq k$$ Por lo tanto, $$ P(X_k \geq X_i\;\;\forall i \neq k) = P(Z_{k,i} \geq 0\;\;\forall i \neq k)=$$ $$ \int_0^{\infty} \int_0^{\infty} . . . \int_0^{\infty} \Phi((Z_{k,1},...,Z_{k,n})_{-k}|\mu_k,\Sigma_k)\prod_{\stackrel{i=1}{i \neq k}}^ndz_k $$

$\Phi$ multivariante de Gauss pdf, con $\mu_k$ $\Sigma_k$ como media del vector y matriz de covarianza formado a partir de la anterior marginales y la covarianza.

El de arriba multivariante de distribución puede ser muy difícil de integrar. La mayoría de los paquetes de software de estadística tiene las funciones para las que si. En R, por ejemplo, puede que desee comprobar hacia fuera el mnormt o mvnorm bibliotecas. Sin embargo, no puedo hablar a la forma exacta de estos métodos son de muy alta dimensión de los problemas.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X