17 votos

¿Cuál es el más grande, de un grupo de variables aleatorias distribuidas normalmente?

Tengo variables aleatorias $X_0, X_1, \dots, X_n$. $X_0$ tiene una distribución normal con media $\mu>0$ y varianza $1$. Las variables aleatorias $X_1, \dots, X_n$ tienen una distribución normal con media $0$ y varianza $1$. Todo es mutuamente independiente.

Sea $E$ el evento de que $X_0$ sea el mayor de estos, es decir, $X_0 > \max(X_1, \dots, X_n)$. Quiero calcular o estimar $\Pr[E]$. Estoy buscando una expresión para $\Pr[E]$, como una función de $\mu, n$, o una estimación razonable o aproximación para $\Pr[E].

En mi aplicación, $n$ está fijo ($n=61$) y quiero encontrar el valor más pequeño para $\mu$ que haga que $\Pr[E] \ge 0.99$, pero también me interesa la pregunta general.

0 votos

¿Qué tan grande es $n$? Debería haber algunas buenas expresiones asintóticas basadas en la teoría de muestras grandes.

0 votos

@whuber, ¡gracias! Edite la pregunta: en mi caso $n=61$. Incluso si $n=61$ no es lo suficientemente grande como para considerarlo grande, si hay buenas estimaciones asintóticas en el caso en el que $n$ es grande, eso sería interesante.

6 votos

Utilizando la integración numérica, $\mu \approx 4.91912496$.

19voto

Dilip Sarwate Puntos 16161

El cálculo de estas probabilidades ha sido estudiado extensamente por ingenieros de comunicaciones bajo el nombre de $M$-señalización ortogonal, donde el modelo es que una de las $M$ señales ortogonales con la misma energía y probabilidad de transmisión está siendo transmitida y el receptor intenta decidir cuál fue transmitida examinando las salidas de $M$ filtros complementarios a las señales. Condicionado a la identidad de la señal transmitida, las salidas de muestra de los filtros complementarios son variables aleatorias normales con varianza unitaria (condicionalmente) independientes. La salida de muestra del filtro complementario a la señal transmitida es una variable aleatoria $N(\mu,1)$, mientras que las salidas de todos los otros filtros son variables aleatorias $N(0,1)$.

La probabilidad condicional de una decisión correcta (que en el contexto actual es el evento $C = \{X_0 > \max_i X_i\}$) condicionada a $X_0 = \alpha$ es $$P(C \mid X_0 = \alpha) = \prod_{i=1}^n P\{X_i < \alpha \mid X_0 = \alpha\} = \left[\Phi(\alpha)\right]^n$$ donde $\Phi(\cdot)$ es la distribución de probabilidad acumulada de una variable aleatoria normal estándar, y por lo tanto, la probabilidad incondicional es $$P(C) = \int_{-\infty}^{\infty}P(C \mid X_0 = \alpha) \phi(\alpha-\mu)\,\mathrm d\alpha = \int_{-\infty}^{\infty}\left[\Phi(\alpha)\right]^n \phi(\alpha-\mu)\,\mathrm d\alpha$$ donde $\phi(\cdot)$ es la función de densidad normal estándar. No hay una expresión en forma cerrada para el valor de esta integral, la cual debe ser evaluada numéricamente.

Los ingenieros también están interesados en el evento complementario - que la decisión es incorrecta - pero no les gusta calcular esto como $$P\{X_0 < \max_i X_i\} = P(E) = 1-P(C)$$ porque esto requiere una evaluación muy cuidadosa de la integral para $P(C)$ con una precisión de muchos dígitos significativos, y tal evaluación es tanto difícil como consume mucho tiempo. En su lugar, la integral para $1-P(C)$ puede ser integrada por partes para obtener $$P\{X_0 < \max_i X_i\} = \int_{-\infty}^{\infty} n \left[\Phi(\alpha)\right]^{n-1}\phi(\alpha) \Phi(\alpha - \mu)\,\mathrm d\alpha.$$ Esta integral es más fácil de evaluar numéricamente, y su valor como función de $\mu$ se grafica y se tabula (aunque desafortunadamente solo para $n \leq 20$) en el Capítulo 5 de Telecommunication Systems Engineering por Lindsey y Simon, Prentice-Hall 1973, Dover Press 1991.

Alternativamente, los ingenieros utilizan el límite de la unión o la desigualdad de Bonferroni $$\begin{align*} P\{X_0 < \max_i X_i\} &= P\left\{(X_0 < X_1)\cup (X_0 < X_2) \cup \cdots \cup (X_0 < X_n)\right\}\\ &\leq \sum_{i=1}^{n}P\{X_0 < X_i\}\\ &= nQ\left(\frac{\mu}{\sqrt{2}}\right) \end{align*}$$ donde $Q(x) = 1-\Phi(x)$ es la función de distribución normal complementaria acumulativa.

Del límite de la unión, vemos que el valor deseado $0.01$ para $P\{X_0 < \max_i X_i\}$ está acotado por arriba por $60\cdot Q(\mu/\sqrt{2})$, que tiene un valor de $0.01$ en $\mu = 5.09\ldots$. Esto es ligeramente más grande que el valor más exacto de $\mu = 4.919\ldots$ obtenido por @whuber mediante integración numérica.

Más discusión y detalles sobre la señalización ortogonal $M$-aria se pueden encontrar en las páginas 161-179 de mis apuntes de clase para un curso sobre sistemas de comunicación.

6voto

michael kevin Puntos 9

Una respuesta formal:

La distribución de probabilidad (densidad) para el máximo de $N$ variables i.i.d. es: $p_N(x)= N p(x) \Phi^{N-1}(x)$ donde $p$ es la densidad de probabilidad y $\Phi$ es la función de distribución acumulativa.

A partir de esto, puedes calcular la probabilidad de que $X_0$ sea mayor que las $N-1$ demás a través de $ P(E) = (N-1) \int_{-\infty}^{\infty} \int_y^{\infty} p(x_0) p(y) \Phi^{N-2}(y) dx_0 dy$

Puede que necesites investigar varias aproximaciones para poder tratar esto de manera manejable para tu aplicación específica.

9 votos

+1 De hecho, la doble integral se simplifica en una integral simple ya que $$\int_y^\infty p(x_0)\,\mathrm dx_0 = 1 - \Phi(y-\mu)$$ lo que da $$P(E) = 1 - (N-1)\int_{-\infty}^\infty \Phi^{N-2}(y)p(y)\Phi(y-\mu)\,\mathrm dy$$ que es lo mismo que en mi respuesta.

1voto

codethulhu Puntos 1678

Tenemos

$$\begin{align} \mathbb{P}(\mathcal{E}) &= \mathbb{P}(\bigcap_{i=1}^n \{X_0 \ge X_i \}) = \mathbb{P}(\bigcap_{i=1}^n \{X_0 -X_i \ge 0 \}) \end{align}$$

Denotemos $Z_i = X_0 - X_i$ para $i = 1,...,n$ entonces el vector $(Z_1,...,Z_n)$ de dimensión $n$ sigue una distribución normal multivariante $\mathcal{N}_n(\Gamma,\Sigma)$ donde $\Gamma \in \mathbb{R}^n$ es el vector de medias y $\Sigma\in \mathbb{R}^{n \times n}$ es la matriz de covarianza. Para determinar $\Gamma$ y $\Sigma$, tenemos $$\Gamma_i=\mathbb{E}(Z_i) =\mu \hspace{1cm} \forall i=1,...,n$$ $$\Sigma_{ij} = \text{Cov}(Z_i,Z_j) = \left\{ \begin{array}{ll} 2 & \mbox{si } i=j \\ 1 & \mbox{si } i\ne j \\ \end{array} \right. \tag{1} $$

Entonces, la probabilidad del evento $\mathcal{E}$ se puede calcular con una expresión en forma cerrada de la siguiente manera

$$\color{red}{\mathbb{P}(\mathcal{E}) = \Phi_n \left(\mathbf{l}, \mathbf{u};\mathbf{0}_n;\Sigma \right)}$$ con

  • $\Phi_n() $ la probabilidad normal multivariante
  • $\mathbf{0}_n \in \mathbb{R}^n$ vector de $0$ (migramos estos $\mu$ al vector inferior $\mathbf{l}$ )
  • $\Sigma$ está definida en $(1)$
  • $\mathbf{l} \in \mathbb{R}^n$ el vector inferior con todos los elementos iguales a $-\mu$
  • $\mathbf{u} \in \mathbb{R}^n$ el vector superior con todos los elementos iguales a $+\infty$

Para el cálculo de $\Phi_n$, Genz es el autor más famoso en el campo del cálculo de $\Phi_n$ que conozco y en casi todos los lenguajes de programación implementan sus algoritmos (por ejemplo, Python, Matlab, R, Fortran, C++)

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X