El cálculo de estas probabilidades ha sido estudiado extensamente por ingenieros de comunicaciones bajo el nombre de $M$-señalización ortogonal, donde el modelo es que una de las $M$ señales ortogonales con la misma energía y probabilidad de transmisión está siendo transmitida y el receptor intenta decidir cuál fue transmitida examinando las salidas de $M$ filtros complementarios a las señales. Condicionado a la identidad de la señal transmitida, las salidas de muestra de los filtros complementarios son variables aleatorias normales con varianza unitaria (condicionalmente) independientes. La salida de muestra del filtro complementario a la señal transmitida es una variable aleatoria $N(\mu,1)$, mientras que las salidas de todos los otros filtros son variables aleatorias $N(0,1)$.
La probabilidad condicional de una decisión correcta (que en el contexto actual es el evento $C = \{X_0 > \max_i X_i\}$) condicionada a $X_0 = \alpha$ es $$P(C \mid X_0 = \alpha) = \prod_{i=1}^n P\{X_i < \alpha \mid X_0 = \alpha\} = \left[\Phi(\alpha)\right]^n$$ donde $\Phi(\cdot)$ es la distribución de probabilidad acumulada de una variable aleatoria normal estándar, y por lo tanto, la probabilidad incondicional es $$P(C) = \int_{-\infty}^{\infty}P(C \mid X_0 = \alpha) \phi(\alpha-\mu)\,\mathrm d\alpha = \int_{-\infty}^{\infty}\left[\Phi(\alpha)\right]^n \phi(\alpha-\mu)\,\mathrm d\alpha$$ donde $\phi(\cdot)$ es la función de densidad normal estándar. No hay una expresión en forma cerrada para el valor de esta integral, la cual debe ser evaluada numéricamente.
Los ingenieros también están interesados en el evento complementario - que la decisión es incorrecta - pero no les gusta calcular esto como $$P\{X_0 < \max_i X_i\} = P(E) = 1-P(C)$$ porque esto requiere una evaluación muy cuidadosa de la integral para $P(C)$ con una precisión de muchos dígitos significativos, y tal evaluación es tanto difícil como consume mucho tiempo. En su lugar, la integral para $1-P(C)$ puede ser integrada por partes para obtener $$P\{X_0 < \max_i X_i\} = \int_{-\infty}^{\infty} n \left[\Phi(\alpha)\right]^{n-1}\phi(\alpha) \Phi(\alpha - \mu)\,\mathrm d\alpha.$$ Esta integral es más fácil de evaluar numéricamente, y su valor como función de $\mu$ se grafica y se tabula (aunque desafortunadamente solo para $n \leq 20$) en el Capítulo 5 de Telecommunication Systems Engineering por Lindsey y Simon, Prentice-Hall 1973, Dover Press 1991.
Alternativamente, los ingenieros utilizan el límite de la unión o la desigualdad de Bonferroni $$\begin{align*} P\{X_0 < \max_i X_i\} &= P\left\{(X_0 < X_1)\cup (X_0 < X_2) \cup \cdots \cup (X_0 < X_n)\right\}\\ &\leq \sum_{i=1}^{n}P\{X_0 < X_i\}\\ &= nQ\left(\frac{\mu}{\sqrt{2}}\right) \end{align*}$$ donde $Q(x) = 1-\Phi(x)$ es la función de distribución normal complementaria acumulativa.
Del límite de la unión, vemos que el valor deseado $0.01$ para $P\{X_0 < \max_i X_i\}$ está acotado por arriba por $60\cdot Q(\mu/\sqrt{2})$, que tiene un valor de $0.01$ en $\mu = 5.09\ldots$. Esto es ligeramente más grande que el valor más exacto de $\mu = 4.919\ldots$ obtenido por @whuber mediante integración numérica.
Más discusión y detalles sobre la señalización ortogonal $M$-aria se pueden encontrar en las páginas 161-179 de mis apuntes de clase para un curso sobre sistemas de comunicación.
0 votos
¿Qué tan grande es $n$? Debería haber algunas buenas expresiones asintóticas basadas en la teoría de muestras grandes.
0 votos
@whuber, ¡gracias! Edite la pregunta: en mi caso $n=61$. Incluso si $n=61$ no es lo suficientemente grande como para considerarlo grande, si hay buenas estimaciones asintóticas en el caso en el que $n$ es grande, eso sería interesante.
6 votos
Utilizando la integración numérica, $\mu \approx 4.91912496$.