Me he encontrado con un problema simple de la probabilidad en el que no se esperaba encontrar convergencia condicional al acecho alrededor, pero no lo es. Así que me pregunto:
- Es un punto de vista acerca de la probabilidad de ser atraído por el hecho de que el infinito menos infinito aparece aquí?
- En particular, los dos términos independientes que evalúan el infinito tiene algunos probabilística de la interpretación?
- Es cualquier conocimiento acerca de análisis o cualquier otra cosa que se pueden encontrar aquí?
- En general ¿en qué situaciones se hace una escritura $\displaystyle \int_{x\,:=\,0}^{x\,:=\,1} u\,dv = \Big[ uv \Big]_{x\,:=\,0}^{x\,:=\,1} - \int_{x\,:=\,0}^{x\,:=\,1} v\,du$ y encontrar que los dos últimos términos son tanto infinito, incluso aunque la primera de ellas converge absolutamente?
- En particular, son las instancias de este particularmente notable o vale la pena conocer?
Los problemas de probabilidad
Supongamos $X_1,\ldots,X_6$ son variables aleatorias independientes, cada una teniendo la misma distribución exponencial con el valor esperado $\mu,$, de modo que $$ \Pr( X_1 > x) = e^{-x/\mu} \quad\text{para } x\ge0. $$ Se desea encontrar este valor esperado $$ \operatorname E(\max\{\,X_1,\ldots,X_6\,\}) = \mu\left( 1 + \frac 1 2 + \frac 13 + \frac 1 4 + \frac 1 5 + \frac 1 6 \right) = 2.45\mu. \tag 1 $$ Uno bastante habitual manera de mostrar esto va como esto: $$ \Pr\min\{\,X_1,\ldots,X_6\,\} > x) = \big( \Pr(X_1>x) \big)^6 = e^{-6x/\mu}\quad \text{para }x\ge0, $$ y por lo tanto $$ \operatorname E(\min) = \frac \mu 6. $$ Deje $X_{(1)}, \ldots, X_{(6)}$ ser el orden de las estadísticas, es decir, $X_1,\ldots,X_6$ ordenados en orden creciente. Entonces tenemos $$ \operatorname E(X_{(1)}) = \frac \mu 6, \quad\text{y } \operatorname E(X_{(2)} - X_{(1)}) = \frac \mu 5 $$ debido a que la diferencia es el mínimo de cinco exponencialmente distribuido variables aleatorias. Y así sucesivamente hasta el último.
No hay convergencia condicional aparece arriba.
Pero supongamos que en lugar de eso nos acaba de reducir a la evaluación de una integral.
\begin{align} & \Pr(\max \le x) = \Pr(X_{(6)} \le x) = \Pr( \text{all of }X_1,\ldots,X_6 \text{ are} \le x) = \left( 1 - e^{-x/\mu} \right)^6 \text{ for } x\ge0. \\[10pt] & \text{Hence for measurable sets %#%#% we have } \Pr(\max\in A) = \int_A f(x)\, dx \\[10pt] & \text{where } f(x) = \frac d {dx} \left( 1 - e^{-x/\mu} \right)^6 = 6\left( 1- e^{-x/\mu} \right)^5 ( e^{-x/\mu}) \frac 1 \mu. \end{align}
Así que aquí está nuestra integral: $$ \operatorname E(\max) = \int_0^\infty xf(x)\, dx. $$ Ninguna sugerencia de convergencia condicional, ¿verdad?
\begin{align} \operatorname E(\max) = \int_0^\infty xf(x)\, dx & = \int_0^\infty x 6\left( 1- e^{-x/\mu} \right)^5 ( e^{-x/\mu}) \, \frac {dx} \mu \\[10pt] & = \mu \int_0^\infty s 6( 1-e^{-s})^5 e^{-s} \, ds \\[10pt] & = \mu \int s\, dt = \mu st - \mu\int t\,ds \\[10pt] & = \mu s(1-e^{-u})^6 - \mu \int (1-e^{-s})^6 \, ds. \end{align} Ahora una substitución: \begin{align} r & = 1-e^{-s} \\[6pt] s & = -\log(1-r) \\[6pt] ds & = \frac{dr}{1-r} \end{align} Nuestros integral se convierte en \begin{align} & \mu ( - r^6 \log(1-r) ) - \mu \int \frac{r^6}{1-r} \, dr \\[10pt] = {} & \mu ( - r^6 \log(1-r) ) - \mu \int \left( -r^5 - r^4 - r^3 - r^2 - r - 1 + \frac 1 {1-r} \right) \, dr \end{align} Ahora la tentación es escribir $$ \requieren{cancel} \xcancel{\left[ \mu \left( -r^6 \log_e(1-r) \right) \vphantom{\frac11} \right]_0^1} - \xcancel{\mu \int_0^1 \left( -r^5-r^4-r^3-r^2 - r -1 + \frac 1 {1-r} \right) \, dr }. $$ El problema es que este es infinito menos infinito, por lo que hemos de convergencia condicional. Así que supongo que se escribe así: \begin{align} & \left[ \mu \left( -r^6 \log(1-r) \right) - \mu \int \left( -r^5-r^4-r^3-r^2 - r -1 + \frac 1 {1-r} \right) \, dr \right]_0^1 \\ & \text{(The above is not standard notation, as far as I know.)} \\[10pt] = {} & \mu \left[ (1-r^6) \log_e (1-r) + \left( \frac{r^6} 6 + \frac{r^5} 5 + \frac{r^4} 4 + \frac {r^3} 3 + \frac{r^2} 2 + r \right) \right]_0^1 \end{align} Después de usar la regla de L'Hospital para evaluar el primer término, esto termina siendo lo que vemos en $A\subseteq[0,+\infty)$
Tal vez voy a publicar mi propia respuesta si estoy muy inspirado, pero otras respuestas pueden proporcionar valiosos puntos de vista alternativos. (No tengo una respuesta para publicar todavía.)
Posdata:
Donde he visto algo similar antes, en un intento de demostrar que si $(1).$ $\Pr(X\ge0) = 1$ es la p.d.f. y $f$ c.d.f. de $F$, luego
$X$$
Si usted escribe
$$ \int_0^\infty xf(x)\, dx = \int_0^\infty (1-F(x))\,dx. $$
luego de obtener el infinito menos infinito. Pero usted puede hacer esto:
\begin{align} & \int_0^\infty xf(x)\, dx = \int_0^\infty \left( \int_0^x f(x)\,du \right) \, dx \\[10pt] = {} & \int_0^\infty \left( \int_u^\infty f(x) \,dx\right) \, du \\[10pt] = {} & \int_0^\infty (1-F(x))\,dx. \end{align}
Tonelli del teorema es aplicable ya que la función está integrada en todas partes es no negativo, por lo que se justifica el cambio en el orden de integración.