Si $f(x)$ es una función de densidad y $F(x)$ es una función de distribución de una variable aleatoria $X$ entonces entiendo que la expectativa de x se suele escribir como
$$E(X) = \int x f(x) dx$$
donde los límites de integración están implícitos $-\infty$ y $\infty$ . La idea de multiplicar x por la probabilidad de x y sumar tiene sentido en el caso discreto, y es fácil ver cómo se generaliza al caso continuo. Sin embargo, en el libro de Larry Wasserman Todas las estadísticas escribe la expectativa de la siguiente manera:
$$E(X) = \int x dF(x)$$
Supongo que mi cálculo está un poco oxidado, en el sentido de que no estoy muy familiarizado con la idea de integrar sobre funciones de $x$ en lugar de sólo $x$ .
- ¿Qué significa integrar sobre la función de distribución?
- ¿Existe un proceso análogo a la suma repetida en el caso discreto?
- ¿Existe una analogía visual?
ACTUALIZACIÓN: Acabo de encontrar el siguiente extracto del libro de Wasserman (p.47):
La notación $\int x d F(x)$ merece algún comentario. Lo utilizamos simplemente como una conveniente notación unificadora para no tener que escribir $\sum_x x f(x)$ para variables aleatorias discretas y $\int x f(x) dx$ para variables aleatorias continuas, pero hay que tener en cuenta que $\int x d F(x)$ tiene un significado preciso que se discute en un análisis real real.
Por lo tanto, me interesaría cualquier idea que se pueda compartir sobre ¿cuál es el significado preciso que se discutiría en un curso de análisis real?