El ex integral es una integral de Stieltjes. Vemos esto, por ejemplo, en particular, la sección "Aplicación de la teoría de la probabilidad".
En breve, la integral de la $I_1 = \int {xdF(x)} $ es una generalización de $I_2 = \int {xf(x)dx} $. $I_2$ puede ser usado sólo cuando la distribución es absolutamente continua, es decir, tiene una función de densidad de probabilidad. $I_1$ puede ser utilizado para cualquier distribución, incluso si es discreta o continua singular (siempre que la expectativa está bien definido, que es $\int {|x|dF(x)} < \infty $). Tenga en cuenta que si $F'(x) = f(x)$, $\frac{d}{{dx}}F(x) = f(x)$ da lugar a $dF(x) = f(x)dx$.
Para un completo relato de este tema, véase, por ejemplo, este.
EDITAR:
Un ejemplo de ello. Suponga que una variable aleatoria $X$ ha CDF $F$ tal que $F'(x) = f_1 (x)$ $x < a$, $F'(x) = f_2 (x)$ para $x > a$, e $F(a) - F(a-) = p$ donde $f_1$ $f_2$ son no negativos funciones continuas, y $0 < p \leq 1$. Tenga en cuenta que $F$ es diferenciable en todas partes excepto en$x=a$, donde tiene una discontinuidad de salto de tamaño $p$. En particular, $X$ no tiene un PDF $f$, por lo tanto, usted no puede calcular ${\rm E}(X)$ integral $I_2$. Sin embargo, ${\rm E}(X)$ puede ser calculada de la siguiente manera:
$$
{\rm E}(X) = \int_{ - \infty }^\infty {xdF(x)} = \int_{ - \infty } ^{xf_1 (x)dx} + [F(a) - F(a - )] + \int_a^\infty {xf_2 (x)dx} .
$$
En el caso de $f_1$ $f_2$ es idéntica a cero y, por lo tanto, $p=1$, esto le da
$$
{\rm E}(X) = \int_{ - \infty }^\infty {xdF(x)} = [F(a) - F(a - )] = a,
$$
cual es evidente desde $X$ $\delta_a$ distribución (es decir, ${\rm P}(X=a)=1$).
Ejercicio 1. Supongamos que $X$ toma un número finito de valores de $x_1,\ldots,x_n$, con probabilidades de $p_1,\ldots,p_n$, respectivamente. A la conclusión de que ${\rm E}(X) = \int_{ - \infty }^\infty {xdF(x)} = \sum\nolimits_{k = 1}^n {x_k p_k } $.
Ejercicio 2. Supongamos que con una probabilidad de $0 < p < 1$ una variable aleatoria $X$ toma el valor de $a$, y con una probabilidad de $1-p$ es uniforme$[0,1]$. Encontrar el CDF $F$$X$, y calcular la expectativa (tenga en cuenta que $X$ no es ni discretas ni variable aleatoria continua).
Nota: La integral de la $I_1$ es, por supuesto, un caso especial de $\int {h(x)dF(x)} $ (es decir, para $h$ una función continua). En particular, dejando $h=1$, $\int {dF(x)} = 1$ (que es una generalización de $\int {f(x)dx} = 1$).
EDIT: para Más detalles.
Tenga en cuenta que si $h$ es continuo,${\rm E}[h(X)]$, si existe, está dada por
$$
{\rm E}[h(X)] = \int {h(x)dF(x)}.
$$
En particular, si el $n$-ésimo momento existe, está dada por
$$
{\rm E}[X^n] = \int {x^n dF(x)}.
$$
En principio, los límites del intervalo de integración de$-\infty$$\infty$. En este contexto, considere el siguiente ejemplo importante. Supongamos que $X$ es cualquier variable aleatoria no negativa. Entonces su transformada de Laplace es
$$
{\rm E}[e^{ - sX} ] = \int {e^{ - sx} dF(x)} = \int_{ 0^- }^\infty {e^{ - sx} dF(x)}, \;\; s \geq 0,
$$
donde $0^-$ puede ser sustituido por $-\varepsilon$ cualquier $\varepsilon > 0$. Mientras que el $n$-ésimo momento de la (no negativo) $X$ es dado, para cualquier $n \geq 1$, por
$$
{\rm E}[X^n] = \int_{ 0^- }^\infty {x^n dF(x)} = \int_0^\infty {x^n dF(x)},
$$
no es cierto en general que también
$$
{\rm E}[e^{ - sX} ] = \int_{0 }^\infty {e^{ - sx} dF(x)}.
$$
De hecho, siguiendo la definición de la integral,
$$
{\rm E}[e^{ - sX} ] = \int_{ 0^- }^\infty {e^{ - sx} dF(x)} = e^{-s0}[F(0)-F(0-)] + \int_{ 0 }^\infty {e^{ - sx} dF(x)},
$$
de ahí el salto de $F$ a cero debe ser añadido (si es positivo, por supuesto). En el $n$-ésimo momento en caso de que, por otro lado, el término correspondiente es $0^n[F(0)-F(0-)] = 0$, por lo tanto, un salto de $F$ a cero no afecta el general integral.