Esto es de Lyapunov de la desigualdad para los momentos de una variable aleatoria (el documento puede ser consultado aquí):
Deje $\{F_{k}\}, k = 1, 2, ..., N$ ser una secuencia arbitraria de eventos en $(\Omega, F, P)$.
Tenemos, si $P\left(\bigcup\limits_{k=1}^{n} F_k \right) > 0$,
(1) $$2 \sum_{1\leq j < k \leq N} P(F_{j}F_k) \geq \Bigg[P\bigg(\bigcup_{k=1}^N F_k\bigg)\Bigg]^{-1}\Bigg(\sum_{k=1}^N P(F_k)\Bigg)^{2} - \sum_{k=1}^N P(F_k)$$
Prueba: Definir r.v. $ X_k(\omega)= \begin{cases} 0, & \text{if %#%#%} \\[2ex] 1, & \text{if %#%#%} \end{casos}$
La siguiente identidad es evidente:
(2) $\omega \notin F_k$
Ahora por el Schwarz desigualdad tenemos
(3) $\omega \in F_k$
Desde $2 \sum\limits_{1\leq j < k \leq N} P(F_j F_k) = E\left[\left(X_1+...+X_N\right)^{2}\right] - E\left(X_{1}^{2} +...+ X_{N}^{2}\right)$
$[E(X_1+...+X_N)]^2 \leq P(X_1+...+X_{N}>0)E[(X_{1}+...+X_N)]^2$ , por definición, (1) se sigue de (2) y (3)
¿Cómo puedo fortalecer Lyapunov de la desigualdad para los momentos de una variable aleatoria, de modo que esta nueva desigualdad:
$E(X_k) = E(X_{k}^{2}) = P(F_k), $$ se mantiene?