Quiero estimar la probabilidad$Pr(X \leq a)$, donde$X$ es una variable aleatoria continua y$a$ se da, sólo se basa en algunos momentos de$X$ (por ejemplo, los cuatro primeros momentos, pero sin conocer su tipo de distribución).
Respuestas
¿Demasiados anuncios?Toda la secuencia de momentos de una variable aleatoria $m_k = \mathbb{E}(X^k)$ determina la función de distribución de $X$ excepcionalmente, siempre que $\sum_{k=0}^\infty \frac{m_k}{k!} t^k$ converge para todos los $t$ en un abrir barrio de $t=0$. Ver esto.
Si usted tiene dos de estas secuencias, que coinciden hasta el fin de $r$, pero se diferencian posteriormente, estas secuencias corresponden a diferentes distribuciones.
Sin embargo, usted puede pedir a la aproximación de la función de distribución de $F_X(x) = \mathbb{P}(X \leq x)$ a los valores de los bajos momentos de orden, si algunos de los supuestos sobre la naturaleza de la distribución se hace. Ver método de los momentos de estimación, por ejemplo.
El conocimiento de los momentos, determina un límite superior en la cola de la función de distribución. Ver Chernoff obligado, y la desigualdad de Chebyshev.
Usted también puede encontrar Pearson distribución, determinado por los 4 primeros momentos, útil
Deje que los cuatro primeros momentos se $E(X^j) = m_j$, $j=1\ldots 4$. Supongamos $g(x)$ es un polinomio de grado $d$, de modo que $g(x) \ge I_{x \le a}$, es decir, $g(x) \ge 1$ $x \le a$ $g(x) \ge 0$ para todos los verdaderos $x$. A continuación, para cualquier variable aleatoria $X$ tal que $E[X^d]$ existe $P(X \le a) = E[I_{X \le a}] \le E[g(X)]$, e $E[g(X)]$ puede ser calculado usando la primera $d$ momentos de $X$, es decir, si $g(x) = \sum_{j=0}^d c_j x^j$, $E[g(X)] = c_0 + \sum_{j=1}^d c_j E[X^j]$. Por otra parte, supongamos $g(x) = I_{x\le a}$ en algunos puntos. A continuación, este límite superior es óptima en el sentido de que proporciona el valor exacto de $P(X \le a)$ para cualquier distribución de probabilidad concentrada en esos puntos. En el caso de $d=4$, para cualquier $b_1$$b_2$$b_1 < a < b_2$, existe un único polinomio $g(x)$ de grado 4 con $g(b_1) = g(a) = 1$, $g'(b_1) = g(b_2) = g'(b_2) = 0$; este va a satisfacer $g(x) \ge I_{x \le a}$, y el correspondiente presupuesto es ajustado para las distribuciones concentrado en $\{b_1, a, b_2\}$. Por ejemplo, con $b_1 = -1$, $a=0$ y $b_2 = 1$, $g(x) = \frac{x^4}{2} + \frac{x^3}{4} - x^2 - \frac{3x}{4} + 1$, que conduce a la estimación de $P(X \le 0) \le \frac{1}{2} E[X^4] + \frac{1}{3} E[X^3] - E[X^2] - \frac{3}{4} E[X] + 1$.
Esta será una respuesta incompleta, basada en las cosas que yo pensaba acerca de hace varios años, y no recuerdo todos los detalles. El primer $n$ momentos de determinar el primer $n$ cumulants y vice-versa. Dada la cumulants hasta la ($2n-1$)th uno, hay una restricción en el conjunto de valores posibles de la $2n$th cumulant, diciendo que se es $\ge$ a un determinado número. Si es menor que el número, entonces no hay ninguna distribución de probabilidad con la que la secuencia de la primera $2n$ cumulants; de lo contrario hay uno. Y, justo en el límite, es una distribución discreta que puede tomar sólo un número finito de valores posibles. Y creo que cada distribución con finito de apoyo se dio cuenta en ese camino. Pedro McCullagh del libro Tensor de los Métodos de la Estadística tiene un poco de material sobre esto. Si yo quería trabajar desde cero en la respuesta a la pregunta original de arriba, que es donde me gustaría empezar a pensar en ello. Lo que probablemente querría como respuesta a las desigualdades que $\Pr(X\le a)$ tendría que satisfacer.
Si la distribución se apoya en una no-necesariamente subconjunto de $[0,1]$, luego (si no recuerdo mal) la forma en que los valores de la función de distribución acumulativa dependen de la secuencia de todos los momentos es explícitamente trabajado en algún lugar de Feller del famoso libro. Tal vez voy a encontrar.....