22 votos

¿Ejemplo de una distribución discreta no negativa en la que no existe la media (u otro momento)?

Estaba haciendo un trabajo en scipy y surgió una conversación con un miembro del grupo principal de scipy sobre si una variable aleatoria discreta no negativa puede tener un momento indefinido. Creo que es correcto pero no tengo una prueba a mano. ¿Puede alguien mostrar/probar esta afirmación? (o si esta afirmación no es cierta refutarla)

No tengo un ejemplo a mano si la variable aleatoria discreta tiene soporte en $\mathbb{Z}$ pero parece que alguna versión discretizada de la distribución de Cauchy debería servir de ejemplo para obtener un momento indefinido. La condición de no negatividad (quizás incluyendo $0$ ) es lo que parece hacer que el problema sea un reto (al menos para mí).

40voto

user3514748 Puntos 6

He aquí un ejemplo famoso: Dejemos que $X$ tomar valor $2^k$ con probabilidad $2^{-k}$ para cada número entero $k\ge1$ . Entonces $X$ toma valores en (un subconjunto de) los enteros positivos; la masa total es $\sum_{k=1}^\infty 2^{-k}=1$ pero su expectativa es $$E(X) = \sum_{k=1}^\infty 2^k P(X=2^k) = \sum_{k=1}^\infty 1 = \infty. $$ Esta variable aleatoria $X$ surge en el La paradoja de San Petersburgo .

7 votos

+1 Me gusta este por sus conexiones históricas y filosóficas.

0 votos

Resolución de la paradoja: Si ganas eres aplastado por las fuerzas G.

17voto

jldugger Puntos 7490

Que la FCD $F$ igual $1-1/n$ en los enteros $n=1,2,\ldots,$ constante a trozos en todas las demás partes, y sujeta a todos los criterios para ser una FCD. La expectativa es

$$\int_{0}^\infty (1-F(x))\mathrm{d}x = 1/2 + 1/3 + 1/4 + \cdots$$

que diverge. En este sentido el primer momento (y por tanto todos los momentos superiores) es infinito. (Véanse los comentarios al final para más detalles).


Si se siente incómodo con esta notación, tenga en cuenta que para $n=1,2,3,\ldots,$

$${\Pr}_{F}(n) = \frac{1}{n} - \frac{1}{n+1.}$$

Esto define una distribución de probabilidad ya que cada término es positivo y $$\sum_{n=1}^\infty {\Pr}_{F}(n) = \sum_{n=1}^\infty \left(\frac{1}{n} - \frac{1}{n+1}\right) = \lim_{n\to \infty} 1 - \frac{1}{n+1} = 1.$$

La expectativa es

$$\sum_{n=1}^\infty n\,{\Pr}_{F}(n) = \sum_{n=1}^\infty n\left(\frac{1}{n} - \frac{1}{n+1}\right) =\sum_{n=1}^\infty \frac{1}{n+1} = 1/2 + 1/3 + 1/4 + \cdots$$

que diverge.

Esta forma de expresar la respuesta deja claro que todo las soluciones se obtienen mediante dichas series divergentes. En efecto, si se desea que la distribución se apoye en algún subconjunto de los valores positivos $x_1, x_2, \ldots, x_n, \ldots,$ con probabilidades $p_1, p_2, \ldots$ sumando a la unidad, entonces para que la expectativa diverja la serie que la expresa, a saber

$$(a_n) = (x_n p_n),$$

debe tener sumas parciales divergentes.

A la inversa, toda serie divergente $(a_n)$ de los números no negativos se asocia con muchas distribuciones positivas discretas que tienen una expectativa divergente. Por ejemplo, dado $(a_n)$ se podría aplicar el siguiente algoritmo para determinar las secuencias $(x_n)$ y $(p_n)$ . Comience por fijar $q_n = 2^{-n}$ y $y_n = 2^n a_n$ para $n=1, 2, \ldots.$ Definir $\Omega$ para ser el conjunto de todos los $y_n$ que surgen de esta manera, indexa sus elementos como $\Omega=\{\omega_1, \omega_2, \ldots, \omega_i, \ldots\},$ y definir una distribución de probabilidad en $\Omega$ por

$$\Pr(\omega_i) = \sum_{n \mid y_n = \omega_i}q_n.$$

Esto funciona porque la suma de los $p_n$ es igual a la suma de los $q_n,$ que es $1,$ y $\Omega$ tiene como máximo un número contable de elementos positivos.

Como ejemplo, la serie $(a_n) = (1, 1/2, 1, 1/2, \ldots)$ obviamente diverge. El algoritmo da

$$y_1 = 2a_1 = 2;\ y_2 = 2^2 a_2 = 2;\ y_3 = 2^3 a_3 = 8; \ldots$$

Así, $$\Omega = \{2, 8, 32, 128, \ldots, 2^{2n+1},\ldots\}$$

es el conjunto de potencias positivas Impares de $2$ y $$p_1 = q_1 + q_2 = 3/4;\ p_2 = q_3 + q_4 = 3/16;\ p_3 = q_5 + q_6 = 3/64; \ldots$$


Sobre los momentos infinitos e inexistentes

Cuando todos los valores son positivos, no existe un momento "indefinido": todos los momentos existen, pero pueden ser infinitos en el sentido de una suma (o integral) divergente, como se muestra al principio de esta respuesta.

Generalmente, todos los momentos se definen para variables aleatorias positivas, porque la suma o integral que los expresa o bien converge absolutamente o bien diverge (es "infinita"). indefinido para variables que toman valores positivos y negativos, porque -por definición de la integral de Lebesgue- el momento es la diferencia entre un momento de la parte positiva y un momento del valor absoluto de la parte negativa. Si ambos son infinitos, la convergencia no es absoluta y te enfrentas al problema de restar un infinito a un infinito: eso no existe.

0 votos

¿este argumento da un ejemplo de un momento infinito o de un momento indefinido? Estoy buscando un momento indefinido. Tal vez hay una sutileza de los momentos indefinidos frente a los infinitos que me estoy perdiendo para entender completamente su respuesta.

2 votos

Cuando todos los valores son positivos, no existe un momento "indefinido": todos los momentos existen, pero pueden ser infinitos.

0 votos

Ahora veo que escribí "no existe" es el título de la pregunta que se interpreta como momento infinito. En realidad me interesaba el momento indefinido, como indica el texto del post donde escribí: "momento indefinido." en la segunda línea.

9voto

AdamSane Puntos 1825
  1. El distribución zeta es una distribución discreta bastante conocida en los enteros positivos que no tiene media finita (para $1<\theta\leq 2$ ) .

    $P(X=x|\theta)={{\frac {1}{\zeta (\theta)}}x^{-\theta}}\,,\: x=1,2,...,\:\theta>1$

    donde la constante de normalización implica $\zeta(\cdot)$ El Función zeta de Riemann

    (edición: El caso $\theta=2$ es muy similar a la respuesta de whuber)

    Otra distribución con un comportamiento de cola similar es la Yule-Simon distribución.

  2. Otro ejemplo sería el binomio beta-negativo distribución con $0<\alpha\leq 1$ :

    $P(X=x|\alpha ,\beta ,r)={\frac {\Gamma (r+x)}{x!\;\Gamma (r)}}{\frac {\mathrm{B} (\alpha +r,\beta +x)}{\mathrm{B} (\alpha ,\beta )}}\,,\:x=0,1,2...\:\alpha,\beta,r > 0$

0voto

jgradim Puntos 1143

alguna versión discretizada de la distribución de Cauchy

Sí, si tomas $p(n)$ como el valor medio de la distribución de Cauchy en el intervalo alrededor de $n$ entonces es evidente que su momento zeroth es el mismo que el de la distribución de Cauchy, y su primer momento se aproxima asintóticamente al primer momento de la distribución de Cauchy. En cuanto al "intervalo alrededor de $n$ ", no importa realmente cómo lo defina; tome $(n-1,n]$ , $[n,n+1)$ , $[n-.5,n+.5)$ , vel cetera y funcionará. Para los enteros positivos, también se puede tomar $p(n) =\frac6{(n\pi)^2}$ . El momento zeroth suma a uno, y el primer momento es la suma de $\frac6{n\pi^2}$ que es divergente.

Y de hecho para cualquier polinomio $p(n)$ Hay un poco de $c$ tal que $\frac c {p(n)}$ es igual a 1. Si tomamos entonces el $k$ momento, donde $k$ es el orden de $p(n)$ que divergirá.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X