2 votos

Funciones generadoras de probabilidad: ¿Cómo utilizarlas?

Para una variable discreta $X$ que toma valores enteros no negativos $\{0,1,2,\ldots\}$ la función generadora de probabilidad se define como

$$G(s) = \sum_{k=0}^\infty P(X=k) s^k$$

Es fácil demostrar que el $n^{th}$ derivada a la unidad da

$$G^{n}(1) = E[X(X-1)(X-2)\cdots(X-k+1)]$$

Es posible calcular, por ejemplo, la expectativa de $X$ utilizando $G'(1)$ y la varianza mediante combinaciones lineales de $G''(1)$ y $G'(1)$ etc.

Pero no es inmediatamente obvio cómo interpretar $E[X(X-1)(X-2)\cdots(X-k+1)]$ sin reformularlas de forma complicada para expresar los momentos de la distribución. ¿Tiene $E[X(X-1)(X-2)\cdots(X-k+1)]$ ¿tienen una interpretación natural?

6voto

Estas cantidades que has observado se llaman momentos factoriales llamado así por el factorial descendente $(n)_k \equiv n(n-1)\cdots(n-k+1)$ . La interpretación del factorial descendente es que $(n)_k$ da el número de formas de crear un $k$ -permutación---elemento de $\mathcal{S}_n$ donde $k$ los elementos no son estacionarios--en un conjunto que contiene $n$ elementos. Usando esta interpretación, vemos que, usando su notación, $G^{(n)}(1) = E[(X)_n]$ es el número esperado de $n$ -permutaciones en un conjunto que contiene un número aleatorio $X \sim p(X)$ de elementos.

Para responder a tu pregunta (o, supongo, a su título) de forma más general, las funciones generadoras de probabilidad son increíblemente útiles. Consideremos la función $$ G(z) = \sum_{n \geq 0} p_n z^n $$ como función analítica de $z \in \mathbb{C}$ La propiedad que has observado más arriba es ciertamente cierta ¡y ahora ya sabes cómo interpretarla! Aquí hay dos maneras fáciles de convertir estos momentos factoriales en momentos regulares $E[X^n]$ .

En primer lugar, existe una bonita fórmula que relaciona $n$ -permutaciones para contar el número de formas distintas de particionar un $n$ -conjunto de elementos. Obsérvese que $X^n$ es el número de funciones que pasan de $A_n$ , un conjunto con $n$ elementos, en $B_X$ un conjunto con $X$ elementos, donde aquí $X \sim p(x)$ de nuevo. Ahora partición $A_n$ de alguna manera en $k$ particiones disjuntas, no vacías, y requieren que una función restringida a cada partición mapee en $B_X$ sea inyectiva. Pues bien, el número de funciones inyectivas sobre una partición de $A_n$ con $k$ elementos en $B_X$ viene dada por $(X)_k$ de arriba, por lo que podemos escribir $$ X^n = \sum_{k=0}^n a_{n,k} (X)_k, $$ donde los números $a_{n,k} \equiv \text{number of distinct partitions of a set with $ n $ elements}$ se denominan Números esterlinos del segundo tipo y se denotan $a_{n,k} \equiv {n\brace k}$ . Entonces, tomando las expectativas, la relación combinatoria anterior se convierte en $$ \begin{aligned} E[X^n]&= E\left[ \sum_{k=0}^n {n\brace k}(X)_k \right]\\ &=\sum_{k=0}^n {n\brace k}E[(X)_k], \end{aligned} $$ una forma de calcular los momentos ordinarios

Esto es genial si te gusta la combinatoria. Personalmente, no soy un gran aficionado, así que aquí hay otra cosa a tener en cuenta. Consideremos la función $G(z)$ definida anteriormente como una función analítica---puesto que es infinitamente (compleja) diferenciable, veamos qué ocurre cuando operamos sobre ella con el operador $\theta(z) \equiv z \frac{d}{dz}$ : $$ \begin{aligned} \theta(z)G(z) &= z \frac{d}{dz}\sum_{n \geq 0} p_n z^n\\ &= z \sum_{n \geq 1}np_n z^{n-1} = \sum_{n \geq 1}n p_n z^n, \end{aligned} $$ para que $\theta(z)G(z)\big|_{z = 1} = E[X]$ . ¡Qué interesante! Pronto te demostrarás a ti mismo que $E[X^n] = \theta^n(z)G(z)\big|_{z=1}$ que es muy útil.

Hay muchas más propiedades que podría compartir con ustedes, pero les mostraré sólo dos más. La primera es una propiedad general de las transformaciones multiplicativas del espacio de frecuencias, de las que la función generadora de probabilidad es un ejemplo. Supongamos que $X_1,...X_k,...,X_N$ son rvs independientes con funciones generadoras respectivas $G_k$ . ¿Cuál es la función generadora de $X = \sum X_k$ ? Bueno, sólo hay que tener en cuenta que $G_k(z) = \sum p^{(k)}_n z^n = E[z^{X_k}]$ por definición, de modo que podemos escribir $$ \begin{aligned} G_X(z) &= E\left[ z^X \right]\\ &= E\left[z^{\sum X_k}\right]\\ &= E\left[ \prod z^{X_k}\right]\\ &= \sum_{n_1,...,n_N} \left[ \prod_k p^{(k)}_{n_k}z^{n_k} \right]\\ &= \prod_k \left[ \sum_{n_k}p^{(k)}_{n_k}z^{n_k}\right]\\ &= \prod_k G_k(z), \end{aligned} $$ donde podemos saltar de sumas a productos (de distribuciones conjuntas a factorización) por el supuesto de independencia. Puedes sustituir los detalles y replicar esta demostración para la transformada de Laplace (función generadora de momentos) y la transformada de Fourier (función característica) si quieres.

Lo último que hay que decirles es que, cuando consideramos $G$ como función analítica, hay muchas técnicas bonitas del análisis complejo que nos permiten calcular expectativas. Supongamos que sabemos $G$ existe y es analítica en una región alrededor de $z^* \in \mathbb{C}$ . Entonces la fórmula integral de Cauchy dice que $$ \frac{d^n}{dz^n}G(z) = \frac{n!}{2\pi i}\oint_{\gamma}\frac{G(z)\ dz}{(z - z^*)^{n + 1}}, $$ donde $\gamma$ es una curva cerrada que rodea el origen en el dominio de integración. Si sabes cómo calcular esta integral, puedes estar apañado sin tener que tomar una derivada (y, si eres como yo, liarte con todo el álgebra que conlleva...).

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X