10 votos

¿Cuándo preferir la función generadora de momentos a la función característica?

Dejemos que $(\Omega, \mathcal{F}, P)$ sea un espacio de probabilidad, y sea $X : \Omega \to \mathbb{R}^n$ sea un vector aleatorio. Sea $P_X = X_* P$ sea la distribución de $X$ una medida de Borel en $\mathbb{R}^n$ .

  • Le site función característica de $X$ es la función $$ \varphi_X(t) = E[e^{i t \cdot X}] = \int_\Omega e^{i t \cdot X} \, dP, $$ definido para $t \in \mathbb{R}^n$ (la variable aleatoria $e^{i t \cdot X}$ está acotado, por tanto, en $L^1(P)$ para todos $t$ ). Es la transformada de Fourier de $P_X$ .
  • Le site función generadora de momentos ( m.g.f. ) de $X$ es la función $$ M_X(t) = E[e^{t \cdot X}] = \int_\Omega e^{t \cdot X} \, dP, $$ definido para todos los $t \in \mathbb{R}^n$ para la que existe la integral anterior . Esta es la transformada de Laplace de $P_X$ .

Ya podemos ver que la función característica está definida en todas partes en $\mathbb{R}^n$ pero la f.g.m. tiene un dominio que depende de $X$ y este dominio podría ser sólo $\{0\}$ (esto ocurre, por ejemplo, para una variable aleatoria con distribución de Cauchy).

A pesar de ello, las funciones características y las f.g.m. comparten muchas propiedades, por ejemplo:

  1. Si $X_1, \ldots, X_n$ son independientes, entonces $$ \varphi_{X_1 + \cdots + X_n}(t) = \varphi_{X_1}(t) \cdots \varphi_{X_n}(t) $$ para todos $t$ y $$ M_{X_1 + \cdots + X_n}(t) = M_{X_1}(t) \cdots M_{X_n}(t) $$ para todos $t$ para los que existen los f.g.m. .
  2. Dos vectores aleatorios $X$ y $Y$ tienen la misma distribución si y sólo si $\varphi_X(t) = \varphi_Y(t)$ para todos $t$ . El análogo m.g.f. de este resultado es que si $M_X(t) = M_Y(t)$ para todos $t$ en algún barrio de $0$ entonces $X$ y $Y$ tienen la misma distribución.
  3. Las funciones características y las f.g.m. de las distribuciones comunes suelen tener formas similares. Por ejemplo, si $X \sim N_n(\mu, \Sigma)$ ( $n$ -normal con media $\mu$ y la matriz de covarianza $\Sigma$ ), entonces $$ \varphi_X(t) = \exp\left(i \mu\cdot t - \frac{1}{2} t \cdot (\Sigma t)\right) $$ y $$ M_X(t) = \exp\left(\mu\cdot t - \frac{1}{2} t \cdot (\Sigma t)\right). $$
  4. Cuando se cumplen algunos supuestos suaves, tanto la función característica como la f.g.m. pueden diferenciarse para calcular los momentos.
  5. Teorema de continuidad de Lévy da un criterio para determinar cuándo una secuencia de variables aleatorias converge en distribución a otra variable aleatoria utilizando la convergencia de las funciones características correspondientes. Existe un teorema correspondiente para las f.g.m. ( Curtiss 1942, Teorema 3 ).

Dado que las funciones características y las f.g.m. se utilizan a menudo para el mismo propósito y el hecho de que una función característica siempre existe mientras que una f.g.m. no siempre existe, me parece que uno debería preferir a menudo trabajar con funciones características en lugar de f.g.m.

Preguntas.

  1. ¿Cuáles son algunos ejemplos en los que las f.g.m. son más útiles que las funciones características?
  2. ¿Qué se puede hacer con una f.g.m. que no se pueda hacer con una función característica?

4voto

user93692 Puntos 128

Es una buena pregunta, pero muy amplia, así que no puedo prometer que vaya a decir todo lo que hay que decir. La respuesta corta es que las técnicas rivales no difieren en lo que pueden hacer, sino en la forma en que pueden hacerlo.

Las funciones características requieren una precaución adicional debido al papel de los números complejos. Ni siquiera es necesario que el estudiante conozca los números complejos, sino que el cálculo involucrado tiene trampas sutiles. Por ejemplo, puedo obtener la FGM de una distribución normal simplemente completando el cuadrado en una sustitución por desplazamiento de variables, pero muchas fuentes pretenden descuidadamente que el enfoque utilizando funciones características es igual de fácil. No lo es, porque la famosa normalización de la integral gaussiana no dice nada sobre la integración en $ic+\mathbb{R}$ con $c\in\mathbb{R}\backslash\{ 0\}$ . Oh, todavía podemos evaluar la integral si tenemos cuidado con los contornos, y de hecho hay un enfoque aún más fácil, en el que mostramos mediante la integración por partes que un $N(0,\,1)$ función característica de la distribución $\phi (t)$ satisface $\dot{\phi}=-t\phi$ . Pero el enfoque MGF es aún más simple, y la mayoría de las distribuciones que los estudiantes necesitan al principio tienen una MGF convergente en un segmento de línea (por ejemplo, Laplace) o media línea (por ejemplo, Gamma, geométrica, binomial negativa), o la totalidad de $\mathbb{R}$ (por ejemplo, Beta, binomial, Poisson, Normal). En cualquier caso, es suficiente para estudiar los momentos.

No creo que haya nada que puedas hacer sólo con el MGF, pero se utiliza lo que es más fácil para la tarea en cuestión. Aquí hay una para ti: ¿cuál es la forma más fácil de calcular los momentos de una distribución de Poisson? Yo diría que es utilizar una técnica diferente, de nuevo, la función generadora de probabilidad $G(t)=\mathbb{E}t^X=\exp \lambda (t-1)$ . Entonces el símbolo de Pochhammer que cae $(X)_k$ da $\mathbb{E}(X)_k=G^{(k)}(1)=\lambda^k$ . En general, vale la pena utilizar la PGF para las distribuciones discretas, la MGF para las distribuciones continuas que están acotadas o que tienen un decaimiento superexponencial en las colas de la PDF, y la función característica cuando realmente se necesita.

Y dependiendo de la pregunta que hagas, puede que te parezca prudente utilizar la función generadora de cumulantes, ya sea definida como el logaritmo de la MGF o de la CF. Por ejemplo, dejaré como ejercicio que la definición log-MGF de los cumulantes para el máximo de $n$ $\operatorname{Exp}(1)$ iids da $\kappa_m=(m-1)!\sum_{k=1}^n k^{-m}$ lo que facilita el cálculo de la media y la varianza (respectivamente $\kappa_1$ y $\kappa_2$ ) que si los hubieras escrito en términos de momentos.

3voto

Josh Pearce Puntos 2288

Si su variable aleatoria tiene todo de sus momentos, entonces la MGF existe, y generalmente es al menos tan útil como la función característica para las pruebas.

Para responder a su pregunta, cuando el MGF existe, proporciona la base para muchos cálculos de valores extremos relacionados con $X$ . El más sencillo de ellos es (para $t\geq 0$ ),

$$P(X>r)=P(e^{tX}>e^{tr})\leq M_X(t)/e^{tr}.$$

En este caso, se puede minimizar el valor de la hora real sobre $t$ . Curiosamente, este límite es una de las pocas formas sencillas que conocemos de obtener estimaciones sobre eventos raros. El área general de esto es Teoría de las grandes desviaciones donde hay que hacer un montón de trabajo para obtener mejores límites (más ajustados). Un ejemplo común de esto es mirar $S_n=X_1+\cdots + X_n$ para que cuando el MGF de $X_1$ existe, entonces se puede demostrar $P(|S_n-E[X]|>nr)$ decae exponencialmente en $n$ . Esto se conoce más generalmente como Teorema de Cramer .

Aquí hay algunas notas compactas sobre esto.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X