9 votos

La función característica de una variable aleatoria normal multivariante distribuida

El función característica de una variable aleatoria $X$ se define como $\hat{X}(\theta)=\mathbb{E}(e^{i\theta X})$ . Si $X$ es una variable aleatoria de distribución normal con media $\mu$ y la desviación estándar $\sigma\ge 0$ , entonces su función característica se puede encontrar de la siguiente manera:

$$\hat{X}(\theta)=\mathbb{E}(e^{i\theta X}) =\int_{-\infty}^{\infty}\frac{e^{i\theta x-\frac{(x-\mu)^2}{2\sigma^2}}}{\sigma\sqrt{2\pi}}dx=\ldots=e^{i\mu\theta-\frac{\sigma^2\theta^2}{2}}$$

(para ser sincero, no tengo ni idea de qué poner en lugar del " $\ldots$ "; he buscado aquí pero eso es sólo para el caso estándar. De todos modos, esta no es realmente mi pregunta, aunque sea interesante y pueda ser relevante)

Ahora, si lo he entendido bien, un vector aleatorio gaussiano $X$ (de dimensión $n$ ) es un vector de la forma $X=AY+M$ donde $A$ es cualquier matriz cuadrada real $n\times n$ , $Y$ es un vector de tamaño $n$ en la que cada coordinación es una variable aleatoria estándar normalmente distribuida, y $M$ es un vector (constante) de tamaño $n$ .

Estoy tratando de encontrar la función característica de tal $X$ . La generalización de la fórmula de las funciones características a dimensiones superiores es sencilla:

$$\hat{X}=\mathbb{E}(e^{i<\theta,X>}),$$ donde $<.,.>$ es un producto interno. Así que puedo empezar con lo siguiente:

$$\hat{X}(\theta) = \mathbb{E}(e^{i<\theta,X>}) = \mathbb{E}(e^{i<\theta,AY>}\cdot e^{i<\theta,M>})\\ =e^{i<\theta,M>}\cdot \mathbb{E}(e^{i<\theta,AY>}) $$

Y me queda una expectativa de un producto complejo de variables aleatorias. Eso probablemente significa que la matriz de covarianza de algunas variables aleatorias debería estar involucrada, pero eso toca los límites de mis conocimientos sobre la probabilidad.

8voto

Daeyoung Lim Puntos 33

No querrás usar la notación de corchetes para el producto interno cuando estás tratando esencialmente con matrices. En su lugar, escribe $\mathbb{E}\left[e^{i\theta^{T}X}\right] = \mathbb{E}\left[e^{i\theta^{T}\left(AY+M\right)}\right] = e^{i\theta^{T}M}\mathbb{E}\left[e^{i\theta^{T}AY}\right]$ . Sólo te queda calcular la función característica de una distribución gaussiana multivariante. $$ \begin{align*}X &\sim \mathcal{N}\left(\mu, \Sigma\right)\\ \mathbb{E}\left[e^{is^{T}X}\right] &= \exp \left\{i\mu^{T}s - \frac{1}{2}s^{T}\Sigma s \right\} \end{align*} $$ Sólo hay que averiguar el vector media y la matriz de covarianza de $AY$ ya que las variables gaussianas tienen la propiedad afín, lo que significa que no cambian bajo una transformación lineal (siguen siendo gaussianas completamente definidas por el vector medio y la matriz de covarianza). Si $Y \sim \mathcal{N}\left(\mu_{Y}, \Sigma_{Y}\right)$ entonces $$ \begin{align*} \mathbb{E}\left[AY\right] &= A\mu_{Y} \\ \operatorname{Var}\left[AY\right] &= A\Sigma_{Y} A^{T} . \end{align*} $$

Utilizando la relación entre $X$ y $Y$ , $$ \begin{align*} AY &= X-M \\ \mathbb{E}\left[AY\right] &= \mu_{X} - M \\\operatorname{Var}\left[AY\right] &= \Sigma_{X}\\ \mathbb{E}\left[e^{i\theta^{T}AY}\right] &= \exp \left\{i\left(\mu_{X}-M\right)^{T}\theta - \frac{1}{2}\theta^{T}\Sigma_{X} \theta \right\} . \end{align*} $$ Esto es lo más lejos que puedo llegar con la información que has dado.

1voto

yarek Puntos 111

Básicamente, ¡estás acabado! Ves, has obtenido $$ \Psi_X(\theta) = e^{(i\langle\theta,M\rangle)}\mathbb{E}(e^{(i\langle\theta,AY\rangle)}) $$ Lo que queda es notar que A puede pasar al otro lado del producto interior $$ = e^{(i\langle\theta,M\rangle)}\mathbb{E}(e^{(i\langle A'\theta,Y\rangle)}) = e^{(i\langle\theta,M\rangle)}\Psi_Y(A'\theta) $$ Lo único que te queda es introducir la función característica de la distribución normal multivariante.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X