6 votos

En la integración de un "gaussian-como" integral

Vamos a la siguiente "gaussiano" integral:

$$ I = \int_{\Re^n} \! \frac{1}{(2\pi)^{n/2}|\Sigma|^{1/2}} \exp \left\{ -\frac{1}{2} (\mathbf{x}-\mathbf{\mu})^T\Sigma^{-1}(\mathbf{x}-\mathbf{\mu}) \right\} \mathbf{x} \,\mathbf{d}\mathbf{x}, $$

donde $\mathbf{x}=(x_1,\dots,x_n)^T$, $\mathbf{\mu} = (\mu_1,\dots,\mu_n)^T\in\Re^n$, y $\Sigma\in\mathbb{S}_{++}^{n}$.

Nuestro objetivo principal es evaluar la integral anterior. Para este fin, vamos a $\mathbf{x}-\mathbf{\mu}=S\mathbf{y}$ donde $S$ $n \times n$ ortogonal de la matriz ($S^T=S^{-1}$) con determinante igual a $1$. El uso de este cambio de variable, la forma cuadrática se muestra en la integral se escribe como:

$$ -\frac{1}{2}(\mathbf{x}-\mathbf{\mu})^T\Sigma^{-1}(\mathbf{x}-\mathbf{\mu})= -\frac{1}{2}\mathbf{y}^T(S^T\Sigma^{-1})\mathbf{y}= -\frac{1}{2}\mathbf{y}^T(S^{-1}\Sigma^{-1})\mathbf{y}= -\frac{1}{2}\mathbf{y}^TD\mathbf{y}, $$

donde $D=\operatorname{diag}\{d_1,\dots,d_n\}$. Como resultado de ello, se reescribe de la siguiente manera:

$$ -\frac{1}{2}(\mathbf{x}-\mathbf{\mu})^T\Sigma^{-1}(\mathbf{x}-\mathbf{\mu})= -\frac{1}{2}\sum_{k=1}^{n} d_i y_i^2 $$

Por otra parte, $\mathbf{x}-\mathbf{\mu}=S\mathbf{y} \Rightarrow \mathbf{x}=S\mathbf{y}+\mathbf{\mu}=[\mathbf{s_1}\:\dots\:\mathbf{s_n}]\mathbf{y}+\mathbf{\mu}=(\mathbf{s_1}\cdot\mathbf{y}+\mu_1,\dots, \mathbf{s_n}\cdot\mathbf{y}+\mu_n)^T,$ donde $\mathbf{s}_j$ $j$- ésima columna de la matriz $S$.

Utilizando los resultados anteriores, el original de la integral puede escribirse como sigue:

$$ I = (I_1,\dots,I_n)^T, $$

donde el $j$-ésimo elemento de a $I$ está dada por:

$$ I_j = \int_{\Re^n} \! \frac{1}{(2\pi)^{n/2}|\Sigma|^{1/2}} \exp \left\{ -\frac{1}{2}\sum_{k=1}^{n} d_i y_i^2 \right\} (\mathbf{s}_j\cdot\mathbf{y}+\mu_j) \,\mathbf{d}\mathbf{y}\\ = \int_{\Re^n} \! \frac{1}{(2\pi)^{n/2}|\Sigma|^{1/2}} \exp \left\{ -\frac{1}{2}\sum_{k=1}^{n} d_i y_i^2 \right\} \mathbf{s}_j\cdot\mathbf{y} \,\mathbf{d}\mathbf{y}\\ + \int_{\Re^n} \! \frac{1}{(2\pi)^{n/2}|\Sigma|^{1/2}} \exp \left\{ -\frac{1}{2}\sum_{k=1}^{n} d_i y_i^2 \right\} \mu_j \,\mathbf{d}\mathbf{y} \Rightarrow\\ I_j = \int_{\Re^n} \! \frac{1}{(2\pi)^{n/2}|\Sigma|^{1/2}} \exp \left\{ -\frac{1}{2}\sum_{k=1}^{n} d_i y_i^2 \right\} \mathbf{s}_j\cdot\mathbf{y} \,\mathbf{d}\mathbf{y} + \mu_j $$

Si escribimos el producto escalar de a $\mathbf{s}_j\cdot\mathbf{y}$

$$ \mathbf{s}_j\cdot\mathbf{y} = \sum_{i=1}^{n} s_{jr}y_r, $$

entonces la integral de la $I_j$ está dada por:

$$ I_j = \int_{\Re^n} \! \frac{1}{(2\pi)^{n/2}|\Sigma|^{1/2}} \left(\sum_{i=1}^{n} s_{jr}y_r\right) \exp \left\{ -\frac{1}{2}\sum_{k=1}^{n} d_i y_i^2 \right\} \,\mathbf{d}\mathbf{y} + \mu_j $$

Me gustaría preguntarle, en primer lugar, si todo el planteamiento anterior es correcta o no(si es así, por favor me corrija), y, en segundo lugar, ¿cómo podría evaluar la última integral, $I_j$. Hace converger, como el de gauss integral sobre la $\Re^n$?

Gracias de antemano! Cada comentario útil será muy appretiated!

2voto

Michael Hardy Puntos 128804

Considere un vector cuya componente de th de $j$ es\begin{align} & \phantom{={}}\text{constant}\cdot\int_{\mathbb R^n} \frac{1}{\sqrt{d_1\cdots d_n}} \exp\left(\frac{-1}{2} \sum_{k=1}^n d_k y_k^2 \right) y_j\,dy_1\cdots dy_n \\[12pt] & = c\int_{\mathbb R^n} \prod_{k=1}^n\left(\frac{1}{\sqrt{d_k}} \exp\left(\frac{-1}{2} d_ky_k^2\right)\right) y_j\,dy_1 \cdots dy_k \\[12pt] & = c\prod_{k=1}^n \int_{\mathbb R} \frac{1}{\sqrt{d_k}} \exp\left(\frac{-1}{2} d_ky_k^2\right) y_k\, dy_k. \end {Alinee el}

Así es reducible a los integrales sobre $\mathbb R^1$, y si estás pensando en ese problema, ya sabes cómo evaluar estas integrales particulares.

A menudo puede suceder que el propósito de diagonalizing una matriz es reducir un problema con un vector en $n$-espacio para $n$ problemas escalares.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X