5 votos

Gauss Matriz Integral

Necesito su ayuda para resolver este ejercicio :

Deje $S$ ser simétrica matriz de Hermitian $N\times N$ : $S=(s_{ij})$ con $s_{ij}=s_{ji}$.

  1. Al $\langle s_{ij}s_{kl}\rangle\neq 0$
  2. Lo $$\int Tr(S^{2n})\;d\mu(s)$$ cuenta?
  3. Calcular los momentos de la matriz de seguimiento dado por $$ \int Tr(S^2) dS,\quad \int Tr(S^4) dS $$ donde S es una real simétrica matriz de satisfacciones $S_{ij}=S_{ji}$.

Se supone que vamos a utilizar El Teorema de Wick para resolverlo.

cualquier idea sobre cómo calcular esto, gracias.

11voto

Integrals Puntos 2841

Interesante pregunta, que en realidad está preguntando acerca de los momentos de la matriz de seguimiento para una distribución de Gauss. Esto le da la resolvent operador de Wigner semi círculo de distribución. Ahora lo que se quiere resolver en una gaussiana de la matriz integral muy común en la probabilidad/estadística/ random teoría de la matriz de $$ \int Tr(H^{2}) \exp\big[{-\frac{1}{2} H^{2}}\big] dH,\qquad p\in \mathbb{R} $$ que tiene un hermoso resultado dado por el catalán Números! Nota, $$ H_{ij}=H^\dagger_{ij}, $$ o en palabras, H es hermitian y $H\equiv S $ para su notación bien. También tenga en cuenta para responder a su pregunta dos, solo momentos contribuir a la integral que es la razón por la que el exponente en la traza está dada por 2p. Momentos impares de desaparecer debido a la Gaussiana de la simetría. Voy a calcular tanto $$ \langle Tr(H^2)\rangle,\quad \langle Tr(H^4)\rangle,\quad \langle Tr(H^{2n})\rangle $$ donde $\langle ...\rangle$ $$ \langle Tr(H^{2n})\rangle = \int dH \, Tr({H^{2n}}) e^{-\frac{1}{2}H^2} $$ The integrand is invariant under unitary/orthogonal transformations depending on if H is hermitian or real symmetric. Sowe see the integral can be reduced to an integral over the eigenvalues $\lambda_1,\lambda_2,...,\lambda_N$ of $H$.

TAMBIÉN: aquí hay muchas pruebas de esta pregunta en la web para que usted (si no te gusta o creen que la mía): https://www.math.ucdavis.edu/~mulase/texfiles/fukaya.pdf,

http://ocw.mit.edu/courses/mathematics/18-238-geometry-and-quantum-field-theory-fall-2002/lecture-notes/sec4.pdf

http://www.supelec.fr/d2ri/flexibleradio/cours/random-matrix-1.pdf (más fáciles de la prueba de la matriz de seguimiento momentos)

http://www.physik.uni-bielefeld.de/bibos/old-bibos-site/01-03-035.pdf

Ahora voy a derivar la resolvent de la espectro obtenido. Recordar el resolvent se define como \begin{equation} G(z)=\frac{1}{N}\mathrm{Tr}\frac{1}{z-H} \end{equation} donde H = H$^\top$. Podemos ampliar el argumento de la traza en potencias de 1/z por \begin{equation} \frac{1}{z-H}=\frac{1}{z}\cdot \frac{1}{1-\frac{H}{z}} \end{equation} y el uso de la serie geométrica \begin{equation} \sum_{k=0}^{\infty} z^n= \frac{1}{1-z} \ \ \forall \ |\mathrm{z}| < 1, \end{equation} podemos expresar \begin{equation} \frac{1}{z}\cdot \frac{1}{1-\frac{H}{z}}=\frac{1}{z}(1+\frac{H}{z} + \big(\frac{H}{z}\big)^2 + O(n))= \frac{1}{z}+\frac{H}{z^2} + \frac{H^2}{z^3} + \frac{1}{z}O(n). \end{equation} Poner esta expresión ahora, de vuelta en G(z) obtenemos \begin{equation} G(z)=\frac{1}{N\cdot z} \sum_{k=0}^{\infty} \mathrm{Tr}\big(\frac{H}{z}\big)^k, \end{equation} si tomamos el promedio de esta cantidad \begin{equation} \langle G(z) \rangle = \frac{1}{N\cdot z} \sum_{k=0}^\infty \langle \mathrm{Tr}\big(\frac{H}{z}\big)^k\rangle =\frac{1}{N\cdot z} \sum_{k=0}^\infty z^{-k}\langle Tr(H^k) \rangle. \end{equation} Sin embargo, es claro que el espectro que la distribución es aún la función, por lo que los momentos impares debe desaparecer, volver a escribir el promedio de resolvent como \begin{equation} \langle G(z)\rangle = \frac{1}{N} \sum_{k=0}^{\infty} z^{-(2k+1)}\langle Tr(H^{2k})\rangle. \end{equation} Podemos ver que el promedio de resolvent depende de los momentos de la de distribución. Si podemos calcular los momentos (que es lo que se le pregunte), el promedio de resolvent es trivial a partir de ahí.

Ahora voy a calcular los momentos de la matriz de seguimiento ponderado en contra de la distribución de probabilidad para el caso Gaussiano \begin{equation} \langle Tr(H^{2k})\rangle=\int Tr(H^{2k})\cdot e^{-\frac{1}{2}Tr(H^2)}\mathrm{dH}, \end{equation} donde la integración es, en el espacio de N x N real simétrica de las matrices. El problema del cálculo de momentos de orden superior surge de forma natural en la teoría de la probabilidad y un ejemplo común es el de mayor orden de los momentos de la distribución de Gauss, que se dan por \begin{equation} \frac{1}{\sqrt{2 \pi }}\int_{-\infty}^{\infty}x^{2k}e^{-\frac{1}{2}x^2}dx=(2k-1)!! \end{equation} Este resultado se comprueba fácilmente mediante la integración parcial del método. Sin embargo, el seguimiento momentos se puede calcular un número de diferentes maneras, se puede utilizar el Jacobiano para gaussiano aleatorio de la matriz de los modelos que se da por $\mathcal{J}\propto|\lambda_l-\lambda_k|^\beta$ donde $\lambda$ es autovalores y $\beta=1,2,4$ para ortogonal, unitario, simpléctica conjuntos, respectivamente. Así que por un cambio de variables a valores propios, usted puede tener una integral puede intentar resolver. ${\it{However\ you\ want\ to\ use\ Wick's}}$. Calcular el segundo momento de la distribución \begin{equation} \langle Tr(H^{2})\rangle=\langle \sum_{i,j=1}H_{ij}H_{ji}\rangle, \qquad (\text{answer to c}) \end{equation} explícitamente podemos contrato de índices y escribir el promedio \begin{eqnarray} H_{ij}H_{ji} =N^2, \qquad (\text{answer to c}) \end{eqnarray} Este caso fue trivial ya que sólo tenía uno de los dos índices. Para los momentos de orden superior, tenemos que evaluar cada contracción con más cuidado. Cuando las contracciones se cruzan de una suma índice se pierde, y para la gran N sólo la no intersección de las contracciones contribuir. No sólo puede ser $N^V$ combinaciones de índices, donde V es el número de índices. Así que sumando sobre todas las contracciones y determinar la contribución de cada uno, se puede obtener el resultado deseado. El uso de estas reglas podemos calcular \begin{equation} \langle Tr(H^{4})\rangle=\langle H_{ij}H_{jk}\rangle \langle H_{kl}H_{li}\rangle + \langle H_{ij} H_{kl}\rangle \langle H_{jk}H_{li}\rangle + \langle H_{ij}H_{li}\rangle \langle H_{jk} H_{kl} \rangle \end{equation} donde una contracción se define por \begin{equation} \langle H_{ij}H_{kl}\rangle=\delta_{il} \delta_{jk}. \end{equation} Usando este resultado y de la contratación de los índices de podemos escribir \begin{equation} \langle Tr(H^{4})\rangle=\sum_{i,j,k,l} (\delta_{ik}\delta_{jj}\delta_{ki}\delta_{ll}+\delta_{il}\delta_{kj}\delta_{ji}\delta_{lk}+\delta_{ii}\delta_{jl}\delta_{lj}\delta_{kk})=2N^3+N,\qquad (\text{answer to c}) \end{equation} desde una de las contracciones sólo tiene uno libre índice contribuye N. Los otros dos contracciones contribuir N$^3$. La 6ª momento de la distribución tiene 15 posibilidades de contrato, así que voy a omitir esta derivación. En general, el n-ésimo momento en que está escrito por la expansión del producto como \begin{equation} \langle Tr(H^{2k})\rangle= \sum_{i_1,i_2,...i_{2k}}H_{i_1 i_2} H_{i_2 i_3}...H_{i_{2k}i_1}=\frac{1}{k+1}\binom {2k} {k}=C_k \qquad (\text{general answer to A,B,C}) \end{equation} donde C$_{k}$ es el catalán números que representa la k maneras diferentes para que coincida con las entradas. Este resultado puede ser conectado a la media resolvent expresión y se suman para dar \begin{equation} \langle G(z)\rangle = \frac{1}{N} \sum_{k=0}^{\infty} z^{-(2k+1)}\langle Tr(H^{2k})\rangle=\frac{1}{2}\big(z-\sqrt{z^2+4}\big). \end{equation} Esta igualdad se obtiene mediante el uso de las contracciones y la expansión de la media resolvent para las grandes de la z como se ha hecho anteriormente \begin{equation} \langle G(z) \rangle=\bigg\langle \frac{1}{N} \big(z^{-1}+z^{-2}TrH+z^{-3}Tr H^2 +z^{-4} Tr H^3 + O(N)\big )\bigg \rangle. \end{equation} Desde los momentos impares de desaparecer debido a la simetría, los momentos se calculan como se muestra arriba. Obtenemos \begin{equation} \langle G(z) \rangle= z^{-1}+z^{-1}\langle G(z) \rangle ^2 \end{equation} que puede ser resuelto por G(z) mediante la ecuación cuadrática \begin{equation} \langle G(z) \rangle =\frac{1}{2}\big(z-\sqrt{z^2+4}\big) \end{equation} que es la expresión anterior. Asintóticamente a las grandes de la z, $G(z) \sim \frac{1}{z}$. Este resultado puede ser conectado a $$ \begin{equation} \langle \rho(\lambda)\rangle = - \lim\limits_{\epsilon \rightarrow 0} \frac{N}{\pi}\Im{\langle G(\lambda +i \epsilon) }\rangle. \end{equation} $$ to calculate the spectral density. We can do this by writing the average resolvent in terms of eigenvalues and use imaginary increments. However the resolvent has a branch cut structure in the complex plane since it behaves as $1/z$ para las grandes de la z.

Este corte es una estructura simple polo y es por eso que utilizamos imaginario incrementos. Debemos escribir el promedio resolvent para cada uno de los lados de la pole, así que \begin{eqnarray} \langle G(\lambda +i\epsilon)\rangle= \frac{1}{2}\big(\lambda+i\epsilon -\sqrt{(\lambda+i\epsilon)^2-4}\big)\\ \langle G(\lambda -i\epsilon)\rangle= \frac{1}{2}\big(\lambda-i\epsilon -\sqrt{(\lambda-i\epsilon)^2-4}\big). \end{eqnarray} Ahora podemos invertir esta relación para obtener la densidad espectral de \begin{equation} \rho(\lambda)= \frac{N}{2\pi}\lim\limits_{\epsilon \rightarrow 0}\Im \big[ \sqrt{(\lambda+i\epsilon)^2-4}-(-\sqrt{(\lambda-i\epsilon)^2-4}) \big] \end{equation} que puede ser simplificado para producir \begin{equation} \rho(\lambda)=\frac{N}{\pi}\sqrt{\lambda^2-4} \end{equation} que es Wigner semi-círculo.

EDIT: ya que de nuevo me preguntó acerca de cómo calcular el promedio de las cantidades (están en el post anterior), es un método alternativo para usted. (en respuesta a una)

Formalmente podemos calcular la función de correlación mediante el uso de \begin{equation} \big<x_i x_j\big>=\frac{ \int_{-\infty}^{\infty} \prod_{i=1}^N dx_i \, x_i x_j \exp\big(-\frac{1}{2} \sum_{i,j=1}^{N} x_i H_{ij}x_j\big) }{ \int_{-\infty}^{\infty} \prod_{i=1}^N dx_i \exp\big(-\frac{1}{2} \sum_{i,j=1}^{N} x_i H_{ij}x_j\big) }. \end{equation} En primer lugar, voy a dar un general de la prueba de la expectativa de valor de \begin{equation} \big<x_i f(x)\big>=C^{-1}\int_{-\infty}^\infty d^Nx\, x_i f(x) \exp\big( -\frac{1}{2} \sum_{j,k=1}^{N} x_j H_{jk} x_k \big). \end{equation} Ahora podemos utilizar la identidad $$ x_i \exp\big( -\frac{1}{2} \sum_{j,k=1}^{N} x_j H_{jk} x_k \big)=-\sum_l H^{-1}_{il}\frac{\partial}{\partial x_l} \exp\big( -\frac{1}{2} \sum_{j,k=1}^{N} x_j H_{jk} x_k, \big) $$ la inserción de este en la ecuación anterior y usando integración por partes obtenemos $$ \big<x_i f(x)\big>= C^{-1} \sum_l H^{-1}_{il} \int_{-\infty}^\infty d^Nx \exp\big( -\frac{1}{2} \sum_{j,k=1}^{N} x_j H_{jk} x_k \big) \frac{\partial f}{\partial x_l}. $$ Podemos escribir esto de manera más compacta como \begin{equation} \big<x_i f(x)\big>=\sum_l \big<x_i x_l\big> \bigg<\frac{\partial f}{\partial x_l}\bigg>. \end{equation}

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X