36 votos

Determinante de la matriz aleatoria $X^2+Y^2$

$\DeclareMathOperator\Prob{Prob}$Sea $X,Y\in M_n(\mathbb{R})$ matrices aleatorias. Los elementos de $X,Y$ son variables i.i.d. y siguen la ley normal estándar $N(0,1)$.

i) Cuando $n=2,3,4$, se puede demostrar que la esperanza de $\det(X^2+Y^2)$ es $(n+1)!$.

Pruebas computacionales parecen confirmar estos resultados para $n\geq5$.

¿Es cierto lo siguiente?

Conjetura 1. Para todo $n\geq 5$, $E(\det(X^2+Y^2))=(n+1)!$.

ii) Si $X_0,Y_0$ es el resultado de un experimento, entonces sea $p_n=\Prob(\det({X_0}^2+{Y_0}^2)<0)$.

Algunos experimentos dan las siguientes aproximaciones.

$n=2,p_2\approx 0.1178;n=4,p_4\approx 0.327;n=6,p_6\approx 0.438; n=8,p_8\approx 0.480$; $n=10,p_{10}\approx 0.494;n=20,p_{20}\approx 0.49997;n=40,p_{40}\approx 0.49999$.

¿Es cierto lo siguiente?

Conjetura 2. La secuencia $(p_n)$ es creciente y tiende a $\dfrac{1}{2}$ cuando $n$ tiende a $+\infty$.

Si es así y $n$ es grande, entonces $$\Prob(\det({X_0}^2+{Y_0}^2)<0)\approx \Prob(\det({X_0}^2+{Y_0}^2)>0).$$

21voto

harris Puntos 1

Esto es fácil de hacer usando un cálculo gráfico para contracciones de tensores anticuados. Ve este artículo reciente para un ejemplo de aplicación de tales técnicas y referencias útiles.

Aquí está una prueba de la Conjetura 1. Cuando tenga tiempo, intentaré hacer imágenes más bonitas.

Representa un elemento de matriz $M_{ij}$ por una caja triangular etiquetada $M$ y dos hilos que salen llevando los índices $i$ y $j$, un poco como $i- (lo siento, no puedo completar las dos esquinas faltantes del triángulo), luego mira esa imagen girada en sentido horario 90 grados.

Entonces el determinante está dado por $$ {\rm det}(M)= \ \ \begin{array}{ccccccc} & & --& -- &-- & & \\ & / & --&-- & --&\backslash & \\ / & / & & & & \backslash & \backslash \\ | & | & & & & | & | \\ | & | & & & & M & M \\ | & | & & & & | & | \\ | & | & & & & = & = \\ | & | & & & & | & | \\ \backslash & \backslash & & & & / & / \\ & \backslash & --& -- &-- & / & \\ & & -- & -- &-- & & \end{array} $$

Esta imagen es para $n=2$. La fila de signos iguales representa una sola caja para un antisimetrizador normalizado con $n$ hilos pasando por él. También hay una "traza de Markov" o cierre de los bucles sin cruces.

Ahora toma $M=X^2+Y^2$ y expande por multilinealidad. Eso significa que, en la imagen anterior, cada $$ \begin{array}{c} | \\ M \\ | \end{array} $$ se convierte en $$ \begin{array}{c} | \\ X \\ | \\ X \\ | \end{array} $$ o $$ \begin{array}{c} | \\ Y \\ | \\ Y \\ | \end{array} $$ Ahora la ubicación de los pares de $X$'s y $Y$'s no importa, porque intercambiar posiciones crea dos giros, uno en la parte superior y otro en la parte inferior del antisimetrizador. Deshacerlos da un factor de $(-1)^2$, es decir, no hace nada. Entonces obtenemos una suma $$ \sum_{n_1+n_2=n}\frac{n!}{n_1! n_2!}\times $$ la expectativa de la imagen anterior con los $M$'s (ahora $n$ de ellos) se reemplaza por algo como $$ \begin{array}{cccccccc} | & | & \cdots & | & | & | & \cdots & | \\ X & X & \cdots & X & Y & Y & \cdots & Y \\ | & | & \cdots & | & | & | & \cdots & | \\ X & X & \cdots & X & Y & Y & \cdots & Y \\ | & | & \cdots & | & | & | & \cdots & | donde hay $n_1$ hilos verticales de $X$'s seguidos de $n_2$ hilos de $Y$'s.

Ahora aplicamos el Teorema de Isserlis-Wick para realizar las integrales gaussianas, como una suma sobre emparejamientos perfectos de $X$'s entre sí y de $Y$'s entre sí. El ingrediente principal es la identidad gráfica $$ \mathbb{E}\left[ \begin{array}{c} | \\ X \\ | \end{array} \begin{array}{c} | \\ X \\ | $$ \namath-containeremostrar la delta de Kronecker simétrica contraída directamente con un antisimetrizador y esto da cero. Por lo tanto, el $i$-ésimo $X$ en la fila inferior debe contraerse con el $\sigma_1(i)$-ésimo $X$ en la fila superior y el $j$-ésimo $Y$ en la fila inferior debe contraerse con el $\sigma_2(j)$-ésimo $Y$ en la fila superior. Sumando las contracciones de Wick, se reduce a sumar dos permutaciones $\sigma_1\in S_{n_1}$ y $\sigma_2\in S_{n_2}$.

Ahora la parte difícil, y lo siento, las imágenes se vuelven un poco complicadas (intenta dibujar un ciclo de longitud cuatro), la contribución de las permutaciones se puede calcular de la siguiente manera. Después de enderezar o tirar de los hilos, se obtienen los cuadrados de composición de las dos permutaciones. En la imagen de Schur-Weyl tendríamos algo como $$ \omega= (\sigma_1\circ \sigma_1) \otimes (\sigma_2\circ\sigma_2) $$ como un endomorfismo de $\wedge^n(\mathbb{R}^n)$.

Otra forma de ver esto es la siguiente. Considera el "$|$" $i$-ésimo debajo de una fila inferior $X$. Seguirá una capa que va al hilo "$|$" justo debajo del $\sigma_1(i)$-ésimo $X$ de la fila superior. Debes bajar por ese hilo y luego seguir la copa que te lleva al "$|$" que está encima del $\sigma_1(\sigma_1(i))$-ésimo $X$ de la fila superior. Al final del día, después de tirar de los hilos, eliminando chivatos $X|$ y zigzags $/|/$, tienes que el hilo $i$-ésimo en la parte inferior se conecta con el hilo $\sigma_1(\sigma_1(i))$-ésimo en la parte superior. Eso fue para el compartimento de $X$, pero lo mismo se hace independientemente en el compartimento de $Y$.

Luego, la evaluación de la contribución de $omega$ es el signo de la permutación $\omega$, es decir, $1$ veces la traza de la identidad en $\wedge^n(\mathbb{R}^n)$ que también es $1$.

En resumen, y para el caso general de $m$ matrices, tenemos $$ \mathbb{E}[{\rm det}(X_1^2+\cdots+X_m^2)]= \sum_{n_1+\cdots+n_m=n} \binom{n}{n_1,\ldots,n_m} n_1!\cdots n_m!\ \times 1 $$ =n!\sum_{n_1+\cdots+n_m=n} 1=n!\times\binom{n+m-1}{m-1}=\frac{(n+m-1)!}{(m-1)!}\ . $$ Esto prueba la conjetura más general en el comentario de Dan Piponi.

19voto

Nilesh Thakkar Puntos 108

Esta es la traducción de la respuesta de @AbdelmalekAbdesselam a la notación algebraica estándar, para aquellos que, como yo, se sienten no tan cómodos con la notación de birdtracks. La idea principal es expandir $\det(X^2 + Y^2)$ en la suma de monomios en variables $X_{ij},Y_{ij}$ y luego aplicar la fórmula de Isserlis. Es decir, se tiene $$\mathbb E[\det(X^2+Y^2)] = \sum_{\sigma \in \Sigma_n} (-1)^{\sigma} \mathbb E[(a_{1,\sigma 1} + b_{1,\sigma 1}) \cdots (a_{n,\sigma n} + b_{n,\sigma n})] =$$ donde $A = X^2, B=Y^2$. Ahora, después de expandir y reagrupar los términos $a$ con los términos $b$ y usando varias simetrías del problema $$=\sum_{\sigma \in \Sigma_n}\sum_{\substack{n_1 + n_2 = n \\\{i_1,\ldots,i_{n_1}\} \sqcup \{j_1,\ldots,j_{n_2}\} = \{1,\ldots,n\} \\ i_1 < \cdots < i_{n_1}\\j_1 < \cdots < j_{n_2}}} (-1)^{\sigma} \mathbb E[a_{i_1,\sigma i_1} \cdots a_{i_{n_1}, \sigma i_{n_1}}]\mathbb E[b_{j_1,\sigma j_1} \cdots b_{j_{n_2}, \sigma j_{n_2}}] =$$ $$=\sum_{n_1+n_2=n}\frac{n!}{n_1! n_2!} \sum_{\sigma_1 \in \Sigma_{n_1}, \sigma_2 \in \Sigma_{n_2}} (-1)^{\sigma_1} (-1)^{\sigma_2} \mathbb E[a_{1,\sigma_1 1} \cdots a_{n_1, \sigma n_1}]\mathbb E[b_{1,\sigma_2 1} \cdots b_{n_2, \sigma_2 n_2}] =$$ $$=\sum_{n_1 + n_2 = n} \frac{n!}{n_1! n_2!} \mathbb E[\det(Z_{n_1}^2)] \mathbb E[\det(Z_{n_2}^2)]$$

donde $Z_r$ es una matriz $r \times r$ rellenada con distribuciones normales iid. Así que es suficiente probar

$$\mathbb E[\det(Z_{r})^2]=r!$$ A través de la fórmula de Isserlis, solo los monomios cuadráticos de $\det(Z_{r})^2$ contribuirán a la respuesta, y hay exactamente $r!$ de ellos.

7voto

kixx Puntos 2452

No (¿todavía?) una respuesta completa


Para la conjetura 1, es útil representar el determinante de una matriz $n\times n$ $M$ como una integral sobre variables anticonmutativas (Grassmann) $\theta=(\theta_1,\theta_2,\ldots\theta_n)$, y sus conjugados $\bar{\theta}=(\bar{\theta}_1,\bar{\theta}_2,\ldots\bar{\theta}_n)$,

$$\det M=\int d\theta\int d\bar{\theta}\,e^{\bar{\theta}\cdot M\cdot\theta}=\int d\theta\int d\bar{\theta}\,\prod_{i=1}^n\left(1+\bar{\theta}_i\sum_{j=1}^n M_{ij}\theta_j\right),\tag{1}$$ como se explica, por ejemplo, en estas notas de clase.

Aplica esto a $M=X^2+Y^2$, $$\det(X^2+Y^2)=\int d\theta\int d\bar{\theta}\,e^{\bar{\theta}\cdot X^2\cdot\theta}e^{\bar{\theta}\cdot Y^2\cdot\theta}$$ $$\qquad=\int d\theta\int d\bar{\theta}\,\prod_{i,i'=1}^n\left(1+\bar{\theta}_i\sum_{j,k=1}^n X_{ik}X_{kj}\theta_j\right)\left(1+\bar{\theta}_{i'}\sum_{j',k'=1}^n Y_{i'k'}Y_{k'j'}\theta_{j'}\right).\tag{2}$$

Prefiero evaluar un promedio gaussiano de la forma $$Z_n(\bar{\theta},\theta)=\mathbb{E}\biggl[\prod_{i=1}^n\biggl(1+\sum_{j,k=1}^n X_{ik}X_{kj}\bar{\theta}_i\theta_j\biggr)\biggr]\tag{3}$$ y luego realizar la integral restante de $Z_n^2$ sobre variables Grassmann, $$\mathbb{E}[\det(X^2+Y^2)]=\int d\theta\int d\bar{\theta}\,Z_{n}^2(\bar{\theta},\theta),\tag{4}$$ con la ayuda de las identidades $$\int d\theta_id\bar{\theta}_i=0,\;\;\int d\theta_id\bar{\theta}_i\,\bar\theta_i=0,\;\int d\theta_id\bar{\theta}_i\,\bar\theta_i\theta_i=1.\tag{5}$$

De manera similar, la generalización de múltiples matrices de Dan Piponi corresponde a $$\mathbb{E}\left[\det\left(\sum_{i=1}^m X_i^2\right)\right]=\int d\theta\int d\bar{\theta}\,Z_{n}^m(\bar{\theta},\theta).\tag{6}$$


Como una rápida confirmación de que esto está llevando a algún lugar, para $n=2$ uno tiene $Z_2=1+\bar{\theta}_{1}\theta_1+\bar{\theta}_{2}\theta_2+2\bar{\theta}_{1}\theta_1\bar{\theta}_{2}\theta_2$, dando $$\mathbb{E}[\det(X^2+Y^2)]=\int d\theta\int d\bar{\theta}\,\biggl(1+\bar{\theta}_{1}\theta_1+\bar{\theta}_{2}\theta_2+2\bar{\theta}_{1}\theta_1\bar{\theta}_{2}\theta_2\biggr)^2$$ $$\qquad=\int d\theta\int d\bar{\theta}\,\biggl(1+2\bar{\theta}_{1}\theta_1+2\bar{\theta}_{2}\theta_2+6\bar{\theta}_{1}\theta_1\bar{\theta}_{2}\theta_2\biggr)=6,$$ que es la respuesta correcta.

La generalización de múltiples matrices de $m$ de Dan Piponi se evalúa para $n = 2$ y para cualquier $m$ arbitrario a $$\mathbb{E}\left[\det\left(\sum_{i=1}^m X_m^2\right)\right]=\int d\theta\int d\bar{\theta}\,\biggl(1+\bar{\theta}_{1}\theta_1+\bar{\theta}_{2}\theta_2+2\bar{\theta}_{1}\theta_1\bar{\theta}_{2}\theta_2\biggr)^m=m(m+1), $$ porque solo el término $\bar{\theta}_{1}\theta_1\bar{\theta}_{2}\theta_2$ da un valor distinto de cero en la integración sobre las variables Grassmann, y este término aparece con multiplicidad $2m+m(m-1)=m(m+1)$.

5voto

Steven Murawski Puntos 6665

Me gustaría ampliar mi comentario anterior para dar una prueba más sencilla que también se conecta con algunos otros hechos estándar en combinatoria.

Comenzar con $$ E[\det(X^2)] =\sum_{\sigma\in S_n}(-1)^{\mathop{sign(\sigma)}}\prod_{i=1}^n(X^2)_{i,\sigma(i)} =\sum_{\sigma\in S_n}(-1)^{\mathop{sign(\sigma)}}\prod_{i=1}^n\sum_{j=1}^n X_{i,j}X_{j,\sigma(i)} $$ Los únicos términos a la derecha que sobreviven son aquellos que son productos de pares de variables coincidentes. Cada término superviviente a la derecha es un producto de variables que escribiré en una cuadrícula en lugar de en una línea. Por ejemplo. $$ \begin{array}{cc} X_{1,j_1} & X_{j_1,\sigma(1)} \\ X_{2,j_2} & X_{j_2,\sigma(2)} \\ \vdots \\ X_{n,j_n} & X_{j_n,\sigma(n)} \\ Para que cada variable aparezca exactamente dos veces, la columna de la derecha debe ser de hecho una permutación de la columna de la izquierda. Entonces, la función $i\mapsto j_i$ es una permutación que escribiré como $j_n=j(n)$ y tenemos $\sigma=j^2$. Así que de hecho tenemos $$ E[\det(X^2)]=\sum_{j\in S_n}(-1)^{sign(j^2)}1=n! Ahora consideremos $E[\det(X^2+Y^2)]$. Como antes, tenemos una suma de términos donde cada término es un producto de $2n$ variables que se pueden disponer en una cuadrícula. Por ejemplo, algunos términos son como $$ \begin{array}{cc} X_{1,j_1} & X_{j_1,\sigma(1)} \\ Y_{2,j_2} & Y_{j_2,\sigma(2)} \\ \vdots \\ X_{n,j_n} & X_{j_n,\sigma(n)} \\ con algunas filas conteniendo solo $X$'s y algunas conteniendo solo $Y$'s. Ahora supongamos que $X_{i,j}$ existe en alguna fila en la columna izquierda. Entonces, una variable de la forma $X_{j,k}$ debe aparecer en la misma fila pero en la columna derecha. La variable $X_{j,k}$ debe aparecer de nuevo en alguna parte de la izquierda. Y eso significa que hay una variable de la forma $X_{k,l}$ en la derecha y así sucesivamente. Así que los ciclos deben estar compuestos de todos $X$'s o todos $Y$'s y podemos asignar $X$ y $Y$ como queramos. De manera similar para una suma de $m$ cuadrados en $\det(X_1^2+\ldots+X_m^2)$. Así que ahora tenemos $$ E[\det(X_1^2+\ldots+X_m^2)]=\sum_{j\in S_n}m^\mbox{#cycles in $j$}

Es un hecho estándar que el número de permutaciones con un número dado de ciclos es contado por los números de Stirling del primer tipo (no firmados) y que el polinomio que obtienes usando estos como coeficientes es el factorial ascendente.

Así que $$ E[\det(X_1^2+\ldots+X_m^2)]=m^{\bar{n}}=\frac{(m+n-1)!}{(m-1)!}

El hecho de que estemos mirando un producto de términos $X_{i,j}X_{j,\sigma(i)}$ provenientes de $X^2$ conduce a una gran restricción para que la columna de la derecha sea una permutación de la izquierda. Cuando se observan potencias más altas de $X$, las restricciones son mucho más laxas, por lo que este enfoque probablemente no funcione sin mucho trabajo adicional.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X