Esto es fácil de hacer usando un cálculo gráfico para contracciones de tensores anticuados. Ve este artículo reciente para un ejemplo de aplicación de tales técnicas y referencias útiles.
Aquí está una prueba de la Conjetura 1. Cuando tenga tiempo, intentaré hacer imágenes más bonitas.
Representa un elemento de matriz $M_{ij}$ por una caja triangular etiquetada $M$ y dos hilos que salen llevando los índices $i$ y $j$, un poco como $i- (lo siento, no puedo completar las dos esquinas faltantes del triángulo), luego mira esa imagen girada en sentido horario 90 grados.
Entonces el determinante está dado por $$ {\rm det}(M)= \ \ \begin{array}{ccccccc} & & --& -- &-- & & \\ & / & --&-- & --&\backslash & \\ / & / & & & & \backslash & \backslash \\ | & | & & & & | & | \\ | & | & & & & M & M \\ | & | & & & & | & | \\ | & | & & & & = & = \\ | & | & & & & | & | \\ \backslash & \backslash & & & & / & / \\ & \backslash & --& -- &-- & / & \\ & & -- & -- &-- & & \end{array} $$
Esta imagen es para $n=2$. La fila de signos iguales representa una sola caja para un antisimetrizador normalizado con $n$ hilos pasando por él. También hay una "traza de Markov" o cierre de los bucles sin cruces.
Ahora toma $M=X^2+Y^2$ y expande por multilinealidad. Eso significa que, en la imagen anterior, cada $$ \begin{array}{c} | \\ M \\ | \end{array} $$ se convierte en $$ \begin{array}{c} | \\ X \\ | \\ X \\ | \end{array} $$ o $$ \begin{array}{c} | \\ Y \\ | \\ Y \\ | \end{array} $$ Ahora la ubicación de los pares de $X$'s y $Y$'s no importa, porque intercambiar posiciones crea dos giros, uno en la parte superior y otro en la parte inferior del antisimetrizador. Deshacerlos da un factor de $(-1)^2$, es decir, no hace nada. Entonces obtenemos una suma $$ \sum_{n_1+n_2=n}\frac{n!}{n_1! n_2!}\times $$ la expectativa de la imagen anterior con los $M$'s (ahora $n$ de ellos) se reemplaza por algo como $$ \begin{array}{cccccccc} | & | & \cdots & | & | & | & \cdots & | \\ X & X & \cdots & X & Y & Y & \cdots & Y \\ | & | & \cdots & | & | & | & \cdots & | \\ X & X & \cdots & X & Y & Y & \cdots & Y \\ | & | & \cdots & | & | & | & \cdots & | donde hay $n_1$ hilos verticales de $X$'s seguidos de $n_2$ hilos de $Y$'s.
Ahora aplicamos el Teorema de Isserlis-Wick para realizar las integrales gaussianas, como una suma sobre emparejamientos perfectos de $X$'s entre sí y de $Y$'s entre sí. El ingrediente principal es la identidad gráfica $$ \mathbb{E}\left[ \begin{array}{c} | \\ X \\ | \end{array} \begin{array}{c} | \\ X \\ | $$ \namath-containeremostrar la delta de Kronecker simétrica contraída directamente con un antisimetrizador y esto da cero. Por lo tanto, el $i$-ésimo $X$ en la fila inferior debe contraerse con el $\sigma_1(i)$-ésimo $X$ en la fila superior y el $j$-ésimo $Y$ en la fila inferior debe contraerse con el $\sigma_2(j)$-ésimo $Y$ en la fila superior. Sumando las contracciones de Wick, se reduce a sumar dos permutaciones $\sigma_1\in S_{n_1}$ y $\sigma_2\in S_{n_2}$.
Ahora la parte difícil, y lo siento, las imágenes se vuelven un poco complicadas (intenta dibujar un ciclo de longitud cuatro), la contribución de las permutaciones se puede calcular de la siguiente manera. Después de enderezar o tirar de los hilos, se obtienen los cuadrados de composición de las dos permutaciones. En la imagen de Schur-Weyl tendríamos algo como $$ \omega= (\sigma_1\circ \sigma_1) \otimes (\sigma_2\circ\sigma_2) $$ como un endomorfismo de $\wedge^n(\mathbb{R}^n)$.
Otra forma de ver esto es la siguiente. Considera el "$|$" $i$-ésimo debajo de una fila inferior $X$. Seguirá una capa que va al hilo "$|$" justo debajo del $\sigma_1(i)$-ésimo $X$ de la fila superior. Debes bajar por ese hilo y luego seguir la copa que te lleva al "$|$" que está encima del $\sigma_1(\sigma_1(i))$-ésimo $X$ de la fila superior. Al final del día, después de tirar de los hilos, eliminando chivatos $X|$ y zigzags $/|/$, tienes que el hilo $i$-ésimo en la parte inferior se conecta con el hilo $\sigma_1(\sigma_1(i))$-ésimo en la parte superior. Eso fue para el compartimento de $X$, pero lo mismo se hace independientemente en el compartimento de $Y$.
Luego, la evaluación de la contribución de $omega$ es el signo de la permutación $\omega$, es decir, $1$ veces la traza de la identidad en $\wedge^n(\mathbb{R}^n)$ que también es $1$.
En resumen, y para el caso general de $m$ matrices, tenemos $$ \mathbb{E}[{\rm det}(X_1^2+\cdots+X_m^2)]= \sum_{n_1+\cdots+n_m=n} \binom{n}{n_1,\ldots,n_m} n_1!\cdots n_m!\ \times 1 $$ =n!\sum_{n_1+\cdots+n_m=n} 1=n!\times\binom{n+m-1}{m-1}=\frac{(n+m-1)!}{(m-1)!}\ . $$ Esto prueba la conjetura más general en el comentario de Dan Piponi.