6 votos

Valor esperado de $\log(\det(AA^T))$

Considere la posibilidad de un azar uniforme $n$ por $n$ matriz $A$ donde $A_{i,j} \in \{-1,1\}$ . Sabemos que con alta probabilidad $A$ es no singular. ¿Existen estimaciones o límites conocidos para

$$\mathbb{E}(\log(\det(AA^T)))\;?$$

5voto

Bunny Rabbit Puntos 2079

No veo cómo esta expectativa puede ser otra cosa que $-\infty$ . La probabilidad de que $A$ es singular no va a desaparecer. Una cota inferior muy floja es la probabilidad de que la fila $1 = \pm \text{row} 2$ :

$$P(\det(A)=0) \geq \frac{1}{2^{n-1}}$$

$$E(\log(|\det(A)|)< (-\infty)(2^{1-n})=-\infty$$

3voto

Spencer Puntos 48

En 2010, no se conocía la estimación exacta. Se conjetura que para $\{0,1\}$ matrices, $E(|\det(A)|)\sim Ce^{-n/2}n^{n/2}$ con $C\approx \sqrt{2}e^{1/4}$ .

No es difícil deducir el resultado para $\{-1,1\}$ matrices. La correspondencia es la siguiente: $\det(B_{n+1})=2^n\det(A_n)$ donde $A_n\in M_n(0,1)$ y $B_{n+1}\in M_{n+1}(-1,1)$ .

Un buen especialista en este campo es W. Orrick.

3voto

Ken Puntos 106

Para los finitos $n$ El valor esperado del determinante logarítmico es infinito, como señala D.A.N., porque la matriz es con probabilidad positiva singular. En su lugar, se puede hablar de cosas como el segundo momento del determinante, la distribución límite del determinante logarítmico y los límites de cola que dicen que es poco probable que se aleje de él.

Segundo momento : Resulta (como fue observado por primera vez en la década de 1940 por Turan) que $E(\det(A)^2)$ es mucho más fácil de analizar que $E(|\det A|)$ . Esto se debe a que \begin {eqnarray*} E( \det (A)^2) &=& E( \sum_ { \sigma } \sum_\tau \prod_ {i=1}^n (-1)^{sgn ( \sigma ) + sgn( \tau )} a_{i, \sigma (i)} a_{i, \tau (i)}) \\ &=& \sum_ { \sigma } \sum_ { \tau } (-1)^{sgn ( \sigma ) + sgn( \tau )} E( \prod_ {i=1}^n a_{i, \sigma (i)} a_{i, \tau (i)}) \end {eqnarray*} Si $\sigma \neq \tau$ Entonces, en algún lugar de ese producto hay una variable que aparece exactamente una vez. Tiene media $0$ , por lo que todo el producto tiene expectación $0$ . Si por el contrario $\sigma=\tau$ entonces cada término del producto es igual a $1$ . Hay $n!$ opciones para $\sigma$ , por lo que tenemos $$E (\det (A^2) ) = n!$$

Limitación de la distribución: Se sabe que la distribución asintótica del determinante logarítmico es gaussiana, en el sentido de que para cualquier $t$ tenemos $$P\left( \frac{ \log \det (A A^T ) - \log ( (n-1)! ) }{\sqrt{ 2\log n}} < t \right) \rightarrow \Phi(t)$$

Esto fue originalmente publicado por Girko en 1997, pero la prueba de Girko es opaca y parece eludir algunos detalles técnicos por el camino. Resultados posteriores de Nguyen y Vu y Bao, Pan y Zhou rellenar las lagunas y dar una prueba más transparente.

Una cosa curiosa aquí es que la distribución gaussiana está centrada en $(n-1)!$ en lugar de $n!$ . De los teoremas centrales del límite se deduce que el determinante de $AA^T$ es con alta probabilidad $(n-1)! e^{O(\sqrt{ \log n} )}$ . Pero como vimos anteriormente, $E(\det(AA^T))=n!$ que se encuentra fuera de este intervalo. La principal contribución a la expectativa proviene de la cola superior de la distribución del determinante.

Límites de la cola El artículo de Nguyen y Vu da una cota sobre la tasa de convergencia que dice que la diferencia entre los dos lados de la ecuación anterior es como máximo $\log^{-1/3+o(1)} n$ . Sin embargo, esto no da un límite muy fuerte en la probabilidad de que el determinante esté muy lejos de la media. En este rango, un límite ligeramente más fuerte se debe a Vu y yo que demostró que para cualquier $B>0$ hay un $C>0$ tal que $$P(|\log \det(AA^T) - \log n!|)> C n^{2/3} \log n) \leq n^{-B}$$ Este límite es probablemente muy lejos de ser óptima -- la distribución límite anterior tenía una ventana de escala proporcional a $\sqrt{\log n}$ pero ahora estamos viendo desviaciones del orden de $n^{2/3}$ . De hecho, sospecho que, o bien debería ser posible extraer un resultado de desviación grande más fuerte a partir de las pruebas de los teoremas del límite central anteriores, o bien que alguien ya ha demostrado tal resultado, pero no conozco ninguno de antemano. Döring y Eichelsbacher dan un límite mucho más fuerte en la cola en el caso de que las entradas sean iid gaussianas en lugar de $\pm 1$ (véase la última sección de su documento).

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X