11 votos

Maximizar la traza de productos mixtos de dos matrices simétricas reales

Sean $A$, $B$ dos matrices reales simétricas de $N \times N$ cuyas entradas son variables aleatorias independientes y distribuidas con una media de 0 y varianza de 1.

Sean $I, J$ enteros positivos pares, y sean $i_k, j_k$ para $k = 1,\ldots,n$ secuencias finitas de enteros positivos arbitrarios tales que $\sum i_k = I$ y $\sum j_k = J$.

¿Es cierto que

$\text{Tr} (A^I B^J) \geq \text{Tr}\left( A^{i_1} B^{j_1} \cdots A^{i_n} B^{j_n} \right) $?

He realizado extensos experimentos numéricos en Mathematica en matrices aleatorias reales simétricas grandes (10K x 10K) y no he podido encontrar un contraejemplo; me pregunto si esto podría establecerse en un sentido teórico.

1 votos

Revisé muchos $2\times 2$ aleatorios simétricos $A,B$ y siempre parece que $\text{tr}(AABB) \geq \text{tr}(ABAB)$. Para $A,B$ no simétricos, es falso alrededor del 71% del tiempo.

3 votos

@JairTaylor Sea $C=AB$. Entonces $tr(AABB)=tr(ABBA)=tr(CC^T)$ y $tr(ABAB)=tr(C^2)$. Ahora dividimos $C$ en su parte simétrica $H$ y parte skew symmetric $K$. Dado que $tr(HK)=tr(KH)=0$, tenemos que $$tr(CC^T)=tr(HH^T+KK^T)\ge tr(HH^T-KK^T)=tr(H^2+K^2)=tr(C^2).$$

4 votos

@JairTaylor O incluso más simple: $tr(CC^T)=\|C\|_F^2\ge\langle C,C^T\rangle=tr(C^2)$.

6voto

alberta Puntos 16

@DavidESpeyer La desigualdad es falsa para $A, B$ reales simétricas generales. Un ejemplo simple es el siguiente. Sea $P, Q$ dos proyecciones ortogonales en $\mathbb R^2$ tal que $0<\|PQ\|_F<\frac 12$ y sean $P', Q'$ las proyecciones ortogonales complementarias. Entonces $U=(P-P')(Q-Q')$ es un producto de dos reflexiones, es decir, una rotación y podemos organizarlo fácilmente para que sea una rotación por un múltiplo irracional de $\pi$. Entonces, para todo vector unitario $x$, la órbita $U^mx:m\ge 0$ es densa en el círculo unitario.

En particular, si $x$ es un vector unitario tal que $Qx=x$ y $y$ es un vector unitario tal que $Py=y$, entonces podemos encontrar un $m$ de modo que $U^mx\approx y$ y, por lo tanto, $\|PU^mQ\|\approx 1$ incluso para la norma del operador.

Ahora elige un $a\in(0,1)$ tan cercano a $1$ que lo mismo se cumple para $U_a=(P-aP')(Q-aQ')$ en lugar de $U$. Finalmente, pon $A=P-aP', B=Q-aQ'$ y elige un exponente $N$ lo suficientemente grande para que $A^n\approx P$ y $B^n\approx Q$ para todo $n\ge N$. Entonces $$ \|A^N(AB)^mB^N\|_F\approx \|PU_a^m Q\|_F\ge \|PU_a^mQ\|\approx 1 \\ >\frac 12>\|PQ\|_F\approx \|A^{N+m}B^{N+m}\|_F $$ Sin embargo, no puedo usar este truco con $A, B$ definidas positivas, por lo que ese caso aún queda por investigar.

Edit Aquí hay un contraejemplo en $\mathbb R^3$ para el caso semidefinido positivo. Sea $x, y$ dos vectores unitarios ortogonales en $\mathbb R^3$ y sea $z$ el vector unitario linealmente independiente de $x, y$ y que forma un ángulo de $\pi/3$ con ambos (el valor exacto del ángulo no es importante siempre que sea estrictamente menor que $\pi/2$). Para los vectores unitarios $u, v$, sea $P_u$ la proyección ortogonal a la recta generada por $u$ y sea $P_{uv}$ la proyección ortogonal al plano generado por $u$ y $v$.

Note que $(P_{xz}P_{yz})^m\to P_z$ conforme $m\to\infty$. Elije un $m$ grande de modo que $(P_{xz}P_{yz})^m\approx P_z$ con alta precisión. Ahora deja que $x'$ sea el vector unitario ortogonal a $x$ en el plano generado por $x,z$ y deja que $y'$ sea el vector unitario ortogonal a $y$ en el plano generado por $y,z$. Tenemos que $P_{xz}=P_x+P_{x'}$ y de forma similar para $P_{yz}$. Elige un $a\in (0,1)$ tan cercano a $1$ que los operadores $A=P_x+aP_{x'}$ y $B=P_y+aP_{y'}$ aún cumplan con $(AB)^m\approx P_z$. Luego elige un $N$ tal que para todo $n\ge N$, tengamos $A^n\approx P_x$, $B^n\approx P_y$. Entonces $$ \|A^N(AB)^mB^N\|_F\approx\|P_xP_zP_y\|_F=\frac 14 \\ >0=\|P_xP_y\|_F\approx \|A^{N+m}B^{N+m}\|_F\,. $$
Así que no hay esperanzas para la versión general del problema incluso para matrices definidas positivas. Sin embargo, para matrices definidas positivas hay dos afirmaciones que son verdaderas y no muy difíciles de probar:

(1) La conjetura se cumple en $\mathbb R^2$ (por lo tanto, mi contraejemplo tridimensional es mínimo)

(2) Si $\alpha_j\ge 0, \sum_j \alpha_j=1$, entonces para cualquier matriz definida positiva $A, B$ en cualquier dimensión, tenemos $$ \|C_1\dots C_m\|_F\le \|AB\|_F $$ donde cada $C_j$ es o bien $A^{\alpha_j}B^{\alpha_j}$ o $B^{\alpha_j}A^{\alpha_j}$. Esto se encarga de los productos como $AB^2AB$, pero no de $A^2BAB$, por ejemplo. Me pregunto si este tipo restringido de productos es en realidad lo mejor que podemos confirmar para la conjetura.

0 votos

¡Muy bien! He estado pensando en el caso positivo definido. ¿Crees que podría ser cierto que $\log | A^{\alpha_1} B^{\beta_2} \cdots A^{\alpha_r} B^{\beta_r} |_F$ es una función convexa de $(\vec{\alpha}, \vec{\beta})$ en $\mathbb{R}_{\geq 0}^{2r}$?

0 votos

@DavidESpeyer ¡Ay, no! Mira la edición.

0 votos

Con esta receta aquí hay un contraejemplo explícito a la conjetura de @DavidESpeyer: $A =\begin{pmatrix} 1 & 0 \\ 0 & -.9 \end{pmatrix}$, $B =\begin{pmatrix} -0.35 & 0.86 \\ 0.86 & 0.45 \end{pmatrix}$, $|A^{10} ABABB^{10}|_F > |A^{12} B^{12}|_F$. Sin embargo, si entiendo correctamente, la pregunta del OP todavía está abierta.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X