Sea $A_i \in \operatorname{Mat}_{n \times n}(\mathbb{R})$ , $A_i = (A_i)^T$ para $i \in \{1, \dots, n\}$ . Sea $\sum_{i = 1}^{n}{A_i} = E$ (identidad), $\sum_{i = 1}^{n}{\operatorname{rk} (A_i)} = n$ . ¿Cómo se puede probar que $\forall i \neq j A_i \times A_j = 0$ ?
Respuesta
¿Demasiados anuncios?Desde $\sum\limits_{i = 1}^{n}{\operatorname{rk} (A_i)} = n$ y $\sum\limits_{i = 1}^{n}{A_i} = E$ vemos que $\mathrm{im} A_{i} \cap \mathrm{im} A_{j} = 0$ para $i\neq j$ . Desde $A_i$ es simétrica, es diagonal en alguna base $v_1, ..., v_n$ . Si $\mathrm{rk} A_i = k$ entonces hay $k$ vectores $v_1, ..., v_k$ para lo cual $Av_i = \lambda_i v_i$ con $\lambda_i$ Elijámoslos para cada matriz $A_i$ , juntos consiguiendo $n$ vectores. Afirmo que son linealmente independientes, en efecto: su tramo contiene la imagen de $A_1 + ... + A_n$ que está entero $\mathbb{R}^{n}$ . Ahora, ¿cómo se ven las matrices en esta base? $$ A_i= \left[ \begin{array}{c|c|c} 0 & 0 & 0\\ \hline \mathrm{something} & \mathrm{diag}(\lambda_1, ..., \lambda_k) & \mathrm{something} \\ \hline 0 & 0 & 0 \end{array} \right] $$ Y por cada $i$ las filas distintas de cero son diferentes. Pero todas $A_i$ suman $E$ Así que $\mathrm{something} = 0$ en cada matriz, y todas las lambdas son $1$ y tales matrices conmutan.
El argumento anterior era el siguiente y carece de razonamiento como se ha señalado en los comentarios: Corrige $i$ ya que $A_{i}$ es simétrico, es diagonal en alguna base, con entradas diagonales no nulas que van primero (digamos que hay $k$ de ellos) y cero entradas que van después (por lo tanto, todo lo que está por debajo de primero $k$ filas es $0$ ). En esta base, todos los demás $A_{j}$ tendrá que tener primero $k$ filas siendo $0$ de lo contrario su imagen se cruzaría con la imagen de $A_{i}$ . Pero entonces $A_{i}A_{j} = 0$ trivialmente.