Tengo curiosidad acerca de un aparentemente simple identidad en el álgebra matricial. A pesar de la multiplicación de matrices no es conmutativa (el ejemplo clásico de noncommutativity, deja una conmutatividad de la clase en torno a un muy específicos de la tercera matriz:
$$ \color{blue}{A (a + B)^{-1} B} = \color{blue}{B (a + B)^{-1}} $$
Hay una muy simple prueba algebraica:
$$ \begin{eqnarray} \color{blue}{A (A + B)^{-1} B} + \color{red}{B (A + B)^{-1} B} &=& (A + B)(A + B)^{-1} B\\ &=& B\\ &=& B (A + B)^{-1} (A + B) \\ &=& \color{blue}{B (A + B)^{-1} A} + \color{red}{B (A + B)^{-1} B}\\ \end{eqnarray} $$
porque la suma de la matriz es conmutativa. La identidad de la siguiente manera por la cancelación de $B (A + B)^{-1} B$. (Si hay una manera más simple lineal de la prueba, dicen, sin necesidad de cancelación, por favor decirlo. Que extra extraño de la matriz, mientras que, obviamente, mirando a la derecha y, obviamente, hacer el trabajo, sólo se sale de la nada. O no?)
El álgebra es ciego manipulación de símbolos. La identidad tiene en cualquier abstracto anillo con los inversos multiplicativos. Pero para un modelo determinado, la identidad, dice algo acerca de ese modelo. Sólo he visto la identidad en el contexto de las matrices, pero no veo qué tiene de especial allí.
Lo que hace esta identidad para hacer matrices?
Hay algo, en la teoría de la matriz, por lo que este tiene de especial? ¿Alguna vez realmente llegar en las pruebas? $(A+B)^{-1}$ no puede ser la única matrices que permiten que esa cuasi-conmutatividad, ¿no? Hay una visualización o interpretación geométrica o un significativo nada la interpretación?