No sé hasta qué punto será satisfactoria esta respuesta, pero lo intentaré de todos modos. La gracia, creo, es que aunque estas "propiedades diagonales" tienen tanto atractivo estético como sus contrapartes "antidiagonales", las propiedades diagonales resultan darnos información que es más útil para una matriz como se utiliza matemáticamente. Es decir, la simetría diagonal es una más natural que hay que buscar en el contexto del álgebra lineal.
En primer lugar, hay que tener en cuenta que todas estas propiedades son propiedades del cuadrado (es decir, $n \times n$ ), que son mapas lineales implícitos de $\Bbb F^n$ a $\Bbb F^n$ (es decir, que producir vectores de $n$ entradas de vectores de $n$ entradas).
Las propiedades que realmente nos interesan en el álgebra lineal son las que nos dicen algo sobre cómo interactúan las matrices con los vectores (y, en última instancia, con otras matrices).
Matrices diagonales
Las matrices diagonales son importantes porque describen una clase de transformaciones lineales especialmente agradable. En particular: $$ \pmatrix{d_1\\&d_2\\&&\ddots \\ &&& d_n} \pmatrix{x_1\\ x_2\\ \vdots \\ x_n} = \pmatrix{d_1 x_1\\ d_2 x_2\\ \vdots \\ d_n x_n} $$ Yo diría que lo que representa una matriz diagonal es el hecho de que cada uno de los $n$ Las variables necesarias para especificar un vector son desacoplado . Por ejemplo, para encontrar el nouveau $x_2$ Sólo hay que ver el antiguo $x_2$ y hacer lo que dice la matriz.
Cuando "diagonalizamos" una matriz, estamos encontrando una forma de describir cada vector (es decir, $n$ piezas de información" independientes) que están igualmente desacopladas en lo que respecta a la transformación. Así, por ejemplo, la matriz $$ A = \pmatrix{0&1\\4&0} $$ toma un vector $x = (x_1,x_2)$ y produce un nuevo vector $Ax = (x_2,2x_1)$ . Hay una bonita simetría en esto; en particular, aplicar $A$ nos da dos veces el vector $A^2 x = (2x_1,2x_2)$ es decir, que $A$ actúa como una matriz diagonal siempre que se aplique un número par de veces.
Sin embargo, yo diría que tenemos una imagen más clara de lo que $A$ lo hace si diagonalizar lo En particular, si escribimos un vector como $x = a_1(1,2) + a_2(1,-2)$ , $A$ nos da el nuevo vector $$ Ax = a_1 A(1,2) + a_2 A(2,1) = 2a_1(1,2) - 2a_1(1,-2) $$ En particular, si conocemos los dos datos $a_1$ et $a_2$ podemos calcular el nuevo vector utilizando estas piezas por separado sin hacerlos interactuar.
Así, vemos que esta antidiagonal $A$ es bonito pero sólo no es tan simple como la "versión diagonal" de la transformación.
Matrices simétricas
Las matrices simétricas son especialmente útiles cuando nos preocupamos por los productos escalares. Los productos punto son necesarios siempre que se quiera pensar en el ángulo entre vectores de alguna manera.
En particular: si definimos el producto punto $$ (x_1,\dots,x_n) \cdot (y_1,\dots,y_n) = x_1y_1 + \cdots x_n y_n $$ Entonces una simetría $A$ tendrá la propiedad de que $$ (Ax) \cdot y = x \cdot (Ay) $$ En última instancia, todo esto se conecta de nuevo a diagonal ya que toda matriz simétrica puede ser diagonalizada en el sentido descrito anteriormente. El hecho de que esto pueda hacerse se conoce como la teorema espectral .
Sin embargo, las matrices persimétricas no actúan de forma especialmente agradable con respecto a las operaciones habituales (como el producto punto).