11 votos

¿Por qué las matrices antidiagonales / persimétricas no son tan importantes como las diagonales / simétricas?

Las matrices diagonales y la diagonalizabilidad son temas clave en el álgebra lineal, así como en el álgebra lineal numérica. Asimismo, las matrices simétricas tienen un montón de buenas propiedades que las hacen ampliamente estudiadas e importantes tanto teórica como computacionalmente.

Sin embargo, matrices antidiagonales parecen no ser más que una curiosidad del álgebra matricial. Mientras que la simetría a lo largo de la diagonal principal parece contar mucho, persimetría no parece contar mucho en absoluto.

¿Hay alguna razón para ello? Al fin y al cabo (y esto puede parecer ingenuo), ¿por qué una diagonal (de izquierda a derecha) debería importar tanto como la otra? ¿Se trata de un artefacto/convención que surge del desarrollo del álgebra matricial o refleja algo más profundo?

O bien, ¿son las matrices antidiagonales y per-simétricas mucho más importantes de lo que creo?

He estado pensando en esto y no he sido capaz de encontrar nada parecido a una respuesta satisfactoria.

7voto

Jukka Dahlbom Puntos 1219

No sé hasta qué punto será satisfactoria esta respuesta, pero lo intentaré de todos modos. La gracia, creo, es que aunque estas "propiedades diagonales" tienen tanto atractivo estético como sus contrapartes "antidiagonales", las propiedades diagonales resultan darnos información que es más útil para una matriz como se utiliza matemáticamente. Es decir, la simetría diagonal es una más natural que hay que buscar en el contexto del álgebra lineal.

En primer lugar, hay que tener en cuenta que todas estas propiedades son propiedades del cuadrado (es decir, $n \times n$ ), que son mapas lineales implícitos de $\Bbb F^n$ a $\Bbb F^n$ (es decir, que producir vectores de $n$ entradas de vectores de $n$ entradas).

Las propiedades que realmente nos interesan en el álgebra lineal son las que nos dicen algo sobre cómo interactúan las matrices con los vectores (y, en última instancia, con otras matrices).

Matrices diagonales

Las matrices diagonales son importantes porque describen una clase de transformaciones lineales especialmente agradable. En particular: $$ \pmatrix{d_1\\&d_2\\&&\ddots \\ &&& d_n} \pmatrix{x_1\\ x_2\\ \vdots \\ x_n} = \pmatrix{d_1 x_1\\ d_2 x_2\\ \vdots \\ d_n x_n} $$ Yo diría que lo que representa una matriz diagonal es el hecho de que cada uno de los $n$ Las variables necesarias para especificar un vector son desacoplado . Por ejemplo, para encontrar el nouveau $x_2$ Sólo hay que ver el antiguo $x_2$ y hacer lo que dice la matriz.

Cuando "diagonalizamos" una matriz, estamos encontrando una forma de describir cada vector (es decir, $n$ piezas de información" independientes) que están igualmente desacopladas en lo que respecta a la transformación. Así, por ejemplo, la matriz $$ A = \pmatrix{0&1\\4&0} $$ toma un vector $x = (x_1,x_2)$ y produce un nuevo vector $Ax = (x_2,2x_1)$ . Hay una bonita simetría en esto; en particular, aplicar $A$ nos da dos veces el vector $A^2 x = (2x_1,2x_2)$ es decir, que $A$ actúa como una matriz diagonal siempre que se aplique un número par de veces.

Sin embargo, yo diría que tenemos una imagen más clara de lo que $A$ lo hace si diagonalizar lo En particular, si escribimos un vector como $x = a_1(1,2) + a_2(1,-2)$ , $A$ nos da el nuevo vector $$ Ax = a_1 A(1,2) + a_2 A(2,1) = 2a_1(1,2) - 2a_1(1,-2) $$ En particular, si conocemos los dos datos $a_1$ et $a_2$ podemos calcular el nuevo vector utilizando estas piezas por separado sin hacerlos interactuar.

Así, vemos que esta antidiagonal $A$ es bonito pero sólo no es tan simple como la "versión diagonal" de la transformación.

Matrices simétricas

Las matrices simétricas son especialmente útiles cuando nos preocupamos por los productos escalares. Los productos punto son necesarios siempre que se quiera pensar en el ángulo entre vectores de alguna manera.

En particular: si definimos el producto punto $$ (x_1,\dots,x_n) \cdot (y_1,\dots,y_n) = x_1y_1 + \cdots x_n y_n $$ Entonces una simetría $A$ tendrá la propiedad de que $$ (Ax) \cdot y = x \cdot (Ay) $$ En última instancia, todo esto se conecta de nuevo a diagonal ya que toda matriz simétrica puede ser diagonalizada en el sentido descrito anteriormente. El hecho de que esto pueda hacerse se conoce como la teorema espectral .

Sin embargo, las matrices persimétricas no actúan de forma especialmente agradable con respecto a las operaciones habituales (como el producto punto).

3voto

chaiwalla Puntos 1132

$\newcommand{\dd}{\partial}$ Si $A$ es un $n \times n$ matriz, y si $x$ et $y$ son columnas que satisfacen $y = Ax$ entonces el $(i, j)$ -entrada de $A$ mide la "sensibilidad" de $y_{i}$ a los cambios en $x_{j}$ . Precisamente, si todas las variables, excepto $x_{j}$ se mantiene constante, entonces un cambio de $\Delta x_{j}$ en $x_{j}$ cambia $y_{i}$ por $A_{ij}y_{i}$ . (Esto es inmediato a partir de la definición de multiplicación de matrices, y explica por qué la matriz derivada de una función vectorial de $n$ tiene la derivada parcial $\dd y_{i}/\dd x_{j}$ dans le $(i, j)$ entrada).

Para decir $A$ es diagonal es decir $y_{i}$ depende sólo de $x_{i}$ la variable con el mismo índice . Esta condición es invariante bajo variables de reetiquetado. Por el contrario, la antidiagonalidad no es invariable bajo el reetiquetado.

No conozco una razón igualmente ingenua por la que la simetría sea tan importante, pero naturalmente la teorema espectral de las matrices garantiza que una matriz simétrica es diagonalizable ortogonalmente; es decir, hasta un cambio rotacional de variables, $A$ es diagonal.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X