15 votos

Interpretación geométrica verdaderamente intuitiva de la transposición de una matriz cuadrada

Busco una interpretación fácilmente comprensible de la transposición de una matriz cuadrada A. Una demostración visual intuitiva, como $A^{T}$ se relaciona con A. Quiero ser capaz de visualizar instantáneamente en mi mente lo que estoy haciendo al espacio cuando transpongo los vectores de una matriz.

Por experiencia, la comprensión de los conceptos de álgebra lineal en dos dimensiones suele ser suficiente para entender los conceptos en cualquier dimensión superior, por lo que una explicación para los espacios bidimensionales debería ser suficiente, creo.

Todas las explicaciones que he encontrado hasta ahora no eran lo suficientemente intuitivas, ya que quiero ser capaz de imaginar al instante (y dibujar) cómo $A^{T}$ parece que se da la A. No soy matemático, por cierto.

Esto es lo que he encontrado hasta ahora (pero no es lo suficientemente intuitivo para mí)

  1. (Ax) $\cdot$ y= $(Ax)^{T}$ y= $x^{T}A^{T}$ y=x $\cdot$$ A^{T}$y

Por lo que entiendo el producto punto es una proyección (x sobre y, y sobre x, ambas interpretaciones tienen el mismo resultado) seguido de un escalado por la longitud del otro vector.

Esto significaría que mapear x en el espacio A y proyectar y en el resultado es lo mismo que mapear y en el espacio de $A^{T}$ y, a continuación, proyectar la x no mapeada en $A^{T}$ y

Así que $A^{T}$ es el espacio específico B para cualquier par de vectores (x,y) tal que Ax $\cdot$ y=x $\cdot$ Por

Esto no me dice al instante cómo $A^{T}$ dibujado como vectores se vería basado en A dibujado como vectores.

  1. "reasignación de dimensiones"

Esta es difícil de explicar, así que déjame hacerlo con un dibujo:

proyecciones paralelas

Esta explicación es mucho más visual, pero demasiado desordenada para hacerlo en mi cabeza al instante. También hay múltiples formas en las que podría haber girado y dispuesto los vectores en torno al resultado $A^{T}$ que se representa en el centro. Además, no parece que me haga entender realmente la transposición de matrices, especialmente en dimensiones superiores.

  1. algún tipo de rotación extraña

Las matrices simétricas pueden descomponerse en una rotación, escalando a lo largo de los vectores propios $\Lambda$ y una rotación hacia atrás

A=R $\Lambda$$ R^{T}$

Así que en este caso concreto, la transposición es una rotación en el sentido contrario al original. No sé cómo generalizar eso a matrices arbitrarias. Supongo que si A ya no es simétrica, $R^{T}$ también debe incluir algunas operaciones adicionales además de la rotación.

¿Puede alguien ayudarme a encontrar una forma de imaginar/dibujar fácil e instantáneamente cómo $A^{T}$ parece dado A en un espacio bidimensional? (En una forma de entender que sea generalizable a dimensiones superiores)

Editar 1: Mientras trabajaba en el problema tenía curiosidad por ver qué B en

$BA=A^{T}$

parece. B describiría lo que hay que hacer a A para transponerlo geométricamente. Mi resultado temporal parece interesante, pero todavía estoy tratando de llevarlo a una forma interpretable. Si asumimos el siguiente orden de indexación

$$A= \begin{bmatrix} a_{11} & a_{12} \\ a_{21} & a_{22} \\ \end{bmatrix} $$

y $det(A)\neq0$ puis

$$B=\frac{1}{det(A)} \begin{bmatrix} a_{11} a_{22} - a_{21}^2 & a_{11} (a_{21} - a_{12}) \\ a_{22} (a_{12} - a_{21}) & a_{11} a_{22} - a_{12}^2 \\ \end{bmatrix} $$

Lo que se ve a primera vista es que $\frac{1}{det(A)}$ provoca un escalado tal que el área se convierte exactamente en 1 (antes de aplicar la matriz real).

B también debe preservar la zona como $det(A^{T})=det(A)$ . Esto significa que la matriz

$B'=\begin{bmatrix} a_{11} a_{22} - a_{21}^2 & a_{11} (a_{21} - a_{12}) \\ a_{22} (a_{12} - a_{21}) & a_{11} a_{22} - a_{12}^2 \\ \end{bmatrix}$

cuadra el área mientras se transpone.

Editar 2:

La misma matriz puede escribirse como

$B'=\begin{bmatrix} \begin{bmatrix} a_{11} & a_{21} \\ \end{bmatrix} \begin{bmatrix} a_{22} \\ -a_{21} \\ \end{bmatrix} & \begin{bmatrix} a_{11} & a_{21} \\ \end{bmatrix} \begin{bmatrix} -a_{12} \\ a_{11} \\ \end{bmatrix} \\ \begin{bmatrix} a_{21} & a_{22} \\ \end{bmatrix} \begin{bmatrix} a_{22} \\ -a_{21} \\ \end{bmatrix} & \begin{bmatrix} a_{12} & a_{22} \\ \end{bmatrix} \begin{bmatrix} -a_{12} \\ a_{11} \\ \end{bmatrix} \\ \end{bmatrix}$

Que es

$B'=\begin{bmatrix} a_{1}^{T} \begin{bmatrix} a_{22} \\ -a_{21} \\ \end{bmatrix} & a_{1}^{T} \begin{bmatrix} -a_{12} \\ a_{11} \\ \end{bmatrix} \\ a_{2}^{T} \begin{bmatrix} a_{22} \\ -a_{21} \\ \end{bmatrix} & a_{2}^{T} \begin{bmatrix} -a_{12} \\ a_{11} \\ \end{bmatrix} \\ \end{bmatrix}= \begin{bmatrix} a_{1}\cdot \begin{bmatrix} a_{22} \\ -a_{21} \\ \end{bmatrix} & a_{1}\cdot \begin{bmatrix} -a_{12} \\ a_{11} \\ \end{bmatrix} \\ a_{2}\cdot \begin{bmatrix} a_{22} \\ -a_{21} \\ \end{bmatrix} & a_{2}\cdot \begin{bmatrix} -a_{12} \\ a_{11} \\ \end{bmatrix} \\ \end{bmatrix}$

Encuentro los vectores $c_{1}=\begin{bmatrix} a_{22} \\ -a_{21} \\ \end{bmatrix}$ y $c_{2}=\begin{bmatrix} -a_{12} \\ a_{11} \\ \end{bmatrix}$ interesante. Al dibujarlos parece que sólo tengo que girar cada uno 90 grados en diferentes direcciones para terminar con los vectores de columna transpuestos.

Edita 3:

Tal vez me engañe a mí mismo, pero creo que me estoy acercando. El espacio de la columna

$C= \begin{bmatrix} c_{1} & c_{2} \\ \end{bmatrix} = \begin{bmatrix} a_{22} & -a_{12} \\ -a_{21} & a_{11} \\ \end{bmatrix}$

está relacionado con $A^{-1}$ porque:

$AC=\begin{bmatrix} a_{11} & a_{12} \\ a_{21} & a_{22} \\ \end{bmatrix} \cdot \begin{bmatrix} a_{22} & -a_{12} \\ -a_{21} & a_{11} \\ \end{bmatrix} = \begin{bmatrix} det(A) & 0 \\ 0 & det(A) \\ \end{bmatrix} =det(A) I$

Así que

$C=A^{-1}det(A)$

B' también puede escribirse así:

$B'=\begin{bmatrix} \begin{bmatrix} \begin{bmatrix} a_{11} & a_{12} \\ a_{21} & a_{22} \\ \end{bmatrix} & \begin{bmatrix} a_{22} \\ -a_{21} \\ \end{bmatrix} \end{bmatrix} \\ \begin{bmatrix} \begin{bmatrix} a_{11} & a_{12} \\ a_{21} & a_{22} \\ \end{bmatrix} & \begin{bmatrix} -a_{12} \\ a_{11} \\ \end{bmatrix} \end{bmatrix} \end{bmatrix} = \begin{bmatrix} \begin{bmatrix} \begin{bmatrix} a_{11} & a_{12} \\ a_{21} & a_{22} \\ \end{bmatrix} & c_{1} \end{bmatrix} \\ \begin{bmatrix} \begin{bmatrix} a_{11} & a_{12} \\ a_{21} & a_{22} \\ \end{bmatrix} & c_{2} \end{bmatrix} \end{bmatrix}$

o así

$B'=\begin{bmatrix} \begin{bmatrix} a_{11} & a_{21} \\ \end{bmatrix} & \begin{bmatrix} a_{22} & -a_{12} \\ -a_{21} & a_{11} \\ \end{bmatrix} \\ \begin{bmatrix} a_{21} & a_{22} \\ \end{bmatrix} & \begin{bmatrix} a_{22} & -a_{12} \\ -a_{21} & a_{11} \\ \end{bmatrix} \\ \end{bmatrix} = \begin{bmatrix} a_1^{T} & \begin{bmatrix} c_{1} & c_{2} \\ \end{bmatrix} \\ a_2^{T} & \begin{bmatrix} c_{1} & c_{2} \\ \end{bmatrix} \\ \end{bmatrix} = \begin{bmatrix} a_1^{T}C \\ a_2^{T}C \\ \end{bmatrix} = det(A) \begin{bmatrix} a_1^{T}A^{-1} \\ a_2^{T}A^{-1} \\ \end{bmatrix}$

Por lo tanto, para $BA=A^{T}$ tenemos

$B=\begin{bmatrix} a_1^{T}A^{-1} \\ a_2^{T}A^{-1} \\ \end{bmatrix}$

Edita 4:

Creo que pronto publicaré mi propia respuesta. Siguiendo el camino de $A^{-1}$ tuvo la idea de que se puede aprovechar la simetría de de $AA^{T}$ . La simetría significa que $AA^{T}$ se descompone mejor:

$AA^{T} = R_{AA^{T}} \Lambda_{AA^{T}} (R^{-1})_{AA^{T}}$

Ahora bien, si se multiplican ambos lados por $A^{-1}$ obtendrás

$A^{T} = A^{-1} R_{AA^{T}} \Lambda_{AA^{T}} (R^{-1})_{AA^{T}}$

Cuando hago un ejemplo con números también puedo ver que en mi ejemplo $R_{AA^{T}} = (R^{-1})_{AA^{T}}$

$R_{AA^{T}}$ refleja el espacio a lo largo del eje y y luego gira en algún ángulo $\alpha$ Así que mi sospecha ahora mismo es:

$A^{T}=A^{-1} R_{AA^{T}} \Lambda_{AA^{T}} R_{AA^{T}}$

Ahora bien, si defino

$R_{AA^{T}}^{'} = \begin{bmatrix} cos \alpha & -sin \alpha \\ sin \alpha & cos \alpha \\ \end{bmatrix}$

para sacar el reflejo de la matriz $R_{AA^{T}}$ entonces obtengo

$A^{T}=A^{-1} R_{AA^{T}}^{'} \begin{bmatrix} -1 & 0 \\ 0 & 1 \\ \end{bmatrix} \Lambda_{AA^{T}} R_{AA^{T}}^{'} \begin{bmatrix} -1 & 0 \\ 0 & 1 \\ \end{bmatrix} $

Así que en general

$A^{T}=A^{-1} R_{\alpha} M_y \Lambda R_{\alpha} M_y$

Con $M_y$ siendo el reflejo a lo largo del eje y, $R_{\alpha}$ alguna rotación en sentido contrario a las agujas del reloj por $\alpha$ y $\Lambda$ algunas escalas

0 votos

Lo más natural que se me ocurre tiene que ver con la dualización de objetos, pero eso no tiene mucho sentido geométrico. En cuanto a tu tercera idea, puede que sólo tenga sentido para las matrices ortogonales.

4 votos

En lugar de mirar las acciones de la matriz y su transposición directamente, las relaciones de los subespacios fundamentales podrían darte las ideas geométricas que buscas: el espacio de columnas de la transposición es el complemento ortogonal del espacio nulo y el espacio nulo de la transposición es el complemento ortogonal del espacio de columnas. Recordemos también que el espacio de columnas de una matriz es la imagen del mapa lineal que representa.

0 votos

7voto

user32262 Puntos 2147

Una descripción geométrica de $A^T$ puede obtenerse de la Descomposición SVD (esto será similar a su tercer punto). Cualquier matriz cuadrada $A \in M_n(\mathbb{R})$ puede escribirse como un producto $A = S \Lambda R^T$ donde $\Lambda$ es diagonal con entradas no negativas y ambos $S,R$ son matrices ortogonales. Las entradas diagonales de $\Lambda$ se denominan valores singulares de $A$ mientras que las columnas de $S$ y $R$ se denominan vectores singulares izquierdos de $A$ y los vectores singulares derechos de $A$ respectivamente y pueden calcularse explícitamente (o al menos tan explícitamente como se pueden calcular los valores y vectores propios). Utilizando esta descomposición, podemos describir $A^T$ como

$$ A^T = (S\Lambda R^T)^T = R \Lambda S^T. $$

¿Qué significa esto geométricamente? Supongamos, para simplificar, que $n = 2$ (o $n = 3$ ) y que $\det S = \det R = 1$ así que $R,S$ son rotaciones. Si $A$ es simétrica, podemos escribir $A = R \Lambda R^T$ donde $R$ es una rotación y $\Lambda$ es diagonal. Geométricamente, esto describe la acción de $A$ como la composición de tres operaciones:

  1. Realizar la rotación $R^T$ .
  2. Estirar cada uno de los ejes de coordenadas $e_i$ por un factor $\lambda_i$ (que es el $(i,i)$ -entrada de $\Lambda$ ).
  3. Por último, realice la rotación $R$ que es la inversa de la rotación $R^T$ .

En otras palabras, $A$ actúa girando, estirando los vectores base estándar y volviendo a girar.

Cuando $A$ no es simétrica, no podemos tener una descripción de este tipo sino la descomposición $A = S \Lambda R^T$ nos da la siguiente cosa mejor. describe la acción de $A$ como la composición de tres operaciones:

  1. En primer lugar, realice la rotación $R^T$ .
  2. Estirar cada uno de los ejes de coordenadas $e_i$ por un factor $\sigma_i$ (que es el $(i,i)$ -entrada de $\Lambda$ ).
  3. Por último, realice una rotación diferente $S$ que no es necesariamente la inversa de $R^T$ .

A diferencia de lo que ocurre cuando $A$ era simétrico, aquí $R \neq S$ por lo que la acción de $A$ es una rotación, seguida de un estiramiento y luego de otra rotación. La acción de $A^T = R\Lambda S^T$ se obtiene entonces invirtiendo los papeles de $R,S$ manteniendo los mismos factores de estiramiento. A saber, $A$ gira por $R^T$ , se extiende por $\Lambda$ y gira por $S$ mientras que $A^T$ gira por $S^T$ , se extiende por $\Lambda$ y gira por $R$ .

0 votos

Buena explicación aunque las matrices unitarias no tienen por qué ser rotaciones en sentido geométrico, podrían ser combinaciones de rotaciones y reflexiones y quizás también otras cosas. Lo único que sabemos de ellas es que tienen $R^tR = I$ , $S^tS=I$

0 votos

@mathreadler: Sí, por eso he restringido la discusión a $n=2,3$ y $\det R = \det S = 1$ . En este caso, las matrices ortogonales correspondientes son realmente rotaciones tal y como las imaginamos.

0 votos

No estoy seguro de lo que termina siendo S en el caso general, ya que no es sólo una rotación, ¿verdad? ¿O es así? Si $S^{T}S=I$ entonces son ortogonales pero... hmm...

4voto

Bart Vanderbeke Puntos 16

Al tratar de comprender la relación entre $A$ , $A^T$ y $A^{-1}$ He creado el gráfico adjunto
Para $A^T$ esto dice:

  • $\mathcal{r}_{U^T}$ es la rotación realizada por $U^T$
  • $\mathcal{s}_{\Sigma}$ es el escalado realizado por $\Sigma$
  • $\mathcal{r}_{V}$ es la rotación realizada por $V$

Los tres ejes muestran la descomposición SVD de las tres encarnaciones de $A$ .

  • Una línea verde entre dos ejes indica igualdad.
  • Una línea roja indica una contraposición.

En resumen, esto dice
" $A^T$ escalas como $A$ , pero gira como $A^{-1}$ ."
Así que, $A^T$ tiene más en común con $A^{-1}$ entonces tiene en común con $A$ .

No todas las matrices tienen una inversa.
Si la inversa no existe, la trama puede seguir haciéndose, sustituyendo $A^{-1}$ con $A^{\dagger}$ y $\Sigma^{-1}$ con $\Sigma^{\dagger}$ .
$A^{\dagger}$ es la inversa generalizada de $A$ .

Puede encontrar más detalles en: www.heavisidesdinner.com

relation between SVD of <span class=$A$ , $A^T$ y $A^-1$ ">

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X