Busco una interpretación fácilmente comprensible de la transposición de una matriz cuadrada A. Una demostración visual intuitiva, como $A^{T}$ se relaciona con A. Quiero ser capaz de visualizar instantáneamente en mi mente lo que estoy haciendo al espacio cuando transpongo los vectores de una matriz.
Por experiencia, la comprensión de los conceptos de álgebra lineal en dos dimensiones suele ser suficiente para entender los conceptos en cualquier dimensión superior, por lo que una explicación para los espacios bidimensionales debería ser suficiente, creo.
Todas las explicaciones que he encontrado hasta ahora no eran lo suficientemente intuitivas, ya que quiero ser capaz de imaginar al instante (y dibujar) cómo $A^{T}$ parece que se da la A. No soy matemático, por cierto.
Esto es lo que he encontrado hasta ahora (pero no es lo suficientemente intuitivo para mí)
- (Ax) $\cdot$ y= $(Ax)^{T}$ y= $x^{T}A^{T}$ y=x $\cdot$$ A^{T}$y
Por lo que entiendo el producto punto es una proyección (x sobre y, y sobre x, ambas interpretaciones tienen el mismo resultado) seguido de un escalado por la longitud del otro vector.
Esto significaría que mapear x en el espacio A y proyectar y en el resultado es lo mismo que mapear y en el espacio de $A^{T}$ y, a continuación, proyectar la x no mapeada en $A^{T}$ y
Así que $A^{T}$ es el espacio específico B para cualquier par de vectores (x,y) tal que Ax $\cdot$ y=x $\cdot$ Por
Esto no me dice al instante cómo $A^{T}$ dibujado como vectores se vería basado en A dibujado como vectores.
- "reasignación de dimensiones"
Esta es difícil de explicar, así que déjame hacerlo con un dibujo:
Esta explicación es mucho más visual, pero demasiado desordenada para hacerlo en mi cabeza al instante. También hay múltiples formas en las que podría haber girado y dispuesto los vectores en torno al resultado $A^{T}$ que se representa en el centro. Además, no parece que me haga entender realmente la transposición de matrices, especialmente en dimensiones superiores.
- algún tipo de rotación extraña
Las matrices simétricas pueden descomponerse en una rotación, escalando a lo largo de los vectores propios $\Lambda$ y una rotación hacia atrás
A=R $\Lambda$$ R^{T}$
Así que en este caso concreto, la transposición es una rotación en el sentido contrario al original. No sé cómo generalizar eso a matrices arbitrarias. Supongo que si A ya no es simétrica, $R^{T}$ también debe incluir algunas operaciones adicionales además de la rotación.
¿Puede alguien ayudarme a encontrar una forma de imaginar/dibujar fácil e instantáneamente cómo $A^{T}$ parece dado A en un espacio bidimensional? (En una forma de entender que sea generalizable a dimensiones superiores)
Editar 1: Mientras trabajaba en el problema tenía curiosidad por ver qué B en
$BA=A^{T}$
parece. B describiría lo que hay que hacer a A para transponerlo geométricamente. Mi resultado temporal parece interesante, pero todavía estoy tratando de llevarlo a una forma interpretable. Si asumimos el siguiente orden de indexación
$$A= \begin{bmatrix} a_{11} & a_{12} \\ a_{21} & a_{22} \\ \end{bmatrix} $$
y $det(A)\neq0$ puis
$$B=\frac{1}{det(A)} \begin{bmatrix} a_{11} a_{22} - a_{21}^2 & a_{11} (a_{21} - a_{12}) \\ a_{22} (a_{12} - a_{21}) & a_{11} a_{22} - a_{12}^2 \\ \end{bmatrix} $$
Lo que se ve a primera vista es que $\frac{1}{det(A)}$ provoca un escalado tal que el área se convierte exactamente en 1 (antes de aplicar la matriz real).
B también debe preservar la zona como $det(A^{T})=det(A)$ . Esto significa que la matriz
$B'=\begin{bmatrix} a_{11} a_{22} - a_{21}^2 & a_{11} (a_{21} - a_{12}) \\ a_{22} (a_{12} - a_{21}) & a_{11} a_{22} - a_{12}^2 \\ \end{bmatrix}$
cuadra el área mientras se transpone.
Editar 2:
La misma matriz puede escribirse como
$B'=\begin{bmatrix} \begin{bmatrix} a_{11} & a_{21} \\ \end{bmatrix} \begin{bmatrix} a_{22} \\ -a_{21} \\ \end{bmatrix} & \begin{bmatrix} a_{11} & a_{21} \\ \end{bmatrix} \begin{bmatrix} -a_{12} \\ a_{11} \\ \end{bmatrix} \\ \begin{bmatrix} a_{21} & a_{22} \\ \end{bmatrix} \begin{bmatrix} a_{22} \\ -a_{21} \\ \end{bmatrix} & \begin{bmatrix} a_{12} & a_{22} \\ \end{bmatrix} \begin{bmatrix} -a_{12} \\ a_{11} \\ \end{bmatrix} \\ \end{bmatrix}$
Que es
$B'=\begin{bmatrix} a_{1}^{T} \begin{bmatrix} a_{22} \\ -a_{21} \\ \end{bmatrix} & a_{1}^{T} \begin{bmatrix} -a_{12} \\ a_{11} \\ \end{bmatrix} \\ a_{2}^{T} \begin{bmatrix} a_{22} \\ -a_{21} \\ \end{bmatrix} & a_{2}^{T} \begin{bmatrix} -a_{12} \\ a_{11} \\ \end{bmatrix} \\ \end{bmatrix}= \begin{bmatrix} a_{1}\cdot \begin{bmatrix} a_{22} \\ -a_{21} \\ \end{bmatrix} & a_{1}\cdot \begin{bmatrix} -a_{12} \\ a_{11} \\ \end{bmatrix} \\ a_{2}\cdot \begin{bmatrix} a_{22} \\ -a_{21} \\ \end{bmatrix} & a_{2}\cdot \begin{bmatrix} -a_{12} \\ a_{11} \\ \end{bmatrix} \\ \end{bmatrix}$
Encuentro los vectores $c_{1}=\begin{bmatrix} a_{22} \\ -a_{21} \\ \end{bmatrix}$ y $c_{2}=\begin{bmatrix} -a_{12} \\ a_{11} \\ \end{bmatrix}$ interesante. Al dibujarlos parece que sólo tengo que girar cada uno 90 grados en diferentes direcciones para terminar con los vectores de columna transpuestos.
Edita 3:
Tal vez me engañe a mí mismo, pero creo que me estoy acercando. El espacio de la columna
$C= \begin{bmatrix} c_{1} & c_{2} \\ \end{bmatrix} = \begin{bmatrix} a_{22} & -a_{12} \\ -a_{21} & a_{11} \\ \end{bmatrix}$
está relacionado con $A^{-1}$ porque:
$AC=\begin{bmatrix} a_{11} & a_{12} \\ a_{21} & a_{22} \\ \end{bmatrix} \cdot \begin{bmatrix} a_{22} & -a_{12} \\ -a_{21} & a_{11} \\ \end{bmatrix} = \begin{bmatrix} det(A) & 0 \\ 0 & det(A) \\ \end{bmatrix} =det(A) I$
Así que
$C=A^{-1}det(A)$
B' también puede escribirse así:
$B'=\begin{bmatrix} \begin{bmatrix} \begin{bmatrix} a_{11} & a_{12} \\ a_{21} & a_{22} \\ \end{bmatrix} & \begin{bmatrix} a_{22} \\ -a_{21} \\ \end{bmatrix} \end{bmatrix} \\ \begin{bmatrix} \begin{bmatrix} a_{11} & a_{12} \\ a_{21} & a_{22} \\ \end{bmatrix} & \begin{bmatrix} -a_{12} \\ a_{11} \\ \end{bmatrix} \end{bmatrix} \end{bmatrix} = \begin{bmatrix} \begin{bmatrix} \begin{bmatrix} a_{11} & a_{12} \\ a_{21} & a_{22} \\ \end{bmatrix} & c_{1} \end{bmatrix} \\ \begin{bmatrix} \begin{bmatrix} a_{11} & a_{12} \\ a_{21} & a_{22} \\ \end{bmatrix} & c_{2} \end{bmatrix} \end{bmatrix}$
o así
$B'=\begin{bmatrix} \begin{bmatrix} a_{11} & a_{21} \\ \end{bmatrix} & \begin{bmatrix} a_{22} & -a_{12} \\ -a_{21} & a_{11} \\ \end{bmatrix} \\ \begin{bmatrix} a_{21} & a_{22} \\ \end{bmatrix} & \begin{bmatrix} a_{22} & -a_{12} \\ -a_{21} & a_{11} \\ \end{bmatrix} \\ \end{bmatrix} = \begin{bmatrix} a_1^{T} & \begin{bmatrix} c_{1} & c_{2} \\ \end{bmatrix} \\ a_2^{T} & \begin{bmatrix} c_{1} & c_{2} \\ \end{bmatrix} \\ \end{bmatrix} = \begin{bmatrix} a_1^{T}C \\ a_2^{T}C \\ \end{bmatrix} = det(A) \begin{bmatrix} a_1^{T}A^{-1} \\ a_2^{T}A^{-1} \\ \end{bmatrix}$
Por lo tanto, para $BA=A^{T}$ tenemos
$B=\begin{bmatrix} a_1^{T}A^{-1} \\ a_2^{T}A^{-1} \\ \end{bmatrix}$
Edita 4:
Creo que pronto publicaré mi propia respuesta. Siguiendo el camino de $A^{-1}$ tuvo la idea de que se puede aprovechar la simetría de de $AA^{T}$ . La simetría significa que $AA^{T}$ se descompone mejor:
$AA^{T} = R_{AA^{T}} \Lambda_{AA^{T}} (R^{-1})_{AA^{T}}$
Ahora bien, si se multiplican ambos lados por $A^{-1}$ obtendrás
$A^{T} = A^{-1} R_{AA^{T}} \Lambda_{AA^{T}} (R^{-1})_{AA^{T}}$
Cuando hago un ejemplo con números también puedo ver que en mi ejemplo $R_{AA^{T}} = (R^{-1})_{AA^{T}}$
$R_{AA^{T}}$ refleja el espacio a lo largo del eje y y luego gira en algún ángulo $\alpha$ Así que mi sospecha ahora mismo es:
$A^{T}=A^{-1} R_{AA^{T}} \Lambda_{AA^{T}} R_{AA^{T}}$
Ahora bien, si defino
$R_{AA^{T}}^{'} = \begin{bmatrix} cos \alpha & -sin \alpha \\ sin \alpha & cos \alpha \\ \end{bmatrix}$
para sacar el reflejo de la matriz $R_{AA^{T}}$ entonces obtengo
$A^{T}=A^{-1} R_{AA^{T}}^{'} \begin{bmatrix} -1 & 0 \\ 0 & 1 \\ \end{bmatrix} \Lambda_{AA^{T}} R_{AA^{T}}^{'} \begin{bmatrix} -1 & 0 \\ 0 & 1 \\ \end{bmatrix} $
Así que en general
$A^{T}=A^{-1} R_{\alpha} M_y \Lambda R_{\alpha} M_y$
Con $M_y$ siendo el reflejo a lo largo del eje y, $R_{\alpha}$ alguna rotación en sentido contrario a las agujas del reloj por $\alpha$ y $\Lambda$ algunas escalas
0 votos
Lo más natural que se me ocurre tiene que ver con la dualización de objetos, pero eso no tiene mucho sentido geométrico. En cuanto a tu tercera idea, puede que sólo tenga sentido para las matrices ortogonales.
4 votos
En lugar de mirar las acciones de la matriz y su transposición directamente, las relaciones de los subespacios fundamentales podrían darte las ideas geométricas que buscas: el espacio de columnas de la transposición es el complemento ortogonal del espacio nulo y el espacio nulo de la transposición es el complemento ortogonal del espacio de columnas. Recordemos también que el espacio de columnas de una matriz es la imagen del mapa lineal que representa.
0 votos
youtube.com/
0 votos
Bueno, las propias matrices no son especialmente intuitivas después de todo...
0 votos
@amd: Tu comentario parece perspicaz pero aún así es difícil de entender. Necesito algo de tiempo para digerir lo que significa, así que no estoy seguro de cómo reaccionar todavía. Los videos que enlazaste, ya los vi todos hace semanas ya que eran bastante buenos, sin embargo ninguno de los videos de esta lista de reproducción abordó la transposición.
0 votos
Siguiendo el comentario de @amd, Gilbert Strang hace un buen trabajo explicando y enfatizando esta imagen de "cuatro subespacios".
0 votos
Podría consultar los libros de texto de álgebra lineal de Strang, como Introduction to Linear Algebra. También Strang tiene conferencias de vídeo para su clase de álgebra lineal en línea. No tengo un enlace en este momento pero los encontrarás fácilmente.
0 votos
Encontré la conferencia, la veré y también contemplaré la respuesta de amd mañana por la mañana (ahora es bastante tarde en mi país) ocw.mit.edu/cursos/matemáticas/ Hasta entonces, espero que haya novedades aquí :)
1 votos
Este es un punto de vista que hay que tener en cuenta, aunque probablemente no sea lo que está buscando. Las matrices existen como una forma concisa de describir las transformaciones lineales, y normalmente es mejor pensar en términos de transformaciones lineales que de matrices. Si $U$ y $V$ son espacios vectoriales de dimensión finita y $T:U\to V$ es una transformación lineal, entonces es de alguna manera "natural" definir una transformación lineal $T^*$ del espacio dual $V^*$ al espacio dual $U^*$ como sigue: $T^*(z)(u) = z(T(u))$ . La representación matricial de $T$ (utilizando la base dual) es la transposición de la matriz de $T$ .
5 votos
Quieres "visualizar instantáneamente" algo bastante abstracto... ¿Ha considerado la posibilidad de que eso sea tal vez demasiado pedir?
0 votos
Que sea difícil de entender no significa que no merezca la pena saberlo.
0 votos
A menos que la matriz tenga un propósito particular, no tiene que significar nada más que una operación de contabilidad que cambia los lugares de lo que se almacena en ella - una permutación que resulta ser su propia inversa. Pero junto con la forma en que se define la multiplicación de matrices obtiene algunas propiedades, pero levap lo cubre bastante bien.
4 votos
Posible duplicado de ¿Cuál es la interpretación geométrica de la transposición?
0 votos
La respuesta de Levap es la mejor que he podido encontrar ya sin preguntar aquí. Estoy buscando algo aún más intuitivo que eso (no es que no agradezca su participación). No creo que sea un duplicado como sugiere rych y sigo esperando que alguien (o yo) se le ocurra algo más creativo y más intuitivo. Los vectores que veo en B de $BA=A^{T}$ tienen propiedades interesantes, además todavía quiero profundizar en el comportamiento de los vectores propios y los espacios nulos.