20 votos

¿Por qué $A^TA=I, \det A=1$ media $A$ ¿es una matriz de rotación?

Sé que si $A^TA=I$ , $A$ es una matriz ortogonal. Las matrices ortogonales también son de dos tipos: si $\det A=1$ , $A$ es una matriz de rotación; si $\det A=-1$ , $A$ es una matriz de reflexión.

Mi pregunta es ¿Cuál es la relación entre el determinante de $A$ y la rotación/reflexión. ¿Puede explicar por qué $\det A=\pm 1$ significa $A$ ¿es una rotación/reflexión desde la perspectiva geométrica?

EDITAR : Creo que primero hay que resolver las siguientes cuestiones.

  • ¿Las matrices de rotación sólo existen en el espacio 2D y 3D? Es decir: para cualquier matriz dimensional, siempre que sea ortogonal y con determinante 1, la matriz representa una transformación de rotación, ¿no? Obsérvese que la ortogonalidad y el determinante son aplicables a matrices de dimensiones arbitrarias.
  • ¿Cuál es la definición más fundamental de una transformación de rotación?
  • Dado que una matriz ortogonal preserva la longitud y el ángulo, ¿podemos decir que una matriz ortogonal representa una transformación de "cuerpo rígido"? La transformación "cuerpo rígido" contiene dos tipos básicos: la rotación y la reflexión?

1 votos

¿Te refieres a matrices de 2x2, o en general?

0 votos

@Juan S, sé que la rotación/reflexión es válida en 2D y 3D. También deben existir en espacios de mayor dimensión, ¿no? Si es así, me refiero a las matrices nxn.

0 votos

Si $A^TA=I$ y $A$ es un cuadrado matriz, es decir, tiene el mismo número de filas y columnas, entonces $A$ es una matriz ortogonal. Pero hay matrices no cuadradas con columnas ortonormales. Si se quitan algunas columnas de una matriz ortogonal, la matriz no cuadrada que queda satisface $A^TA=I$ pero no es una matriz ortogonal.

15voto

Otros han planteado algunos puntos buenos, y una respuesta definitiva realmente depende de qué tipo de transformación lineal queremos llamar a rotación o un reflexión .

Para mí, una reflexión (¿quizás debería llamarla reflexión simple?) es una reflexión con respecto a un subespacio de codimensión 1. Así que en $\mathbf{R}^n$ se obtienen fijando un subespacio $H$ de dimensión $n-1$ . La reflexión $s_H$ por ejemplo $H$ mantiene los vectores de $H$ fija (puntualmente) y multiplica un vector perpendicular a $H$ por $-1$ . Si $\vec{n}\perp H$ , $\vec{n}\neq0$ entonces $s_H$ viene dada por la fórmula

$$\vec{x}\mapsto\vec{x}-2\,\frac{\langle \vec{x},\vec{n}\rangle}{\|\vec{n}\|^2}\,\vec{n}.$$

La reflexión $s_H$ tiene un valor propio $1$ con multiplicidad $n-1$ y el valor propio $-1$ con multiplicidad $1$ con sus respectivos eigenspaces $H$ y $\mathbf{R}\vec{n}$ . Por lo tanto, su determinante es $-1$ . Por lo tanto, geométricamente invierte la orientación (o la lateralidad, si prefieres ese término), y no es un movimiento de cuerpo rígido en el sentido de que para aplicar esa transformación a un cuerpo 3D rígido, tienes que romperlo en átomos (advertencia: no sé si ésta es la definición estándar de un movimiento de cuerpo rígido ). Sí conserva las longitudes y los ángulos entre los vectores.

Las rotaciones (con las que yo también me refiero simplemente a transformaciones ortogonales con $\det=1$ ) tienen más variación. Si $A$ es una matriz de rotación, entonces el cálculo de Adam que demuestra que las longitudes se conservan, nos dice que los valores propios deben tener valor absoluto $=1$ (su cálculo pasa por los vectores complejos y el producto interior hermitiano). Por lo tanto, los valores propios complejos están en el círculo unitario y vienen en pares complejos conjugados. Si $\lambda=e^{i\varphi}$ es un valor propio no real, y $\vec{v}$ es un vector propio correspondiente (en $\mathbf{C}^n$ ), entonces el vector $\vec{v}^*$ obtenida por conjugación compleja por componentes es un vector propio de $A$ perteneciente al valor propio $\lambda^*=e^{-i\varphi}$ . Considere el conjunto $V_1$ de vectores de la forma $z\vec{v}+z^*\vec{v}^*$ . Por la propiedad de los valores propios este conjunto es estable bajo $A$ : $$A(z\vec{v}+z^*\vec{v}^*)=(\lambda z)\vec{v}+(\lambda z)^*\vec{v}^*.$$ Sus componentes también son estables bajo conjugación compleja, por lo que $V_1\subseteq\mathbf{R}^n$ . Obviamente es un subespacio bidimensional, es decir, un plano. Es fácil adivinar y no es difícil demostrar que la restricción de la transformación $A$ en el subespacio $V_1$ es una rotación por el ángulo $\varphi_1=\pm\varphi$ . Obsérvese que no podemos determinar el signo de la rotación (horario/ccw), porque no tenemos una lateralidad preferente en el subespacio $V$ .

La conservación de los ángulos (véase la respuesta de Adam) muestra que $A$ entonces mapea el $n-2$ subespacio dimensional $V^\perp$ también a sí mismo. Además, el determinante de $A$ restringido a $V_1$ es igual a uno, por lo que lo mismo ocurre con $V_1^\perp$ . Así, podemos aplicar la inducción y seguir dividiendo los sumandos bidimensionales $V_i,i=2,3\ldots,$ tal que en cada sumando $A$ actúa como una rotación en algún ángulo $\varphi_i$ (normalmente distintos de los anteriores). Podemos seguir haciendo esto hasta que sólo queden valores propios reales, y terminar con la situación: $$ \mathbf{R}^n=V_1\oplus V_2\oplus\cdots V_m \oplus U, $$ donde los subespacios 2D $V_i$ son ortogonales entre sí, $A$ gira un vector en $V_i$ por el ángulo $\varphi_i$ y $A$ restringido a $U$ sólo tiene valores propios reales.

El recuento del determinante mostrará entonces que la multiplicidad de $-1$ como un valor propio de $A$ restringido a $U$ siempre será uniforme. Como consecuencia de ello también podemos dividir ese eigespacio en sumas de planos de 2 dimensiones, donde $A$ actúa como una rotación de 180 grados (o multiplicación por $-1$ ). Después queda el eigespacio perteneciente al valor propio $+1$ . La multiplicidad de ese valor propio es congruente con $n$ modulo $2$ Así que si $n$ es impar, entonces $\lambda=+1$ será necesariamente un valor propio. Esta es la razón última, por la que una rotación en el espacio 3D debe tener un eje = eigenespacio perteneciente al valor propio $+1$ .

De esto se desprende:

  1. Como señaló Henning, podemos devolver continuamente cualquier rotación al mapa de identidad simplemente escalando continuamente todos los ángulos de rotación $\varphi_i,i=1,\ldots,m$ continuamente a cero. Lo mismo puede hacerse con los sumandos de $U$ , donde $A$ actúa como una rotación de 180 grados.
  2. Si queremos definir rotación de manera que el conjunto de rotaciones contenga las rotaciones elementales descritas por Henning, e insistir también en que el conjunto de rotaciones es cerrado bajo composición, entonces el conjunto debe consistir en todas las transformaciones ortogonales con $\det=1$ . Como corolario de esto, las rotaciones preservan la lateralidad. Este punto es discutible, si definimos una rotación requiriendo simplemente la matriz $A$ para ser ortogonal y tener $\det=1$ pero muestra la equivalencia de dos definiciones alternativas.
  3. Si $A$ es una matriz ortogonal con $\det=-1$ y, a continuación, componer $A$ con una reflexión respecto a cualquier subespacio $H$ de codimensión uno da una rotación en el sentido de esta definición (ciertamente semiprivada) de una rotación.

Esta no es una respuesta completa en el sentido de que no puedo dar una definición "autorizada" de un $n$ Rotación D. Esto es hasta cierto punto una cuestión de gusto, y algunos podrían querer incluir sólo las rotaciones simples de la respuesta de Henning que sólo "mueven" puntos de un subespacio 2D y mantienen su complemento ortogonal fijo. No obstante, espero haber conseguido pintar una imagen coherente.

0 votos

Estoy pensando que cualquier "matriz de rotación" debería ser descomponible como un producto de matrices de identidad modificadas con cosenos y senos en todos los lugares adecuados... y las matrices ortogonales con determinante negativo podrían ser reflexiones o rotaciones impropias...

0 votos

@J.M. Gracias por las ediciones. Mi única excusa es lo tardío de la hora. Algunas personas (numeristas e ingenieros) utilizan Rotaciones Givens como bloques de construcción. Me gustaría incluir todas las transformaciones que giran cualquier subespacio 2D y mantener su complemento ortogonal fijado puntualmente a la colección de rotaciones elementales. Una rotación de Givens insistiría en que el subespacio 2D esté abarcado por dos vectores cualesquiera de la base estándar. Si permitimos composiciones arbitrarias de tales transformaciones, el resultado final es el mismo.

0 votos

@J.M.isapoormatemático: El Grupo de Isometrías se genera por reflexiones por lo que definitivamente se pueden expresar como combinaciones de reflexiones.

12voto

sewo Puntos 58

Esto depende de cómo queramos definir la "rotación" en primer lugar. Algunas personas prefieren una definición estrecha en la que las únicas cosas que se califican como "rotaciones" son las que pueden expresarse como un $(2+n)\times(2+n)$ matriz de bloques $$\pmatrix{\pmatrix{\cos\theta&\sin\theta\\-\sin\theta&\cos\theta}&0\\0&I}$$ con respecto a alguna base ortogonal. Bajo esta definición hay $4\times 4$ matrices que son ortogonales y tienen determinante 1 pero no son rotaciones - por ejemplo, $$\pmatrix{0.6&0.8&0&0\\-0.8&0.6&0&0\\0&0&0&1\\0&0&-1&0}$$

Pero también se puede decir que una "rotación" es cualquier matriz $A$ de tal manera que hay un continuo familia de matrices $(A_t)_{0\le t\le 1}$ tal que $A_0=I$ , $A_1=A$ y $A_t$ es siempre ortogonal. Esto capta la idea de un paulatinamente transformación isométrica a partir de un punto de partida. Tal definición nos dice inmediatamente que el determinante de una rotación debe ser 1 (porque el determinante es continuo), pero es más difícil ver que obtenemos todo matrices ortogonales con determinante 1 de esta manera.

No tengo una prueba rápida de esto último, pero me imagino que se puede hacer de forma bastante elemental por inducción sobre la dimensión, primero una serie de rotaciones para que quepa la primera columna, y luego ordenar las restantes columnas trabajando recursivamente dentro del complemento ortogonal de la primera columna.

1 votos

Gracias. Pero no entiendo tu ejemplo de la matriz de 4 por 4. La "rotación" no se define sólo en el espacio 2D y 3D, ¿verdad? Por supuesto, el significado geométrico de una rotación en un espacio dimensional superior no es intuitivo. Pero cualquier matriz ortogonal con determinante como 1 en un espacio dimensional arbitrario puede llamarse matriz de rotación, ¿no?

3 votos

También se puede decir que las "rotaciones" son exponenciales (en el sentido de grupo de Lie) de miembros del álgebra de Lie $so_n$ (que en este caso pueden identificarse como las matrices sesgadas-simétricas). El miembro del álgebra de Lie representa una "rotación infinitesimal" que genera un grupo de un parámetro que contiene la transformación dada. Se puede utilizar el Teorema Espectral para demostrar que cada miembro de $SO_n$ se puede obtener de esta manera.

0 votos

@Robert Israel: ¡Interesante! No estoy familiarizado con el álgebra de Lie. Pero sí sé que cualquier matriz de rotación se puede expresar como una exponencial de una matriz sesgada-simétrica. En realidad se trata de la representación eje-ángulo de una rotación. También se conoce como "fórmula de rotación de Rodrigues". Si desde esta perspectiva, dada una matriz de rotación $R$ se puede escribir como $R=\mathrm{exp}(\Omega)$ con $\Omega$ como una matriz sesgada-simétrica. Entonces, sustituyendo $R=\mathrm{exp}(\Omega)$ en $\det R=\mathrm{exp}(\mathrm{tr}\ln R)$ da $\det R=1$ .

8voto

ardichoke Puntos 51

La razón por la que se llama matriz de rotación es porque se conservan las longitudes y los ángulos.

Considere cualquier $v \in \mathbb{R}^n$ . Ahora considere el $\ell_2$ norma de $Av$ : $$ \|Av\|_2^2=v'A'Av = v'Iv=\|v\|_2^2. $$

Por lo tanto, la longitud euclidiana es invariante bajo una transformación lineal ortonormal $A$ . Además, para cualquier $u, v \in \mathbb{R}^n,$ tenemos la siguiente equivalencia en los productos internos: $$ \langle Au, Av \rangle_2 = u' A'A v = u'Iv = u'v = \langle u, v \rangle_2. $$

Obsérvese que como el rango del coseno es $[-1,1]$ podemos definir simplemente el coseno de dos vectores en un espacio euclidiano como el producto interior normalizado como:

$$ \cos \phi := \frac{\langle u, v \rangle_2}{\|u\|_2 \|v\|_2} $$

Teniendo en cuenta esta definición y la anterior, es fácil ver que los ángulos también se conservan.

(Se ha añadido una aclaración sobre la diferencia entre rotación y reflexión en los comentarios).

3 votos

No es por eso que es una rotación: también es cierto para las reflexiones.

0 votos

@Adam: gracias. Sin embargo, si la longitud y el ángulo se conservan, entonces la matriz se llama una matriz de rotación?

0 votos

@Adam: ¿podemos interpretarlo de la siguiente manera? Dado que la longitud y el ángulo se conservan, la transformación ortogonal es una transformación de cuerpo rígido, que sólo contiene la transformación de rotación y reflexión? Entonces, ¿una matriz ortogonal es una transformación de rotación o de reflexión?

6voto

StubbornAtom Puntos 188

Creo que el libro de John Stillwell Teoría ingenua de la mentira resume bastante bien los puntos necesarios en este caso.

Comienza afirmando que se deduce de la Teorema de Cartan-Dieudonne que una rotación sobre $O$ en $\mathbb{R^2}$ ou $\mathbb{R^3}$ es una transformación lineal que preserva la longitud y la orientación. A continuación, justifica que una transformación preserva la longitud si preserva el producto interior. Al definir el criterio de rotación en $\mathbb{R^n}$ como usted ha afirmado, se demuestra que $AA^T=I\iff A$ preserva el producto interior para una matriz cuadrada $A$ de orden $n$ . Las dos soluciones $\det(A)=1$ y $\det(A)=-1$ se producen en consecuencia como $A$ conserva la orientación o no. enter image description here enter image description here

4voto

lunixbochs Puntos 779

La respuesta perfecta a su pregunta se encuentra en el documento de libre acceso: " Una mirada desorientadora al teorema de Euler sobre el eje de una rotación " Por Bob Palais, Richard Palais y Stephen Rodi.

En el artículo se discute una prueba de álgebra lineal que trata específicamente la relación entre la reflexión, la rotación propia y el signo del determinante. La prueba es constructiva en el sentido de que aborda explícitamente la cuestión de los vectores invariantes en comparación con los vectores que se invierten. Como bonificaciones, la prueba E478 de Euler se ha refundido en notación moderna. Se menciona una prueba topológica, así como una de Geometría Diferencial de la Teoría de Lie.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X