Otros han planteado algunos puntos buenos, y una respuesta definitiva realmente depende de qué tipo de transformación lineal queremos llamar a rotación o un reflexión .
Para mí, una reflexión (¿quizás debería llamarla reflexión simple?) es una reflexión con respecto a un subespacio de codimensión 1. Así que en $\mathbf{R}^n$ se obtienen fijando un subespacio $H$ de dimensión $n-1$ . La reflexión $s_H$ por ejemplo $H$ mantiene los vectores de $H$ fija (puntualmente) y multiplica un vector perpendicular a $H$ por $-1$ . Si $\vec{n}\perp H$ , $\vec{n}\neq0$ entonces $s_H$ viene dada por la fórmula
$$\vec{x}\mapsto\vec{x}-2\,\frac{\langle \vec{x},\vec{n}\rangle}{\|\vec{n}\|^2}\,\vec{n}.$$
La reflexión $s_H$ tiene un valor propio $1$ con multiplicidad $n-1$ y el valor propio $-1$ con multiplicidad $1$ con sus respectivos eigenspaces $H$ y $\mathbf{R}\vec{n}$ . Por lo tanto, su determinante es $-1$ . Por lo tanto, geométricamente invierte la orientación (o la lateralidad, si prefieres ese término), y no es un movimiento de cuerpo rígido en el sentido de que para aplicar esa transformación a un cuerpo 3D rígido, tienes que romperlo en átomos (advertencia: no sé si ésta es la definición estándar de un movimiento de cuerpo rígido ). Sí conserva las longitudes y los ángulos entre los vectores.
Las rotaciones (con las que yo también me refiero simplemente a transformaciones ortogonales con $\det=1$ ) tienen más variación. Si $A$ es una matriz de rotación, entonces el cálculo de Adam que demuestra que las longitudes se conservan, nos dice que los valores propios deben tener valor absoluto $=1$ (su cálculo pasa por los vectores complejos y el producto interior hermitiano). Por lo tanto, los valores propios complejos están en el círculo unitario y vienen en pares complejos conjugados. Si $\lambda=e^{i\varphi}$ es un valor propio no real, y $\vec{v}$ es un vector propio correspondiente (en $\mathbf{C}^n$ ), entonces el vector $\vec{v}^*$ obtenida por conjugación compleja por componentes es un vector propio de $A$ perteneciente al valor propio $\lambda^*=e^{-i\varphi}$ . Considere el conjunto $V_1$ de vectores de la forma $z\vec{v}+z^*\vec{v}^*$ . Por la propiedad de los valores propios este conjunto es estable bajo $A$ : $$A(z\vec{v}+z^*\vec{v}^*)=(\lambda z)\vec{v}+(\lambda z)^*\vec{v}^*.$$ Sus componentes también son estables bajo conjugación compleja, por lo que $V_1\subseteq\mathbf{R}^n$ . Obviamente es un subespacio bidimensional, es decir, un plano. Es fácil adivinar y no es difícil demostrar que la restricción de la transformación $A$ en el subespacio $V_1$ es una rotación por el ángulo $\varphi_1=\pm\varphi$ . Obsérvese que no podemos determinar el signo de la rotación (horario/ccw), porque no tenemos una lateralidad preferente en el subespacio $V$ .
La conservación de los ángulos (véase la respuesta de Adam) muestra que $A$ entonces mapea el $n-2$ subespacio dimensional $V^\perp$ también a sí mismo. Además, el determinante de $A$ restringido a $V_1$ es igual a uno, por lo que lo mismo ocurre con $V_1^\perp$ . Así, podemos aplicar la inducción y seguir dividiendo los sumandos bidimensionales $V_i,i=2,3\ldots,$ tal que en cada sumando $A$ actúa como una rotación en algún ángulo $\varphi_i$ (normalmente distintos de los anteriores). Podemos seguir haciendo esto hasta que sólo queden valores propios reales, y terminar con la situación: $$ \mathbf{R}^n=V_1\oplus V_2\oplus\cdots V_m \oplus U, $$ donde los subespacios 2D $V_i$ son ortogonales entre sí, $A$ gira un vector en $V_i$ por el ángulo $\varphi_i$ y $A$ restringido a $U$ sólo tiene valores propios reales.
El recuento del determinante mostrará entonces que la multiplicidad de $-1$ como un valor propio de $A$ restringido a $U$ siempre será uniforme. Como consecuencia de ello también podemos dividir ese eigespacio en sumas de planos de 2 dimensiones, donde $A$ actúa como una rotación de 180 grados (o multiplicación por $-1$ ). Después queda el eigespacio perteneciente al valor propio $+1$ . La multiplicidad de ese valor propio es congruente con $n$ modulo $2$ Así que si $n$ es impar, entonces $\lambda=+1$ será necesariamente un valor propio. Esta es la razón última, por la que una rotación en el espacio 3D debe tener un eje = eigenespacio perteneciente al valor propio $+1$ .
De esto se desprende:
- Como señaló Henning, podemos devolver continuamente cualquier rotación al mapa de identidad simplemente escalando continuamente todos los ángulos de rotación $\varphi_i,i=1,\ldots,m$ continuamente a cero. Lo mismo puede hacerse con los sumandos de $U$ , donde $A$ actúa como una rotación de 180 grados.
- Si queremos definir rotación de manera que el conjunto de rotaciones contenga las rotaciones elementales descritas por Henning, e insistir también en que el conjunto de rotaciones es cerrado bajo composición, entonces el conjunto debe consistir en todas las transformaciones ortogonales con $\det=1$ . Como corolario de esto, las rotaciones preservan la lateralidad. Este punto es discutible, si definimos una rotación requiriendo simplemente la matriz $A$ para ser ortogonal y tener $\det=1$ pero muestra la equivalencia de dos definiciones alternativas.
- Si $A$ es una matriz ortogonal con $\det=-1$ y, a continuación, componer $A$ con una reflexión respecto a cualquier subespacio $H$ de codimensión uno da una rotación en el sentido de esta definición (ciertamente semiprivada) de una rotación.
Esta no es una respuesta completa en el sentido de que no puedo dar una definición "autorizada" de un $n$ Rotación D. Esto es hasta cierto punto una cuestión de gusto, y algunos podrían querer incluir sólo las rotaciones simples de la respuesta de Henning que sólo "mueven" puntos de un subespacio 2D y mantienen su complemento ortogonal fijo. No obstante, espero haber conseguido pintar una imagen coherente.
1 votos
¿Te refieres a matrices de 2x2, o en general?
0 votos
@Juan S, sé que la rotación/reflexión es válida en 2D y 3D. También deben existir en espacios de mayor dimensión, ¿no? Si es así, me refiero a las matrices nxn.
0 votos
Si $A^TA=I$ y $A$ es un cuadrado matriz, es decir, tiene el mismo número de filas y columnas, entonces $A$ es una matriz ortogonal. Pero hay matrices no cuadradas con columnas ortonormales. Si se quitan algunas columnas de una matriz ortogonal, la matriz no cuadrada que queda satisface $A^TA=I$ pero no es una matriz ortogonal.
1 votos
@Michael: gracias, pero las matrices no cuadradas no tienen determinante:) Entiendo lo que quieres decir, por supuesto, aquí consideramos las matrices cuadradas.