30 votos

¿Por qué una matriz ortogonal se llama ortogonal?

Sé que una matriz cuadrada se llama _ortogonal_ si sus filas (y columnas) están en pareja orthonormal

Pero, ¿hay una razón más profunda para esto, o es sólo una razón histórica? Encuentro que es muy confuso y el término me permitiría asumir, que una matriz se llama ortogonal si sus filas (y columnas) son ortogonal y que se llama orthonormal si sus filas (y columnas) son orthonormal pero aparentemente eso no es convencional.

Sé que las matrices cuadradas con columnas ortogonales no tienen un interés especial, pero ese no es el punto. Si leo el término matriz ortogonal mi primera suposición es que sus filas (y columnas) son ortogonal lo que es correcto, por supuesto, pero la propiedad más importante es que son también orthonormal


Así que.., Pregunta : ¿Por qué llamas a un matriz ortogonal ortogonal y no orthonormal ? ¿No sería esto más preciso y claro?

2 votos

"Podría ser tentador suponer que una matriz con columnas ortogonales (no ortonormales) se llamaría matriz ortogonal, pero tales matrices no tienen ningún interés ni nombre especial". es.wikipedia.org/wiki/Matriz ortogonal#Propiedades de la matriz

0 votos

Gracias por tu comentario. Sé que las matrices con columnas ortogonales no tienen ningún interés especial, pero esa no es la cuestión. Mi pregunta no es por qué no se llama ortogonales a las matrices con filas ortogonales, sino por qué no se llama ortogonal matrices ortonormal . He editado mi pregunta, así que espero que mi pregunta sea más clara

0 votos

¿Por qué un nombre? Estas preguntas tienen en su mayoría respuestas históricas...

5voto

MyPreciousss Puntos 357

Una transformación afín que preserva el producto punto en $\mathbb{R}^n$ se llama isometría de Euclides $n$ -Espacio. De hecho, se puede empezar sin la suposición de un mapa afín y derivarlo como una consecuencia necesaria de la preservación del producto punto. Véase la Teorema de Mazur Ulam que muestra que este resultado es válido para mapas entre espacios normados de dimensión finita en los que la noción de isometría es que el mapa preserva la norma. En particular, una isometría de $\mathbb{R}^n$ puede expresarse como $T(v)=Rv+b$ donde $R^TR=I$ . La importancia de esta transformación es que proporciona movimientos rígidos de Euclides $n$ -espacio. Dos objetos son congruentes en el sentido de la geometría de la escuela secundaria si y sólo si algún movimiento rígido lleva un objeto al otro.

¿Mi punto? este es el contexto del que las matrices ortogonales obtienen su nombre. Corresponden a transformaciones ortogonales. Por supuesto, éstas se dividen en reflexiones y rotaciones según $\text{det}(R)= -1,1$ respectivo.

Un pensamiento probable: deberíamos llamar a estas transformaciones transformaciones ortonormales . Supongo que sería una elección de la lengua vernácula. Sin embargo, no lo hacemos, así que... no son matrices ortonormales. Pero, estoy totalmente de acuerdo, esto es sólo una elección de terminologías. Aquí hay otra: ya que $R^TR=I$ implica $R$ es una rotación o una reflexión llamemos al conjunto de tales matrices matrices rotoreflectantes . En cualquier caso, yo abogaría por el cambio de terminología que usted defiende, pero, la terminología actual está bastante bien fijada en este momento, así que, buena suerte si desea cambiar esta cultura.

1 votos

+1 Sí, definitivamente viene de este contexto. (Aunque dudaría en meter en el mismo saco las transformaciones "rotoreflexivas" y los "movimientos rígidos". Mi impresión es que preservar la orientación es un requisito para los movimientos rígidos).

2 votos

@rschwieb eso puede ser, déjame comprobarlo... bueno, no en la Geometría Diferencial Elemental de O'neill (que casualmente tengo por aquí) en la página 100 indica el movimiento rígido como otro nombre para la isometría. Supongo que la pregunta es si una reflexión es un movimiento rígido.

2 votos

Sí, es una decisión terminológica. Si "rígido" sólo significa "no cambia las relaciones de distancia entre puntos", entonces es sólo una isometría, pero para algunos autores rígido implica también la conservación de la orientación. (¿Es rígido el movimiento que te lleva a tu reflejo en el espejo? :) ) Cualquiera de las dos formas está bien, sólo quería mencionar el tema. Yo no iría tan lejos como para decir que hay algo "malo" en ninguna de las dos.

0voto

Freeze_S Puntos 5098

Conservación de la estructura

En primer lugar, hay que tener en cuenta que cualquier matriz representa una transformación lineal: $$T(x):=Ax\quad$$ (Eso es lo que más interesa).

Ahora un cálculo rápido muestra: $$\langle T(x),T(y)\rangle=\langle Ax,Ay\rangle=(Ax)^\intercal(Ay)=x^\intercal A^\intercal Ay$$

Así que un operador lineal preserva el producto escalar si su adjunto es un inverso de la izquierda: $$\langle T(x),T(y)\rangle\equiv\langle x,y\rangle\iff A^\intercal A=1$$ Es decir, es lineal y preserva los ángulos y las longitudes, especialmente la ortogonalidad y la normalización. Estas transformaciones son los morfismos entre espacios de productos escalares y los llamamos ortogonales (ver transformaciones ortogonales ).

Desgraciadamente, creo que el nombre no viene de ahí históricamente. Pero hay que tener en cuenta que una declaración sobre vectores de columna y fila es elegante pero también especial y oculta lo que realmente está sucediendo...

Invertibilidad

En primer lugar, hay que tener en cuenta que si es biyectiva, es decir, invertible, su inversa también será lineal y también preserva el producto escalar automáticamente. Por lo tanto, es un isomorfismo.

Ahora, una transformación lineal que preserva el producto escalar es necesariamente inyectiva: $$T(x)=0\implies\|T(x)\|=\langle T(x),T(x)\rangle=\langle 0,0\rangle\implies x=0$$ Sin embargo, es posible que no sea sobreyectiva en general; tomemos como ejemplo el operador de desplazamiento de derechos.
Si resulta que también es sobreyectiva, es decir, biyectiva, entonces tiene una matriz inversa: $$A^{-1}A=1\text{ and }AA^{-1}=1$$ Pero como la inversa es única tenemos en este caso: $$A^\intercal=A^{-1}$$ Concluyendo que los isomorfismos están dados por matrices que satisfacen: $$A^\intercal A=1\text{ and }AA^\intercal=1$$

En el caso de dimensión finita la surjetividad se deduce directamente por el teorema de nulidad de rango. Por lo tanto, basta con comprobar que la matriz transpuesta es la inversa de la izquierda o la inversa de la derecha en lugar de comprobar ambas. Esta comprobación es válida para cualquier matriz para concluir la inyectividad por la subjetividad o viceversa.

Anotación

El teorema de la nulidad del rango establece que: $$\dim\operatorname{dom}T=\dim\ker T+\dim\operatorname{ran}T$$

4 votos

Nada de esto parece abordar la cuestión real.

0 votos

Sí, ya me temía que alguien pudiera dudar de que esto responda realmente a la pregunta... Sin embargo, lo que se esconde detrás de todo esto es que la esencia debería ser que el nombre fue más o menos un accidente histórico, por lo que el punto crucial que uno debe tener en cuenta es que estas matrices preservan la estructura, especialmente la ortogonalidad.

0 votos

@Freeze_S Para dar una respuesta más detallada: el primer punto es muy relevante, pero no está muy claramente explicado. Las cosas que empiezan en la "invertibilidad" y hacia abajo parecen irrelevantes.

-1voto

TrialAndError Puntos 25444

Una matriz $V$ con columnas mutuamente ortogonales se llama ortogonal porque mapea cada una de las direcciones de coordenadas ortogonales estándar a un nuevo conjunto de direcciones de coordenadas mutuamente ortogonales. Por ejemplo, las coordenadas esféricas son ortogonales porque $$ x=r\sin\phi\cos\theta,\;\; y=r\sin\phi\sin\theta,\;\; z = r\cos\phi $$ mapea las líneas de coordenadas donde $r$ solo varía, $\phi$ solo varía, y $\theta$ solo varía en curvas mutuamente ortogonales en $\mathbb{R}^{3}$ . Esto se evidencia en la matriz jacobiana cuyas columnas son mutuamente ortogonales: $$ \frac{\partial(x,y,z)}{\partial(r,\phi,\theta)} = \left[\begin{array}{ccc} \sin\phi\cos\theta & r\cos\phi\cos\theta & -r\sin\phi\sin\theta \\ \sin\phi\sin\theta & r\cos\phi\sin\theta & r\sin\phi\cos\theta \\ \cos\phi & -r\sin\phi & 0 \end{array}\right] $$ Es bien sabido que el sistema de coordenadas esférico es ortogonal porque las tres líneas de coordenadas diferentes siempre se cruzan ortogonalmente. El determinante de la matriz jacobiana para esta transformación ortogonal es fácil de determinar: es el producto de las longitudes de las tres columnas de la matriz jacobiana, que es el producto de los factores de escala de la distancia esférica estándar $\frac{dl}{dr}=1$ , $\frac{dl}{d\phi}=r$ , $\frac{dl}{d\theta}=r\sin\phi$ . El elemento de volumen de coordenadas esféricas estándar es el producto de estos $dV = r^{2}\sin\phi\,dr\,d\phi\,d\theta$ .

Una matriz unitaria distinta de cero va un paso más allá: cualquier conjunto de vectores ortogonales se mapea en otro, lo que es mucho más fuerte que las direcciones de coordenadas estándar se mapeen en direcciones mutuamente ortogonales. Esta condición implica que hay una constante $C$ tal que la matriz unitaria asigna todos los vectores unitarios a vectores de longitud $C$ . Después de renormalizar dividiendo por $C$ La matriz unitaria preserva la distancia y los ángulos: $(Vx,Vy)/\|Vx\|\|Vy\|=(x,y)/\|x\|\|y\|$ .

0 votos

¿No es el unitario el análogo del ortogonal en el caso complejo? No creo que el unitario sea más fuerte en absoluto ya que ambos preservan completamente el producto escalar por lo que todas las propiedades mejoradas en un vector...

2 votos

-1: Una matriz con columnas mutuamente ortogonales no se llama ortogonal. Ese es todo el sentido de la pregunta.

0 votos

@Rahul: Puedes discutir sobre cómo se usa la terminología para una matriz, pero yo he respondido a la razón de llamar ortogonal a una transformación de coordenadas. He descrito lo que significa que la transformación sea ortogonal -independientemente de tu definición preferida- y cómo se relaciona con las columnas mutuamente ortogonales.

-2voto

Madhusudan N Puntos 11

Me gustaría explicar la ortogonalidad en términos de vectores que explica por qué la matriz ortogonal se llama matriz ortogonal.

El producto punto de dos vectores ortogonales es $0.$

Asume los vectores, $\ \vec a= \left[ \begin{matrix} a_1 \\ a_2 \\ a_3 \\ \vdots \\ a_n \end{matrix} \right] \text{ and } \vec b = \left[ \begin{matrix} b_1 \\ b_2 \\ b_3 \\ \vdots \\ b_n \end{matrix} \right] $ .

Ahora el producto punto entre los vectores se puede calcular como $ (\vec a)^T\cdot(\vec b) = [a_1 b_1+a_2 b_2+a_3 b_3 + \cdots + a_n b_n] $

Supongamos que cada una de las columnas de la matriz $Q$ como un vector. Una matriz $Q$ es una matriz ortogonal si cada vector columna es ortogonal a los demás vectores columna de la matriz $Q.$

Así, para cada columna i y columna j de la matriz $Q,$ si tienen que ser ortogonales entre sí, el producto punto a través de cada columna $i$ con cada columna $j$ debe ser $0,$ cuando i no es igual a $j.$

Además, la magnitud de cada columna debe ser la misma. Así, digamos que cuando $i=j,$ el valor es constante $1.$

Por tanto, el producto punto entre la columna $i$ de la matriz $Q$ y la columna $j$ de la matriz $Q$ puede escribirse como $$ \langle Q_i,Q_j\rangle = \begin{cases} 0, & i \ne j \\ 1, & i = j \end{cases} $$

Por lo tanto, el cálculo de los productos de punto en todas las columnas puede realizarse simultáneamente utilizando $ Q^T\cdot Q$

El resultado será $ I_n. $

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X