Conservación de la estructura
En primer lugar, hay que tener en cuenta que cualquier matriz representa una transformación lineal: $$T(x):=Ax\quad$$ (Eso es lo que más interesa).
Ahora un cálculo rápido muestra: $$\langle T(x),T(y)\rangle=\langle Ax,Ay\rangle=(Ax)^\intercal(Ay)=x^\intercal A^\intercal Ay$$
Así que un operador lineal preserva el producto escalar si su adjunto es un inverso de la izquierda: $$\langle T(x),T(y)\rangle\equiv\langle x,y\rangle\iff A^\intercal A=1$$ Es decir, es lineal y preserva los ángulos y las longitudes, especialmente la ortogonalidad y la normalización. Estas transformaciones son los morfismos entre espacios de productos escalares y los llamamos ortogonales (ver transformaciones ortogonales ).
Desgraciadamente, creo que el nombre no viene de ahí históricamente. Pero hay que tener en cuenta que una declaración sobre vectores de columna y fila es elegante pero también especial y oculta lo que realmente está sucediendo...
Invertibilidad
En primer lugar, hay que tener en cuenta que si es biyectiva, es decir, invertible, su inversa también será lineal y también preserva el producto escalar automáticamente. Por lo tanto, es un isomorfismo.
Ahora, una transformación lineal que preserva el producto escalar es necesariamente inyectiva: $$T(x)=0\implies\|T(x)\|=\langle T(x),T(x)\rangle=\langle 0,0\rangle\implies x=0$$ Sin embargo, es posible que no sea sobreyectiva en general; tomemos como ejemplo el operador de desplazamiento de derechos.
Si resulta que también es sobreyectiva, es decir, biyectiva, entonces tiene una matriz inversa: $$A^{-1}A=1\text{ and }AA^{-1}=1$$ Pero como la inversa es única tenemos en este caso: $$A^\intercal=A^{-1}$$ Concluyendo que los isomorfismos están dados por matrices que satisfacen: $$A^\intercal A=1\text{ and }AA^\intercal=1$$
En el caso de dimensión finita la surjetividad se deduce directamente por el teorema de nulidad de rango. Por lo tanto, basta con comprobar que la matriz transpuesta es la inversa de la izquierda o la inversa de la derecha en lugar de comprobar ambas. Esta comprobación es válida para cualquier matriz para concluir la inyectividad por la subjetividad o viceversa.
Anotación
El teorema de la nulidad del rango establece que: $$\dim\operatorname{dom}T=\dim\ker T+\dim\operatorname{ran}T$$
2 votos
"Podría ser tentador suponer que una matriz con columnas ortogonales (no ortonormales) se llamaría matriz ortogonal, pero tales matrices no tienen ningún interés ni nombre especial". es.wikipedia.org/wiki/Matriz ortogonal#Propiedades de la matriz
0 votos
Gracias por tu comentario. Sé que las matrices con columnas ortogonales no tienen ningún interés especial, pero esa no es la cuestión. Mi pregunta no es por qué no se llama ortogonales a las matrices con filas ortogonales, sino por qué no se llama ortogonal matrices ortonormal . He editado mi pregunta, así que espero que mi pregunta sea más clara
0 votos
¿Por qué un nombre? Estas preguntas tienen en su mayoría respuestas históricas...
0 votos
Una matriz CUADRADA es ortogonal si sus columnas son ortonormales. También hay matrices no cuadradas con columnas ortonormales; esas no son matrices ortogonales.
17 votos
Ortonormal habría sido un nombre mejor.
18 votos
No pretendemos que este sea el origen histórico del término, pero hay que tener en cuenta que la multiplicación por un $n \times n$ matriz $A$ es una isometría, es decir, preserva la (longitud y) ortogonalidad de arbitrario vectores, si y sólo si las columnas de $A$ son ortonormales. Es decir, sospecho que es el transformación $T(x) = Ax$ a la que se refiere el término "ortogonal", no a las filas/columnas de $A$ .
2 votos
El comentario te dice por qué: no tienen ningún interés particular... si una matriz tiene columnas ortogonales entonces necesariamente es de la forma $UD$ donde $U$ es ortogonal y $D$ es diagonal
0 votos
Una matriz de columnas ortogonales no nulas tiene cierto interés. Obsérvese que esta condición es suficiente para la invertibilidad. No es tan impresionante como $A^{-1}=A^T$ pero, aún así, es digno de mención.
0 votos
@littlO He ampliado tu comentario.
0 votos
Estoy de acuerdo con lo dicho por @user86418. Eso equivale a decir que tanto las filas como las columnas son ortogonales. Creo que esto justifica el término "ortogonal" en lugar de "ortonormal". (No puedes tener filas ortogonales pero no ortonormales si las columnas también son ortogonales).
1 votos
@Tunococ ¿qué pasa con $\lambda\cdot I,\ |\lambda|\notin\{0,1\}$ ¿entonces? Es una matriz que obviamente tiene vectores columna y fila ortogonales, pero no ortonormales.
0 votos
@Sora Tienes toda la razón. Mi comentario fue erróneo.
6 votos
La respuesta corta al "por qué" es que En 1854, Charles Hermite llamó a esta matriz "matriz ortogonal". y el nombre se ha quedado.
0 votos
+1 @user856. Una explicación mucho mejor que la de la Wikipedia.