Me centraré en $n\times n$ matrices, ya que el $n\times m$ La generalización es bastante sencilla. Definir una matriz $$V=\begin{bmatrix} v_{11} & v_{12} & &... & & v_{1n} \\ v_{21} & v_{22} & & & & . \\ .& & . & & & .\\ . & & &. & &.\\ v_{n1} & . & . & .& . & v_{nn} \end{bmatrix}$$
A efectos de anotación, denotemos $v_{ab}=(\vec{v}_b)_a$ es decir, el $a$ -ésima componente del vector $\vec{v}_b$ . De esta manera podemos escribir $V$ como una matriz cuyas columnas son vectores $\vec{v}_1,\vec{v}_2,..,\vec{v}_n$ . Obsérvese que esto no cambia nada en la siguiente conclusión. La matriz se puede escribir entonces como $$V=\begin{bmatrix} (\vec{v}_1)_1 & (\vec{v}_2)_1 & &... & & (\vec{v}_n)_1 \\ (\vec{v}_1)_2 & (\vec{v}_2)_2 & & & & . \\ .& & . & & & .\\ (\vec{v}_1)_n & . & . & .& . & (\vec{v}_n)_n \end{bmatrix}=\begin{bmatrix} . & . & .& .& .& .\\ . & . & . & . & . & . \\ \vec{v}_1& \vec{v}_2 & . & . & . & \vec{v}_n\\ . & . & . &. & . &.\\ .& . & . & . &. & . \end{bmatrix}$$ De esta manera, la computación $V^T V$ da: $$V^T V=\begin{bmatrix} . & . & \vec{v}_1^T& .& .& .\\ . & . & \vec{v}_2^T & . & . & . \\ .& . & . & . & . & .\\ . & . & . &. & . &.\\ . & . & \vec{v}_n^T & .& . &. \end{bmatrix} \begin{bmatrix} . & . & .& .& .& .\\ . & . & . & . & . & . \\ \vec{v}_1& \vec{v}_2 & . & . & . & \vec{v}_n\\ . & . & . &. & . &.\\ . & . & . & .& . &. \end{bmatrix}=\begin{bmatrix} |\vec{v}_1|^2 & \vec{v}_1\cdot\vec{v}_2 & .& . & \vec{v}_1\cdot\vec{v}_n\\ \vec{v}_1\cdot\vec{v}_2 & |\vec{v}_2|^2 & . & . & . \\ .& . & . & . & .\\ . & . & . & . &.\\ \vec{v}_1\cdot\vec{v}_n & . & .& . &|\vec{v}_n|^2 \end{bmatrix}$$ donde hemos definido $\vec{v}_i\cdot \vec{v}_j=\sum_a (\vec{v}_i)_a(\vec{v}_j)_a$ y se utiliza $\vec{v}_j\cdot\vec{v}_j=\vec{v}_j\cdot\vec{v}_i$ .
Ahora bien, si $V$ es una matriz ortogonal, es decir $V^T V=\mathbb{1}_{n\times n}$ significa que $$\vec{v}_i\cdot \vec{v}_j=\delta_{ij}$$ donde he definido $\delta_{ij}=1$ cuando $i=j$ y $\delta_{ij}=0$ cuando $i\neq j$ .
Conclusión: Un $n\times n$ La matriz ortogonal V es una matriz formada por columnas (o filas) que son vectores ortonormales, es decir, son vectores unitarios normales entre sí. Estos vectores pueden formar una base para un espacio vectorial de n dimensiones, ya que son linealmente independientes*. $$\boxed{V^TV=\mathbb{1}_{n\times n}\ \longleftrightarrow\ \vec{v}_i\cdot \vec{v}_j=\delta_{ij}}$$
Extra: el determinante de $V$ da el volumen orientado (en n dimensiones) de un hipercubo cuyos lados están formados por los vectores que son las filas o las columnas (ya que $\det{V}=\det{V^T}$ ) de $V$ .
*La independencia lineal se desprende del hecho de que tomando la det de ambos lados de $V^TV=\mathbb{1}_{n\times n}$ da $(\det{V})^2=1$ .
0 votos
Ortogonalidad de dos vectores no significa que son tangentes entre sí.
1 votos
Lo siento, quise decir perpendicular. Lo editaré.
0 votos
@Mattos ¿has entendido las respuestas?, yo tengo la misma duda pero todavía no