Permítanme comenzar por señalar el siguiente teorema:
Teorema: Una transformación lineal $T$ de un espacio vectorial $V$ con un límite de base $\alpha_1,\dots,\alpha_n$ es nonsingular si y sólo si los vectores $\alpha_1T,\dots,\alpha_nT$ son linealmente independientes en $V$. Cuando este es el caso, $T$ tiene un (a dos caras) lineal inversa $T^{-1}$,$TT^{-1} = T^{-1}T=I$. Ahora, considere la siguiente prueba suplementaria (denunciado por `ὅπερ ἔδει δεῖξαι"):
Prueba. Primero supongamos $T$ es nonsingular. Si existe una relación lineal $\Sigma x_i(\alpha_iT)=0$ entre el $\alpha_iT$, luego
$$ (x_1\alpha_1 + \cdots + x_n\alpha_n )T = x_1(\alpha_1 )T+\cdots + x_n(\alpha_nT)=0. $$
Desde $0T=0$, e $T$ es uno a uno, esto implica $x_1\alpha_1+\cdots + x_n\alpha_n=0$ y, por tanto, por la independencia de la $\alpha$s, $x_1=\cdots=x_n=0$. Por lo tanto el $\alpha_iT$ son linealmente independientes. Por el contrario, suponga que los vectores $\beta_1=\alpha_1T, \dots, \beta_n=\alpha_nT$ son linealmente independientes, y recordar que una transformación de $T$ es uno-uno a si y sólo si tiene dos lados inversa. Desde $V$ $n$- dimensional, el $n$ independiente de vectores $\beta_1,\dots,\beta_n$ son una base de $V$. Ahora, considere el siguiente lema:
Lema. Si $\beta_1,\dots, \beta_m$ es una base del espacio vectorial $V$, e $\alpha_1,\dots, \alpha_m$ cualquier $m$ vectores en $W$, entonces existe una y sólo una transformación lineal $T:V\rightarrow W$$\beta_1T=\alpha_1, \dots, \beta_mT=\alpha_m$, y esta transformación se define por
$$ (x\beta_1+\cdots+x_m\beta_m)T = x_1\alpha_1 + \cdots + x_m\alpha_m.$$
Por este lema, no es una transformación lineal $S$ $V$ con
$$ \beta_1S=\alpha_1,\beta_2S=\alpha_2, \cdots, \beta_nS=\alpha_n.$$
Por tanto, para cada $i=1,\dots, n$,$\beta_i(ST)=\beta_i$. Puesto que el $\beta_1,\dots, \beta_n$ son una base, no hay---de conformidad con el lexema---sólo una transformación lineal $T$ $\beta_iR=\beta_i$ por cada $i$, y esta transformación es la identidad. Por lo tanto $ST=I$. Del mismo modo, $\alpha_i(TS)=\beta_iS=\alpha_i$, y, puesto que el $\alpha$'s son una base, $TS=I$. Por lo tanto $S$ es la inversa de a $T$, e $T$ es nonsingular; ὅπερ ἔδει δεῖξαι.
Ahora, un corolario de este resultado es que un $n\times n$ matriz $A$ es nonsingular si y sólo si tiene una matriz inversa de a $A^{-1}$, de tal manera que
$$ ~AA^{-1}=A^{-1}A=I,$$
así que si $A$ tiene una inversa, también lo hace su transpuesta, en la que tomando la transpuesta de cualquiera de los lados de la por encima de la igualdad, se pone en $(A^{-1})^tA^t=A^t(A^{-1})^t=I$, por lo que tenemos el resultado
$$ (A^{-1})^t=(A^t)^{-1}. $$ Hence, if $Un$ is invertible, so is $^t$; por otra parte, la verdad es lo contrario de manera similar; quod brindamos demonstrandum.