Llamamos e^1,\cdots, e^n a la base canónica de R^n, llamamos F a la matriz que representa f en esa base y llamamos F^1,\cdots, F^n a las columnas de F. Decir que \operatorname{col}F=R^n significa que existen a_{ij} tales que para todo j, \sum_{i=1}^n a_{ij}F^i=e^j. En otras palabras, que existe una matriz n\times n llamada A tal que FA=I. Ahora, por el teorema de Binet, \det(F)\det(A)=\det(FA)=\det I=1, q.e.d.
Por qué se cumple Binet en anillos conmutativos con 1: Consideremos el anillo de polinomios R[X_1,\cdots, X_n]. Existe un homomorfismo natural u:\Bbb Z[X_1,\cdots, X_n]\to R[X_1,\cdots, X_n], u_R(\sum_{J\in\Bbb N^n} a_JX^J)=\sum_{J\in\Bbb N^n}(a_J)_RX^J, donde n_R:=\underbrace{1+\cdots+1}_{n\text{ veces}}. Además, dado un punto p\in R^n, llamamos \nu_p:R[X_1,\cdots,X_n]\to R a la función \nu_p(f)=f(p). Ahora, Binet para matrices en R^{n\times n} implica que dado el siguiente polinomio b\in \Bbb Z[X_{ij},Y_{ij}\,:\, 1\le i,j\le n] b=\left(\sum_{\sigma\in S_n}\operatorname{sgn}(\sigma)\prod_{i=1}^n\sum_{j=1}^nX_{ij}Y_{j,\sigma(i)}\right)-\left(\sum_{\sigma\in S_n}\operatorname{sgn}(\sigma)\prod_{i=1}^nX_{i,\sigma(i)}\right)\left(\sum_{\sigma\in S_n}\operatorname{sgn}(\sigma)\prod_{i=1}^nY_{i,\sigma(i)}\right)
tenemos que \nu_p(u_R(b))=0 para todo p\in R^{n\times n}\times R^{n\times n}. Sin embargo, por el principio de identidad de polinomios, probar Binet en el caso especial donde R es un dominio infinito (por ejemplo, el campo \Bbb R o \Bbb Q) implica que b=0.