Esta respuesta ha sido editada varias veces tras recibir valiosas aportaciones de varios usuarios. Aunque su forma actual refleja con bastante fidelidad el proceso que condujo a ella, la naturaleza irregular del texto quizás no sea especialmente agradable de leer. Por ello, he decidido añadir una (esperemos) última edición al final, con una prueba que sólo podía escribirse a posteriori. El lector El lector puede, por lo tanto, preferir ir directamente a ella. La encontrará en "EDIT 4".
El determinante es el único mapa multiplicativo $$ \varphi : \text{End}(V)\to K $$ tal que
-
$\varphi (I+T)=1$ cuando $T^2=0$ ,
-
$\varphi (\alpha P+I-P) = \alpha $ cuando $P$ es idempotente y tiene rango uno.
(Véase el EDIT 2, más adelante, para demostrar que la condición (1), arriba, es superflua).
EDIT: Ahora que tengo algo de tiempo libre, permítanme justificar mi respuesta, quizá demasiado contundente (¡lo siento!), anterior.
No es tan difícil ver que el determinante satisface las propiedades anteriores, así que sólo demostraré la unicidad.
El objetivo de la pregunta es deshacerse de las coordenadas, pero creo que no está de más que la prueba se base en coordenadas. En otras palabras, hablemos de $n\times n$ matrices.
Así que suponemos que $$ \varphi : M_n(K)\to K $$ es un mapa multiplicativo que satisface las condiciones anteriores y demostremos que $\varphi $ coincide con el determinante.
Por cada $i$ y $j$ Considere la $n\times n$ matriz $E_{i,j}$ cuyas entradas son todas nulas excepto la $(i,j)$ que es igual a 1.
A continuación, observamos que si $A$ es cualquier $n\times n$ matriz, $\lambda $ es cualquier escalar, y $i\neq j$ entonces $$ (I+\lambda E_{i,j})A $$ es la matriz que se obtiene aplicando a $A$ la operación elemental de sumar $\lambda $ veces el $j^{th}$ fila de $A$ a la $i^{th}$ fila.
Desde $i\neq j$ , uno tiene que $(\lambda E_{i,j})^2=0$ por lo que la hipótesis da $$ \varphi \big ((I+\lambda E_{i,j})A\big ) = $$$$=\varphi (I+\lambda E_{i,j} ) \varphi (A) = \varphi (A) . $$
Esto implica que el valor de $\varphi (A)$ permanece inalterado sin importar cuántas operaciones elementales de fila apliquemos a $A$ .
Como se observa en la "EDICIÓN 3" más adelante, también podemos intercambiar dos filas cualesquiera de $A$ mediante una secuencia de operaciones elementales, siempre que cambiemos el signo de una de las filas.
Por lo tanto, podemos aportar $A$ a su forma escalonada reducida, manteniendo el valor de $\varphi (A)$ sin cambios, excepto que no podemos hacer que las entradas principales de cada fila sean iguales a 1, ya que esto requiere multiplicar una fila por un escalar, una operación bajo la cual $\varphi$ no es ciertamente invariable.
Dejar $A'$ sea esta forma de escalón de fila cuasi reducida de $A$ (con entes principales no necesariamente iguales a 1), tenemos en consecuencia que $\varphi (A)= \varphi (A')$ .
Caso 1: $A$ es invertible y por lo tanto $A'$ es diagonal.
Dejar $a_i$ denotan el $i^{th}$ entrada diagonal de $A'$ entonces tenemos que $$ A'=\prod_{i=1}^n(a_iE_{i,i}+I-E_{i,i}), $$ de donde $$ \varphi (A)= \varphi (A')=\prod_{i=1}^n\varphi (a_iE_{i,i}+I-E_{i,i}) = $$$$ = \prod_{i=1}^na_i=\text{det}(A')=\text{det}(A). $$
Caso 2: $A$ no es invertible y, por tanto, la última fila de $A'$ es idénticamente igual a cero.
En este caso $E_{n,n}A' =0$ Así que $$ A' = (I-E_{n,n})A' = (0E_{n,n}+I-E_{n,n})A', $$ de donde $$ \varphi (A)=\varphi (A') = \varphi \big ((0E_{n,n}+I-E_{n,n})A'\big )= $$$$= \varphi (0E_{n,n}+I-E_{n,n})\varphi (A') = 0\varphi (A') = 0 = \text{det}(A). $$
EDIT 2: Observe que la hipótesis " $\varphi (I+T)=1$ cuando $T^2=0$ " en la prueba anterior se utilizó exclusivamente para argumentar que $\varphi (I+\lambda E_{i,j}) = 1$ . Aquí demostraremos que esta hipótesis es superflua.
Agradezco al usuario @math54321 por un comentario que llevó a la demostración de este resultado sin ninguna hipótesis especial sobre $K$ .
Teorema . El determinante es el único mapa multiplicativo $\varphi :M_n(K)\to K$ tal que
- $\varphi (\alpha P+I-P) = \alpha $ cuando $P$ es idempotente y tiene rango uno.
Prueba . Teniendo en cuenta cualquier $\varphi $ y en vista de la discusión anterior, basta con mostrar que $\varphi (I+\lambda E_{i,j}) = 1$ , siempre que $i\neq j$ .
Dado $a\in K$ no es cero, un simple cálculo muestra que $$ (1+aE_{i,j})\Big (aE_{i,i}+1-E_{i,i}\Big ) = \Big (aE_{i,i}+1-E_{i,i}\Big )(1+E_{i,j}), $$ y como $$ \varphi \Big (aE_{i,i}+1-E_{i,i}\Big ) = a \neq 0, $$ obtenemos $$ \varphi (1+aE_{i,j})=\varphi (1+E_{i,j}). \qquad (*) $$
La prueba concluirá cuando demostremos que $\varphi (1+E_{i,j})=1$ Lo que hacemos es considerar dos casos:
Caso 1) La característica de $K$ es 2.
En este caso observe que $$ (1+E_{i,j})^2 = 1+2E_{i,j}=1, $$ así que $\varphi (1+E_{i,j})^2 = 1$ y vemos que $\varphi (1+E_{i,j})$ es la única solución de la ecuación polinómica $x^2=1$ , es decir, 1 (recordemos que $1=-1$ aquí).
Caso 2) La característica de $K$ no es 2.
En este caso tenemos que $$ (1+E_{i,j})^2 = 1+2E_{i,j}, $$ y como $2\neq 0$ tenemos $$ \varphi (1+E_{i,j})^2 = \varphi (1+2E_{i,j}) \mathrel{\buildrel (*)\over =} \varphi (1+E_{i,j}). $$ Desde $1+E_{i,j}$ es invertible (con inversa $1-E_{i,j}$ ), y por tanto $\varphi (1+E_{i,j})\neq 0$ deducimos que $\varphi (1+E_{i,j})$ es la única solución no nula de la ecuación polinómica $x^2=x$ , es decir, 1. $\qquad$ QED
EDITAR 3: Como ha señalado el usuario @math54321, para llevar una matriz a su forma escalonada reducida también hay que poder intercambiar filas. Sin embargo, como el intercambio de filas provoca un cambio de signo en el determinante, no es razonable esperar $\varphi (A)$ para ser invariante bajo tal operación elemental. En su lugar, mostraremos la invariancia de $\varphi (A)$ bajo un intercambio de filas, seguido de un cambio de signo de una de las filas implicadas. Es evidente que esto es igualmente eficaz en la tarea de llevar una matriz a su forma escalonada reducida. forma escalonada reducida.
Pronto veremos que el cálculo clave para apoyar esta afirmación es que, definiendo $$ \Sigma _{i, j} := (1+E_{i,j})(1-E_{j,i})(1+E_{i,j}), $$ uno tiene $$ \Sigma _{i, j} = 1 - E_{j,j} - E_{i,i} + E_{i,j} - E_{j,i}. \qquad (**) $$ Por ejemplo, en caso de $n=3$ , $i=2$ y $j=1$ esto se convierte en $$ \Sigma _{2, 1} = \pmatrix{ 1 & 0 & 0 \cr 1 & 1 & 0 \cr 0 & 0 & 1 } \pmatrix{ 1 & -1 & 0 \cr 0 & 1 & 0 \cr 0 & 0 & 1 } \pmatrix{ 1 & 0 & 0 \cr 1 & 1 & 0 \cr 0 & 0 & 1 } = \pmatrix{ 0 & -1 & 0 \cr 1 & 0 & 0 \cr 0 & 0 & 1 }. $$ El cálculo en $(**)$ equivale a decir que $\Sigma _{i,j}$ es el $n\times n$ matriz que coincide con la matriz identidad en todas las partes fuera de la $2\times 2$ submatriz formada por las filas y columnas con índices $i$ y $j$ donde en cambio se ve como $ \pmatrix{ 0 & -1\cr 1 & 0 }. $
Además, dada cualquier matriz $A$ la matriz $\Sigma _{i,j}A$ se ve fácilmente que es la matriz obtenida de $A$ intercambiando el $i^{th}$ y $j^{th}$ filas, seguido de un cambio de signo del $i^{th}$ fila (que antes se conocía como la $j^{th}$ fila).
Una mirada a la definición de $\Sigma _{i,j}$ es entonces suficiente para convencer al lector de que $\varphi (\Sigma _{i,j})=1$ y, por tanto, que $\varphi (\Sigma _{i,j}A)=\varphi (A)$ . Esto demuestra que $\varphi $ es invariable bajo nuestra operación de intercambio de filas/cambio de signos.
Agradecemos al usuario @math54321 por señalar la necesidad de verificar este punto extra.
EDITAR 4. Una prueba racionalizada.
Teorema . El determinante es el único mapa multiplicativo $\varphi :M_n(K)\to K$ tal que $$ \varphi (a P+I-P) = a , $$ por cada $a$ en $K$ y toda matriz idempotente $P$ con rango uno.
Prueba . Está claro que el determinante satisface la propiedad anterior, por lo que pasamos a la prueba de la unicidad. Así, suponiendo que $$ \varphi : M_n(K)\to K $$ es un mapa multiplicativo que satisface la condición anterior, debemos demostrar que $\varphi $ coincide con el determinante.
Por cada $i$ y $j$ Considere la $n\times n$ matriz $E_{i,j}$ cuyas entradas son todas nulas excepto la $(i,j)$ que es igual a 1. A continuación, afirmamos que $$ \varphi (I+a E_{i,j}) = 1, \tag{1} $$ por cada $a\in K$ y cada $i\neq j$ . Para demostrar esto, y suponiendo primero que $a$ es distinto de cero, un simple cálculo muestra que $$ (1+aE_{i,j})\Big (aE_{i,i}+1-E_{i,i}\Big ) = \Big (aE_{i,i}+1-E_{i,i}\Big )(1+E_{i,j}), $$ y como $$ \varphi \Big (aE_{i,i}+1-E_{i,i}\Big ) = a \neq 0, $$ obtenemos $$ \varphi (1+aE_{i,j})=\varphi (1+E_{i,j}). \tag{2 } $$
La prueba concluirá cuando demostremos que $\varphi (1+E_{i,j})=1$ Lo que hacemos es considerar dos casos:
Caso 1) La característica de $K$ es 2.
En este caso observe que $$ (1+E_{i,j})^2 = 1+2E_{i,j}=1, $$ así que $\varphi (1+E_{i,j})^2 = 1$ y vemos que $\varphi (1+E_{i,j})$ es la única solución de la ecuación polinómica $x^2=1$ , es decir, 1 (recordemos que $1=-1$ aquí).
Caso 2) La característica de $K$ no es 2.
En este caso tenemos que $$ (1+E_{i,j})^2 = 1+2E_{i,j}, $$ y como $2\neq 0$ tenemos por $(2) $ que $$ \varphi (1+E_{i,j})^2 = \varphi (1+2E_{i,j}) = \varphi (1+E_{i,j}). $$ Al notar que $1+E_{i,j}$ es invertible (con inversa $1-E_{i,j}$ ), y por lo tanto que $\varphi (1+E_{i,j})\neq 0$ deducimos que $\varphi (1+E_{i,j})$ es la única solución no nula de la ecuación polinómica $x^2=x$ , es decir, 1.
Esto se encarga de la reclamación $(1)$ para cualquier $a$ pero si $a=0$ La reclamación se limita a afirmar que $\varphi (1)=1$ , lo que se deduce inmediatamente de la hipótesis (eligiendo $P$ para ser cualquier proyección de rango uno y $a=1$ ).
A continuación, consideremos el subgrupo $H\subseteq GL_n(K)$ generado por la unión de los dos conjuntos siguientes $$ \big \{a E_{i, i}+I-E_{i, i}: a\in K^\times , \ 1\leq i\leq n\big \}, $$ et $$ \big \{ 1+aE_{i,j}: a\in K, \ 1\leq i,j\leq n,\ i\neq j\big \}. $$
Obsérvese que la hipótesis junto con $(1)$ implica que $\varphi $ coincide con el determinante en los generadores de $H$ y por lo tanto $$ \varphi (U)=\text{det}(U), \quad\forall \, U\in H.\tag{3} $$
A continuación, afirmamos que si $A$ es cualquier $n\times n$ matriz, y $A'$ es la matriz obtenida de $A$ por cualquiera de los siguientes medios llamado fila elemental operaciones entonces existe algún $U\in H$ tal que $UA=A'$ .
Las operaciones son:
a) Sustitución del $i^{th}$ fila de $A$ con sí mismo más $\lambda $ veces el $j^{th}$ fila, donde $i\neq j$ y $\lambda \in K$ .
b) Multiplicar el $i^{th}$ fila de $A$ por un valor no nulo $\lambda \in K$ .
c) Intercambiar el $i^{th}$ fila de $A$ con el $j^{th}$ fila.
Para verificar la afirmación de la letra a), basta con tomar $U=I+\lambda E_{i,j}$ . En (b) se toma la matriz diagonal $U=\lambda E_{i,i}+I-E_{i,i}$ Por lo tanto, queda por comprobar la afirmación de la letra c).
Definición de $$ \Sigma _{i, j} = (1+E_{i,j})(1-E_{j,i})(1+E_{i,j}), $$ un simple cálculo da como resultado $$ \Sigma _{i, j} = 1 - E_{i,i} - E_{j,j} + E_{i,j} - E_{j,i}. \tag{4} $$
Por ejemplo, en el caso de $3\times 3$ matrices, si $i=2$ y $j=1$ esto se convierte en $$ \Sigma _{2, 1} = $$$$ = \pmatrix{ 1 & 0 & 0 \cr 1 & 1 & 0 \cr 0 & 0 & 1 } \pmatrix{ 1 & -1 & 0 \cr 0 & 1 & 0 \cr 0 & 0 & 1 } \pmatrix{ 1 & 0 & 0 \cr 1 & 1 & 0 \cr 0 & 0 & 1 } = $$$$ = \pmatrix{ 0 & -1 & 0 \cr 1 & 0 & 0 \cr 0 & 0 & 1 }. $$ El cálculo en $(4)$ equivale a decir que $\Sigma _{i,j}$ es el $n\times n$ matriz que coincide con la matriz identidad en todas las partes fuera de la $2\times 2$ submatriz formada por las filas y columnas con índices $i$ y $j$ donde en cambio se ve como $ \pmatrix{ 0 & -1\cr 1 & 0 }. $
Además, dada cualquier matriz $A$ la matriz $\Sigma _{i,j}A$ se ve fácilmente que es la matriz obtenida de $A$ intercambiando el $i^{th}$ y $j^{th}$ filas, seguido de un cambio de signo del $i^{th}$ fila (que antes se conocía como la $j^{th}$ fila). Este cambio de signo no deseado puede deshacerse claramente multiplicando de nuevo $A$ a la izquierda por $$ -E_{i,i}+I-E_{i,i}, $$ por lo que la afirmación está probada.
Vemos entonces que todos los pasos necesarios para llevar $A$ a su forma escalonada reducida puede realizarse multiplicando $A$ a la izquierda por algún miembro del subgrupo $H$ . Esto implica que, si $A'$ es ahora la forma escalonada reducida de $A$ entonces existe algún $U$ en $H$ tal que $UA=A'$ .
Esto nos permite concluir la prueba de que $\varphi $ coincide con el determinante, como sigue:
Caso 1) $A$ es invertible y por lo tanto $A'$ es la identidad.
Como se ha visto anteriormente, hay algunos $U$ en $H$ tal que $UA=I$ De ahí que $A=U^{-1}\in H$ por lo que la conclusión se desprende de $(3)$ .
Por cierto, es interesante observar que acabamos de demostrar que $H=GL_n(K)$ ¡!
Caso 2) $A$ no es invertible y, por tanto, la última fila de $A'$ es idénticamente igual a cero.
En este caso $E_{n,n}A' =0$ Así que $$ A' = (I-E_{n,n})A' = (0E_{n,n}+I-E_{n,n})A', $$ de donde $$ \varphi (U)\varphi (A)=\varphi (UA)=\varphi (A') = \varphi \big ((0E_{n,n}+I-E_{n,n})A'\big )= $$$$= \varphi (0E_{n,n}+I-E_{n,n})\varphi (A') =$$$$= 0\varphi (A') = 0, $$ así que $$ \varphi (A)=0 = \text{det}(A). $$ QED.
Me gustaría dar las gracias a todos los usuarios que han aportado importantes comentarios a las versiones anteriores de este resultado, entre otros, @math54321 y @Aaratrick.