44 votos

¿Definición de determinantes sin base e independiente del campo?

Dejemos que $T$ sea un operador lineal en un espacio vectorial de dimensión finita $V$ sobre el campo $K$ con $\dim V=n$ . ¿Existe una definición del determinante de $T$ que (1) no hace referencia a una base particular de $V$ y (2) no requiere $K$ ¿es un campo concreto?


Como motivación, si $K=\mathbb C$ Conozco tres formas de definir $\det(T)$ dos de las cuales se refieren a una elección de base, y la otra se basa en $\mathbb C$ siendo algebraicamente cerrado:

  • Elija una base ordenada $B$ de $T$ y que $\mathcal M(T)$ denotan la matriz de $T$ con respecto a esta base. A continuación, aplica cualquiera de las fórmulas/algoritmos para calcular un determinante a $\mathcal M(T).$ [Esto funciona para cualquier campo, pero requiere elegir una base para expresar $\mathcal M(T)$ .]
  • Elija una base ordenada $B$ de $T$ y que $\det_n$ sea un mapa multilineal alterno de $V^n\to K$ . Entonces el determinante de $T$ puede definirse como $\det_n(TB)/\det_n(B)$ . [Esto funciona para cualquier campo, pero requiere elegir una base para extraer los "vectores columna de la matriz de $T$ ."]
  • Definir $\det(T)$ como el producto de los valores propios de $T$ , que se repiten según su multiplicidad algebraica. [Esto no hace referencia a una base, pero sólo funciona porque $\mathbb C$ es algebraicamente cerrado].

43voto

Ruy Puntos 123

Esta respuesta ha sido editada varias veces tras recibir valiosas aportaciones de varios usuarios. Aunque su forma actual refleja con bastante fidelidad el proceso que condujo a ella, la naturaleza irregular del texto quizás no sea especialmente agradable de leer. Por ello, he decidido añadir una (esperemos) última edición al final, con una prueba que sólo podía escribirse a posteriori. El lector El lector puede, por lo tanto, preferir ir directamente a ella. La encontrará en "EDIT 4".


El determinante es el único mapa multiplicativo $$ \varphi : \text{End}(V)\to K $$ tal que

  1. $\varphi (I+T)=1$ cuando $T^2=0$ ,

  2. $\varphi (\alpha P+I-P) = \alpha $ cuando $P$ es idempotente y tiene rango uno.

(Véase el EDIT 2, más adelante, para demostrar que la condición (1), arriba, es superflua).


EDIT: Ahora que tengo algo de tiempo libre, permítanme justificar mi respuesta, quizá demasiado contundente (¡lo siento!), anterior.

No es tan difícil ver que el determinante satisface las propiedades anteriores, así que sólo demostraré la unicidad.

El objetivo de la pregunta es deshacerse de las coordenadas, pero creo que no está de más que la prueba se base en coordenadas. En otras palabras, hablemos de $n\times n$ matrices.

Así que suponemos que $$ \varphi : M_n(K)\to K $$ es un mapa multiplicativo que satisface las condiciones anteriores y demostremos que $\varphi $ coincide con el determinante.

Por cada $i$ y $j$ Considere la $n\times n$ matriz $E_{i,j}$ cuyas entradas son todas nulas excepto la $(i,j)$ que es igual a 1.

A continuación, observamos que si $A$ es cualquier $n\times n$ matriz, $\lambda $ es cualquier escalar, y $i\neq j$ entonces $$ (I+\lambda E_{i,j})A $$ es la matriz que se obtiene aplicando a $A$ la operación elemental de sumar $\lambda $ veces el $j^{th}$ fila de $A$ a la $i^{th}$ fila.

Desde $i\neq j$ , uno tiene que $(\lambda E_{i,j})^2=0$ por lo que la hipótesis da $$ \varphi \big ((I+\lambda E_{i,j})A\big ) = $$$$=\varphi (I+\lambda E_{i,j} ) \varphi (A) = \varphi (A) . $$

Esto implica que el valor de $\varphi (A)$ permanece inalterado sin importar cuántas operaciones elementales de fila apliquemos a $A$ .

Como se observa en la "EDICIÓN 3" más adelante, también podemos intercambiar dos filas cualesquiera de $A$ mediante una secuencia de operaciones elementales, siempre que cambiemos el signo de una de las filas.

Por lo tanto, podemos aportar $A$ a su forma escalonada reducida, manteniendo el valor de $\varphi (A)$ sin cambios, excepto que no podemos hacer que las entradas principales de cada fila sean iguales a 1, ya que esto requiere multiplicar una fila por un escalar, una operación bajo la cual $\varphi$ no es ciertamente invariable.

Dejar $A'$ sea esta forma de escalón de fila cuasi reducida de $A$ (con entes principales no necesariamente iguales a 1), tenemos en consecuencia que $\varphi (A)= \varphi (A')$ .

Caso 1: $A$ es invertible y por lo tanto $A'$ es diagonal.

Dejar $a_i$ denotan el $i^{th}$ entrada diagonal de $A'$ entonces tenemos que $$ A'=\prod_{i=1}^n(a_iE_{i,i}+I-E_{i,i}), $$ de donde $$ \varphi (A)= \varphi (A')=\prod_{i=1}^n\varphi (a_iE_{i,i}+I-E_{i,i}) = $$$$ = \prod_{i=1}^na_i=\text{det}(A')=\text{det}(A). $$

Caso 2: $A$ no es invertible y, por tanto, la última fila de $A'$ es idénticamente igual a cero.

En este caso $E_{n,n}A' =0$ Así que $$ A' = (I-E_{n,n})A' = (0E_{n,n}+I-E_{n,n})A', $$ de donde $$ \varphi (A)=\varphi (A') = \varphi \big ((0E_{n,n}+I-E_{n,n})A'\big )= $$$$= \varphi (0E_{n,n}+I-E_{n,n})\varphi (A') = 0\varphi (A') = 0 = \text{det}(A). $$


EDIT 2: Observe que la hipótesis " $\varphi (I+T)=1$ cuando $T^2=0$ " en la prueba anterior se utilizó exclusivamente para argumentar que $\varphi (I+\lambda E_{i,j}) = 1$ . Aquí demostraremos que esta hipótesis es superflua.

Agradezco al usuario @math54321 por un comentario que llevó a la demostración de este resultado sin ninguna hipótesis especial sobre $K$ .

Teorema . El determinante es el único mapa multiplicativo $\varphi :M_n(K)\to K$ tal que

  • $\varphi (\alpha P+I-P) = \alpha $ cuando $P$ es idempotente y tiene rango uno.

Prueba . Teniendo en cuenta cualquier $\varphi $ y en vista de la discusión anterior, basta con mostrar que $\varphi (I+\lambda E_{i,j}) = 1$ , siempre que $i\neq j$ .

Dado $a\in K$ no es cero, un simple cálculo muestra que $$ (1+aE_{i,j})\Big (aE_{i,i}+1-E_{i,i}\Big ) = \Big (aE_{i,i}+1-E_{i,i}\Big )(1+E_{i,j}), $$ y como $$ \varphi \Big (aE_{i,i}+1-E_{i,i}\Big ) = a \neq 0, $$ obtenemos $$ \varphi (1+aE_{i,j})=\varphi (1+E_{i,j}). \qquad (*) $$

La prueba concluirá cuando demostremos que $\varphi (1+E_{i,j})=1$ Lo que hacemos es considerar dos casos:

Caso 1) La característica de $K$ es 2.

En este caso observe que $$ (1+E_{i,j})^2 = 1+2E_{i,j}=1, $$ así que $\varphi (1+E_{i,j})^2 = 1$ y vemos que $\varphi (1+E_{i,j})$ es la única solución de la ecuación polinómica $x^2=1$ , es decir, 1 (recordemos que $1=-1$ aquí).

Caso 2) La característica de $K$ no es 2.

En este caso tenemos que $$ (1+E_{i,j})^2 = 1+2E_{i,j}, $$ y como $2\neq 0$ tenemos $$ \varphi (1+E_{i,j})^2 = \varphi (1+2E_{i,j}) \mathrel{\buildrel (*)\over =} \varphi (1+E_{i,j}). $$ Desde $1+E_{i,j}$ es invertible (con inversa $1-E_{i,j}$ ), y por tanto $\varphi (1+E_{i,j})\neq 0$ deducimos que $\varphi (1+E_{i,j})$ es la única solución no nula de la ecuación polinómica $x^2=x$ , es decir, 1. $\qquad$ QED


EDITAR 3: Como ha señalado el usuario @math54321, para llevar una matriz a su forma escalonada reducida también hay que poder intercambiar filas. Sin embargo, como el intercambio de filas provoca un cambio de signo en el determinante, no es razonable esperar $\varphi (A)$ para ser invariante bajo tal operación elemental. En su lugar, mostraremos la invariancia de $\varphi (A)$ bajo un intercambio de filas, seguido de un cambio de signo de una de las filas implicadas. Es evidente que esto es igualmente eficaz en la tarea de llevar una matriz a su forma escalonada reducida. forma escalonada reducida.

Pronto veremos que el cálculo clave para apoyar esta afirmación es que, definiendo $$ \Sigma _{i, j} := (1+E_{i,j})(1-E_{j,i})(1+E_{i,j}), $$ uno tiene $$ \Sigma _{i, j} = 1 - E_{j,j} - E_{i,i} + E_{i,j} - E_{j,i}. \qquad (**) $$ Por ejemplo, en caso de $n=3$ , $i=2$ y $j=1$ esto se convierte en $$ \Sigma _{2, 1} = \pmatrix{ 1 & 0 & 0 \cr 1 & 1 & 0 \cr 0 & 0 & 1 } \pmatrix{ 1 & -1 & 0 \cr 0 & 1 & 0 \cr 0 & 0 & 1 } \pmatrix{ 1 & 0 & 0 \cr 1 & 1 & 0 \cr 0 & 0 & 1 } = \pmatrix{ 0 & -1 & 0 \cr 1 & 0 & 0 \cr 0 & 0 & 1 }. $$ El cálculo en $(**)$ equivale a decir que $\Sigma _{i,j}$ es el $n\times n$ matriz que coincide con la matriz identidad en todas las partes fuera de la $2\times 2$ submatriz formada por las filas y columnas con índices $i$ y $j$ donde en cambio se ve como $ \pmatrix{ 0 & -1\cr 1 & 0 }. $

Además, dada cualquier matriz $A$ la matriz $\Sigma _{i,j}A$ se ve fácilmente que es la matriz obtenida de $A$ intercambiando el $i^{th}$ y $j^{th}$ filas, seguido de un cambio de signo del $i^{th}$ fila (que antes se conocía como la $j^{th}$ fila).

Una mirada a la definición de $\Sigma _{i,j}$ es entonces suficiente para convencer al lector de que $\varphi (\Sigma _{i,j})=1$ y, por tanto, que $\varphi (\Sigma _{i,j}A)=\varphi (A)$ . Esto demuestra que $\varphi $ es invariable bajo nuestra operación de intercambio de filas/cambio de signos.

Agradecemos al usuario @math54321 por señalar la necesidad de verificar este punto extra.


EDITAR 4. Una prueba racionalizada.

Teorema . El determinante es el único mapa multiplicativo $\varphi :M_n(K)\to K$ tal que $$ \varphi (a P+I-P) = a , $$ por cada $a$ en $K$ y toda matriz idempotente $P$ con rango uno.

Prueba . Está claro que el determinante satisface la propiedad anterior, por lo que pasamos a la prueba de la unicidad. Así, suponiendo que $$ \varphi : M_n(K)\to K $$ es un mapa multiplicativo que satisface la condición anterior, debemos demostrar que $\varphi $ coincide con el determinante.

Por cada $i$ y $j$ Considere la $n\times n$ matriz $E_{i,j}$ cuyas entradas son todas nulas excepto la $(i,j)$ que es igual a 1. A continuación, afirmamos que $$ \varphi (I+a E_{i,j}) = 1, \tag{1} $$ por cada $a\in K$ y cada $i\neq j$ . Para demostrar esto, y suponiendo primero que $a$ es distinto de cero, un simple cálculo muestra que $$ (1+aE_{i,j})\Big (aE_{i,i}+1-E_{i,i}\Big ) = \Big (aE_{i,i}+1-E_{i,i}\Big )(1+E_{i,j}), $$ y como $$ \varphi \Big (aE_{i,i}+1-E_{i,i}\Big ) = a \neq 0, $$ obtenemos $$ \varphi (1+aE_{i,j})=\varphi (1+E_{i,j}). \tag{2 } $$

La prueba concluirá cuando demostremos que $\varphi (1+E_{i,j})=1$ Lo que hacemos es considerar dos casos:

Caso 1) La característica de $K$ es 2.

En este caso observe que $$ (1+E_{i,j})^2 = 1+2E_{i,j}=1, $$ así que $\varphi (1+E_{i,j})^2 = 1$ y vemos que $\varphi (1+E_{i,j})$ es la única solución de la ecuación polinómica $x^2=1$ , es decir, 1 (recordemos que $1=-1$ aquí).

Caso 2) La característica de $K$ no es 2.

En este caso tenemos que $$ (1+E_{i,j})^2 = 1+2E_{i,j}, $$ y como $2\neq 0$ tenemos por $(2) $ que $$ \varphi (1+E_{i,j})^2 = \varphi (1+2E_{i,j}) = \varphi (1+E_{i,j}). $$ Al notar que $1+E_{i,j}$ es invertible (con inversa $1-E_{i,j}$ ), y por lo tanto que $\varphi (1+E_{i,j})\neq 0$ deducimos que $\varphi (1+E_{i,j})$ es la única solución no nula de la ecuación polinómica $x^2=x$ , es decir, 1.

Esto se encarga de la reclamación $(1)$ para cualquier $a$ pero si $a=0$ La reclamación se limita a afirmar que $\varphi (1)=1$ , lo que se deduce inmediatamente de la hipótesis (eligiendo $P$ para ser cualquier proyección de rango uno y $a=1$ ).

A continuación, consideremos el subgrupo $H\subseteq GL_n(K)$ generado por la unión de los dos conjuntos siguientes $$ \big \{a E_{i, i}+I-E_{i, i}: a\in K^\times , \ 1\leq i\leq n\big \}, $$ et $$ \big \{ 1+aE_{i,j}: a\in K, \ 1\leq i,j\leq n,\ i\neq j\big \}. $$

Obsérvese que la hipótesis junto con $(1)$ implica que $\varphi $ coincide con el determinante en los generadores de $H$ y por lo tanto $$ \varphi (U)=\text{det}(U), \quad\forall \, U\in H.\tag{3} $$

A continuación, afirmamos que si $A$ es cualquier $n\times n$ matriz, y $A'$ es la matriz obtenida de $A$ por cualquiera de los siguientes medios llamado fila elemental operaciones entonces existe algún $U\in H$ tal que $UA=A'$ .

Las operaciones son:

a) Sustitución del $i^{th}$ fila de $A$ con sí mismo más $\lambda $ veces el $j^{th}$ fila, donde $i\neq j$ y $\lambda \in K$ .

b) Multiplicar el $i^{th}$ fila de $A$ por un valor no nulo $\lambda \in K$ .

c) Intercambiar el $i^{th}$ fila de $A$ con el $j^{th}$ fila.

Para verificar la afirmación de la letra a), basta con tomar $U=I+\lambda E_{i,j}$ . En (b) se toma la matriz diagonal $U=\lambda E_{i,i}+I-E_{i,i}$ Por lo tanto, queda por comprobar la afirmación de la letra c).

Definición de $$ \Sigma _{i, j} = (1+E_{i,j})(1-E_{j,i})(1+E_{i,j}), $$ un simple cálculo da como resultado $$ \Sigma _{i, j} = 1 - E_{i,i} - E_{j,j} + E_{i,j} - E_{j,i}. \tag{4} $$

Por ejemplo, en el caso de $3\times 3$ matrices, si $i=2$ y $j=1$ esto se convierte en $$ \Sigma _{2, 1} = $$$$ = \pmatrix{ 1 & 0 & 0 \cr 1 & 1 & 0 \cr 0 & 0 & 1 } \pmatrix{ 1 & -1 & 0 \cr 0 & 1 & 0 \cr 0 & 0 & 1 } \pmatrix{ 1 & 0 & 0 \cr 1 & 1 & 0 \cr 0 & 0 & 1 } = $$$$ = \pmatrix{ 0 & -1 & 0 \cr 1 & 0 & 0 \cr 0 & 0 & 1 }. $$ El cálculo en $(4)$ equivale a decir que $\Sigma _{i,j}$ es el $n\times n$ matriz que coincide con la matriz identidad en todas las partes fuera de la $2\times 2$ submatriz formada por las filas y columnas con índices $i$ y $j$ donde en cambio se ve como $ \pmatrix{ 0 & -1\cr 1 & 0 }. $

Además, dada cualquier matriz $A$ la matriz $\Sigma _{i,j}A$ se ve fácilmente que es la matriz obtenida de $A$ intercambiando el $i^{th}$ y $j^{th}$ filas, seguido de un cambio de signo del $i^{th}$ fila (que antes se conocía como la $j^{th}$ fila). Este cambio de signo no deseado puede deshacerse claramente multiplicando de nuevo $A$ a la izquierda por $$ -E_{i,i}+I-E_{i,i}, $$ por lo que la afirmación está probada.

Vemos entonces que todos los pasos necesarios para llevar $A$ a su forma escalonada reducida puede realizarse multiplicando $A$ a la izquierda por algún miembro del subgrupo $H$ . Esto implica que, si $A'$ es ahora la forma escalonada reducida de $A$ entonces existe algún $U$ en $H$ tal que $UA=A'$ .

Esto nos permite concluir la prueba de que $\varphi $ coincide con el determinante, como sigue:

Caso 1) $A$ es invertible y por lo tanto $A'$ es la identidad.

Como se ha visto anteriormente, hay algunos $U$ en $H$ tal que $UA=I$ De ahí que $A=U^{-1}\in H$ por lo que la conclusión se desprende de $(3)$ .

Por cierto, es interesante observar que acabamos de demostrar que $H=GL_n(K)$ ¡!

Caso 2) $A$ no es invertible y, por tanto, la última fila de $A'$ es idénticamente igual a cero.

En este caso $E_{n,n}A' =0$ Así que $$ A' = (I-E_{n,n})A' = (0E_{n,n}+I-E_{n,n})A', $$ de donde $$ \varphi (U)\varphi (A)=\varphi (UA)=\varphi (A') = \varphi \big ((0E_{n,n}+I-E_{n,n})A'\big )= $$$$= \varphi (0E_{n,n}+I-E_{n,n})\varphi (A') =$$$$= 0\varphi (A') = 0, $$ así que $$ \varphi (A)=0 = \text{det}(A). $$ QED.

Me gustaría dar las gracias a todos los usuarios que han aportado importantes comentarios a las versiones anteriores de este resultado, entre otros, @math54321 y @Aaratrick.

25voto

Un endomorfismo $T$ de un espacio vectorial $E$ produce endomorfismos en varios espacios vectoriales deducidos de $E$ . Por ejemplo, en el espacio dual $E'$ el espacio de las formas lineales en $E$ el endomorfismo $T$ induce la transposición $\hbox{}^tT$ de $T$ definido por $(\hbox{}^tTf)(x) = f(T(x))$ . Construcciones similares son posibles en potencias cartesianas de $E$ , productos tensoriales, simétricos y potencias alternas de $E$ y hay un gran número de functorial construcciones además de las que he citado. Busque El polinomio de Schur y plethysm en un libro de teoría de la representación para encontrar más de ellos.

Cuando $E$ tiene una dimensión finita $n$ El $n$ -a la energía externa $\Lambda^n E$ de $E$ es una línea y el endomorfismo inducido $\Lambda^n T$ en $\Lambda^n E$ es, por tanto, una dilatación. El determinante de $T$ es (definición) el coeficiente de esta dilatación.

Con un poco de cuidado, esta definición funciona bien cuando $E$ es un módulo (cuando los coeficientes están en un anillo y no en un campo). Esto es más bien álgebra estándar, es la forma en que se introducen los determinantes en Álgebra general de Denis Allouch y Bernard Charles y estoy seguro de que hay muchas buenas referencias en otros idiomas.

7voto

Acccumulation Puntos 13

Esto no hace referencia a una base, pero sólo funciona porque C es algebraicamente cerrado.

La verdad es que no. Cada campo tiene una extensión que es algebraicamente cerrada, por lo que se puede hacer la matemática en la extensión, y se garantiza que el resultado está en el campo original (esto se puede demostrar, ya sea observando que el resultado es el mismo que el resultado dependiente de la base, o observando que el resultado debe ser inalterado por todos los miembros del grupo de Galois de la extensión).

2voto

Kapil Puntos 201
  • Dando un endomorfismo $T:V\to V$ de un espacio vectorial dimensional sobre un campo $k$ es lo mismo que hacer $V$ un módulo sobre el anillo de polinomios $k[t]$ . ( Edición/Clarificación : Un polinomio $p(t)$ actúa sobre $V$ por $p(T):V\to V$ bajo esta identificación).

  • Se trata de un módulo de torsión finitamente generado si (y sólo si) $V$ es de dimensión finita.

  • Por el teorema de la estructura de los módulos generados finitamente sobre $k[t]$ vemos que $V$ est únicamente expresable como suma directa $\oplus_i k[t]/(p_i(t))$ donde $p_i(t)$ divide $p_{i+1}(t)$ y todos son polinomios mónicos.

  • El determinante de $T$ se define como $(-1)^n\prod_i p_i(0)$ donde $n=\dim(V)$ .

La prueba de que éste es el determinante "habitual" puede darse aplicando el argumento de @Ruy a la matriz $t\cdot 1-A$ y utilizando las operaciones elementales (sobre $k[t]$ ) para reducirlo a la Forma normal de Smith .

0voto

Jagerber48 Puntos 101

Vea mi pregunta aquí: ¿Cualquier función normalizada $D$ que no sea el determinante de la matriz satisfaga $D(AB) = D(A)D(B)$ ?

Creo que podría ser el caso de que el determinante es la única función que satisface lo siguiente. Supongamos que $V$ es un $n$ -campo vectorial sobre $\mathbb{K}$ y $M_{n\times n}(\mathbb{K}$ ) es el conjunto de $n\times n$ matrices sobre $\mathbb{K}$ . Sea $D:M_{n\times n}(\mathbb{K}) \to \mathbb{K}$ . Sea $k\in \mathbb{K}$ .

(1) $D(I)=1$

(2) $D(AB) = D(A)D(B)$

(3) $D(kA) = k^n D$

(4) $D$ es continua

Desgraciadamente, al igual que la respuesta de Ruy, creo que se requiere una versión del determinante dependiente de la base para demostrar la existencia de dicha función.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X