38 votos

condición necesaria y suficiente para el núcleo trivial de una matriz sobre un anillo conmutativo

Al responder ¿Tienen estos anillos matriciales elementos distintos de cero que no sean unidades ni divisores de cero? Me sorprendió lo difícil que fue encontrar algo en la web sobre la generalización del siguiente hecho a los anillos conmutativos:

Una matriz cuadrada sobre un campo tiene núcleo trivial si y sólo si su determinante es distinto de cero.

Como Bill demostró en la pregunta anterior, un hecho relacionado con los campos se generaliza directamente a los anillos conmutativos:

Una matriz cuadrada sobre un anillo conmutativo es invertible si y sólo si su determinante es invertible.

Sin embargo, que el núcleo sea trivial y que la matriz sea invertible no son equivalentes para anillos generales, por lo que se plantea la cuestión de cuál es la generalización adecuada del primer hecho. Como me ha costado bastante buscar la respuesta a esta pregunta tan básica, y es alentado excplícitamente escribir una pregunta y responderla para documentar algo que pueda ser útil para otros, pensé en escribir esto aquí de forma accesible.

Así que mis preguntas son: ¿Cuál es la relación entre el determinante de una matriz cuadrada sobre un anillo conmutativo y la trivialidad de su núcleo? ¿Se puede generalizar la sencilla relación que existe para los campos? Y (generalizando con vistas a la respuesta) ¿cuál es la condición necesaria y suficiente para que una matriz (no necesariamente cuadrada) sobre un anillo conmutativo tenga un núcleo trivial?

32voto

JiminyCricket Puntos 143

Encontré la respuesta en este libro (en la sección $6.4.14$ (Determinantes, rangos y ecuaciones lineales). Yo mismo había intentado utilizar una expansión de Laplace similar, pero se me escapaba la idea de utilizar la dimensión más grande en la que los menores no están todos aniquilados por el mismo elemento distinto de cero. Intentaré resumir el argumento en términos algo menos formales, omitiendo el material tangencial incluido en el libro.

Dejemos que $A$ ser un $m\times n$ matriz sobre un anillo conmutativo $R$ . Queremos encontrar una condición para el sistema de ecuaciones $Ax=0$ con $x\in R^n$ para tener una solución no trivial. Si $R$ es un campo, varias definiciones del rango de $A$ coincidir incluyendo el rango de columnas (la dimensión del espacio de columnas), el rango de filas (la dimensión del espacio de filas) y el rango determinante (la dimensión del menor no nulo). Este no es el caso de un anillo conmutativo general. Resulta que, para nuestros propósitos actuales, es útil generalización del rango es el mayor número entero $k$ tal que no hay ningún elemento no nulo de $R$ que aniquila todos los menores de dimensión $k$ con $k=0$ si no existe tal número entero.

Queremos demostrar que $Ax=0$ tiene una solución no trivial si y sólo si $k\lt n$ .

Si $k=0$ hay un elemento no nulo $r\in R$ que aniquila todos los elementos de la matriz (los menores de dimensión $1$ ), por lo que existe una solución no trivial

$$A\pmatrix{r\\\vdots\\r}=0\;.$$

Supongamos ahora que $0\lt k\lt n$ . Si $m\lt n$ podemos añadir filas de ceros a $A$ sin cambiar $k$ o el conjunto de soluciones, por lo que podemos suponer $k\lt n\le m$ . Hay algún elemento no nulo $r\in R$ que aniquila todos los menores de dimensión $k+1$ y hay un menor de dimensión $k$ que no sea aniquilado por $r$ . Sin pérdida de generalidad, supongamos que este es el menor de los primeros $k$ filas y columnas. Consideremos ahora la matriz formada por la primera $k+1$ filas y columnas de $A$ y formar una solución $x$ de la $(k+1)$ -ésima columna de su adjuntar multiplicándolo por $r$ y rellenarlo con ceros. Por construcción, el primer $k$ entradas de $Ax$ son determinantes de una matriz con dos filas iguales, y por lo tanto desaparecen; las entradas restantes son cada una $r$ veces un menor de dimensión $k+1$ y, por tanto, también se desvanecen. Pero el $(k+1)$ -de esta solución es distinta de cero, siendo $r$ veces el menor de la primera $k$ filas y columnas, que no es aniquilada por $r$ . Así, hemos construido una solución no trivial.

En resumen, si $k\lt n$ hay una solución no trivial para $Ax=0$ .

Supongamos ahora, a la inversa, que existe tal solución $x$ . Si $n\gt m$ no hay menores de dimensión $n$ Así que $k\lt n$ . Por lo tanto, podemos suponer $n\le m$ . Los menores de dimensión $n$ son los determinantes de las matrices $B$ formado por la elección de cualquier $n$ filas de $A$ . Dado que cada fila de $A$ veces $x$ es $0$ tenemos $Bx=0$ y luego multiplicando por el adjunto de $B$ rinde $\det B x=0$ . Como hay al menos una entrada no nula en la solución no trivial $x$ hay al menos un elemento no nulo de $R$ que aniquila a todos los menores de tamaño $n$ y por lo tanto $k\lt n$ .

Especialización al caso $m=n$ de matrices cuadradas, podemos concluir:

Un sistema de ecuaciones lineales $Ax=0$ con un cuadrado $n\times n$ matriz $A$ sobre un anillo conmutativo $R$ tiene una solución no trivial si y sólo si su determinante (su único menor de dimensión $n$ ) es aniquilado por algún elemento no nulo de $R$ es decir, si su determinante es un divisor nulo o cero.

6 votos

El libro al que enlaza joriki es Un segundo semestre de álgebra lineal de S. E. Payne. Aquí hay otros dos enlaces al mismo libro, a través del sitio del autor: Archivo PDF . Página HTML: Notas de clase .

10voto

codemac Puntos 689

Véase el apartado III.8.7, titulado Aplicación a las ecuaciones lineales de Álgebra de Nicolas Bourbaki.

EDITAR 1. Dejemos que $R$ sea un anillo conmutativo, sea $m$ y $n$ sean números enteros positivos, y que $M$ ser un $R$ -y que $A:R^n\to M$ sea $R$ -lineal.

Identificar el $n$ la potencia exterior $\Lambda^n(R^n)$ de $R^n$ a $R$ en la forma obvia, para que $\Lambda^n(A)$ es un mapa de $R$ a $\Lambda^n(M)$ .

Poner $v_i:=Ae_i$ , donde $e_i$ es el $i$ vector de la base canónica de $R^n$ . En particular, tenemos $$ Ax=\sum_{i=1}^n\ x_i\ v_i,\quad\Lambda^n(A)\ r=r\ v_1\wedge\cdots\wedge v_n. $$ (donde $x_i$ es el $i$ -coordenada de $x$ y $r$ denota cualquier elemento de $\Lambda^n\left(R^n\right) \cong R$ ).

Si $\Lambda^n(A)$ es inyectiva, también lo es $A$ .

En otras palabras:

Si el $v_i$ son linealmente dependientes, entonces $r\ v_1\wedge\cdots\wedge v_n=0$ para un número de veces que no es cero $r$ en $R$ .

De hecho, para $x$ en $\ker A$ tenemos $$ \Lambda^n(A)\ x_1=x_1\ v_1\wedge v_2\wedge\cdots\wedge v_n= -\sum_{i=2}^n\ x_i\ v_i\wedge v_2\wedge\cdots\wedge v_n=0, $$ y, del mismo modo, $\Lambda^n(A)\ x_i=0$ para todos $i$ .

[ Modifier : Versión antigua (antes del comentario de Georges): Supongamos ahora que $M$ se incrusta en $R^m$ .]

Supongamos ahora que existe un $R$ -inyección lineal $B:M\to R^m$ tal que $$ \Lambda^n(B):\Lambda^n(M)\to\Lambda^n(R^m) $$ es inyectiva. Este es siempre el caso (para un $m$ ) si $M$ es proyectiva y de generación finita.

Si $A$ es inyectiva, también lo es $\Lambda^n(A)$ .

En otras palabras:

Si $r\ v_1\wedge\cdots\wedge v_n=0$ para un número de veces que no es cero $r$ en $R$ entonces el $v_i$ son linealmente dependientes.

La prueba se da en la bonita respuesta de joriki.

Esto también se demuestra como Propuesta 12 en la obra de Bourbaki Álgebra III.7.9 p. 519. Lamentablemente, no entiendo el argumento de Bourbaki. Estaría muy agradecido a quien tenga la amabilidad y la paciencia de explicármelo.

EDITAR 2. Según las indicaciones de Tsit-Yuen Lam sobre página 150 de su libro Ejercicios en módulos y anillos El teorema se debe a N. H. McCoy, y apareció por primera vez, como Teorema 1 página 288, en

  • N. H. McCoy, Remarks on Divisors of Zero, The American Mathematical Monthly Vol. 49, No. 5 (mayo, 1942), pp. 286-295, JSTOR .

Lam también dice que

  • N. H. McCoy, Anillos e ideales The Carus Mathematical Monographs, nº 8, The Mathematical Association of America, 1948,

es una "excelente exposición" del tema. Véase el teorema 51, página 159.

El teorema de McCoy también se enuncia y demuestra en los siguientes textos:

1 votos

Gracias por este enlace. Sin embargo, ten en cuenta que el resultado sólo se demuestra para matrices cuadradas. Este caso fue la motivación original de la pregunta, pero la pregunta y mi respuesta se aplican al caso general.

0 votos

Estimado @Pierre-Yves, no estoy muy seguro de que su afirmación (mostrada en gris) "Si $A$ es inyectiva, también lo es $\Lambda^n A$ " se mantiene si sólo se asume que $M$ se incrusta en $R^m$ Existe el sutil punto de que los productos exteriores no significan lo mismo en ambos espacios, en otras palabras $\Lambda ^n M\to \Lambda ^n R^m$ no necesita ser inyectiva. Todo está bien si $M$ es proyectiva, sin embargo, y esta es la suposición de Bourbaki. Pero esto es un detalle: +1, no hace falta decirlo.

0 votos

Estimado @Georges: No, ¡definitivamente no se trata de un nitpicking! Muchas gracias. Espero que ahora sea correcto. - Tenía la secreta esperanza de que leyeras esta respuesta. ¿Ha visto el último párrafo? Estoy seguro de que entiendes el argumento de Bourbaki...

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X