5 votos

Si $X \subseteq R^n$ genera el espacio nulo de $A \in M_{m,n}(R)$ ¿sigue generando el espacio nulo cuando pasamos a un anillo de extensión?

Sea $R$ sea un anillo conmutativo y $A$ un $m \times n$ con entradas en $R$ . En otras palabras, un $R$ -mapa lineal $R^n \to R^m$ . Sea $K =\ker(A) \subseteq R^n$ y supongamos que $X$ es un finito $R$ -conjunto generador de $K$ . Supongamos ahora que $S$ es un anillo conmutativo que contiene $R$ como un subring (asumo que $R$ y $S$ son unitales con la misma unidad). También podemos considerar $A$ como una matriz con entradas en $S$ es decir, un mapa $S^n \to S^m$ . Así que ahora tenemos que considerar otro núcleo (más grande). El núcleo $K'$ de $A$ considerado como un mapa $S^n \to S^m$ .

Pregunta: Es $X$ todavía un $S$ -conjunto generador de $K'$ ? O, lo que es lo mismo, ¿es $K'$ generado por $K = K' \cap R^n$ ?

Sólo me interesa el caso en el que $X$ es finito, es decir $K$ está finitamente generada sobre $R$ . De hecho, $R$ puede ser noetheriano. Sin embargo, no estoy seguro de la relevancia de esto aquí.

En el entorno del álgebra lineal, es decir, cuando $R$ y $S$ son campos, esto es bastante obvio. Se puede considerar una consecuencia del algoritmo de eliminación de Gauss-Jordan. De hecho, si traes $A$ a la forma escalonada sobre $R$ entonces también debe ser la forma escalonada sobre $S$ (por unicidad) por lo que la base para el espacio nulo que se lee de la forma escalonada funciona tanto para $R$ o $S$ .

No sé mucho de álgebra conmutativa, pero creo que esto también tiene que cumplirse en el caso en que $A$ es suryectiva. Entonces, aplicando $\otimes_R S$ a $$ 0 \to K \to R^n \overset{A}{\to} R^m \to 0 $$ da $$ \cdots \to \mathrm{Tor}_1^R(R^m,S) \to \ker_R(A) \otimes_R S \to S^n \overset{A}{\to} S^m \to 0$$ y el grupo Tor anterior es cero, porque $R^m$ es proyectiva, por lo que vemos que $\ker_R(A) \otimes_R S$ coincide con $K'$ según sea necesario.

¿Qué opina, esto es válido en general? Y, ¿realmente necesitamos herramientas de álgebra conmutativa para demostrarlo si es así? Creo que, dado que la afirmación es tan transparente en el caso del campo, si es cierta en general debería serlo por alguna razón bastante transparente.

0 votos

Buena pregunta. Sólo para aclarar: has etiquetado esto con ''álgebra conmutativa'' - ¿significa esto que estás asumiendo que $R, S$ son anillos conmutativos?

0 votos

Sí, suponía que eran conmutativos. ¡Gracias! Lo añadiré.

2voto

Adam Malter Puntos 96

Esto no es cierto en general. Un ejemplo muy sencillo $R=\mathbb{Z}$ y que $S=\mathbb{Z}\times\mathbb{F}_2$ . A continuación, el mapa $R\to R$ dada por la multiplicación por $2$ es inyectiva (por lo que el núcleo está generado por $X=\emptyset$ ), pero el mapa $S\to S$ dada por la multiplicación por $2$ no lo es.

En general, una condición suficiente para que esto se cumpla es que $S$ para ser plana sobre $R$ . De hecho, la afirmación de que $X$ genera el núcleo de $A$ sólo significa que la secuencia $$R^{\oplus X}\to R^n\stackrel{A}\to R^m$$ es exacto cuando el primer mapa es inducido por la inclusión $X\to R^n$ . La declaración correspondiente para $S$ se obtiene simplemente tensando esta secuencia con $S$ en $R$ . Si $S$ es plano sobre $R$ entonces la secuencia sigue siendo exacta después de tensar con $S$ y así $X$ genera el núcleo de $A$ en $S$ también.

0 votos

¡Estupendo! Por cierto, mi amigo me acaba de dar otro buen ejemplo. Que $R$ sean funciones continuas sobre $[0,1]$ y $S$ el anillo mayor de funciones acotadas de Borel. Consideremos $A : R \to R$ dada por la multiplicación por $x$ (la función de coordenadas del intervalo). Entonces $A$ es inyectiva. Pero, cuando extendemos escalares a $S$ existe un núcleo (generado por la función característica de $\{0\}$ ).

0 votos

Creo que la condición suficiente para una respuesta afirmativa que ha dado (planitud de $S$ en $R$ ) es en realidad también una condición necesaria para que la respuesta sea "sí" para todas las matrices A. He añadido otra respuesta a este efecto.

1voto

aetaur Puntos 11

Eric Wofsey dio un ejemplo para demostrar que la respuesta a mi pregunta es "no siempre" y también dio una condición suficiente para que la respuesta sea "sí", a saber, que $S$ sea un plano $R$ -módulo. Creo que la planitud también es una condición necesaria. Formalizo esto en la siguiente proposición.

Notación: todos los productos tensoriales se equilibrarán sobre $R$ .

Proposición: Sea $R \subseteq S$ sean anillos conmutativos con una unidad común. Entonces, los siguientes son equivalentes.

  1. $S$ es un plano $R$ -módulo.
  2. Para cualquier número entero positivo $m,n$ y cualquier $R$ -mapa lineal $A : R^n \to R^m$ el mapa $A \otimes \mathrm{id}_S : S^n \to S^m$ tiene $\ker(A \otimes \mathrm{id}_S) = \ker(A) \otimes S$ .
  3. Para cualquier número entero positivo $n$ y cualquier $R$ -mapa lineal $A : R^n \to R$ el mapa $A \otimes \mathrm{id}_S : S^n \to S$ tiene $\ker(A \otimes \mathrm{id}_S) = \ker(A) \otimes S$ .

Prueba: Eric explicó por qué (1) implica (2), y obviamente (2) implica (3). Así que sólo tenemos que suponer (3) y demostrar que $S$ es plano sobre $R$ . Según wikipedia para mostrar $S$ es plana $R$ -sólo tenemos que demostrar que, para cualquier ideal finitamente generado $I = \langle p_1,\ldots,p_k \rangle \in R$ el mapa $\phi : I \otimes S \to R \otimes S = S$ inducida por la inclusión $I \to R$ es inyectiva. Supongamos, por tanto, que $x=\sum_{i=1}^m x_i \otimes s_i \in I \otimes S$ pertenece al núcleo de $\phi$ . En otras palabras, $\sum_{i=1}^m x_is_i = 0$ en $S$ .

Escriba cada $x_i \in I$ como $\sum_{j=1}^k r_{ij} p_j$ , $r_{ij} \in R$ . Entonces, tenemos $0 = \sum_{i=1, j=1}^{m,k} r_{ij} p_j s_i = \sum_{j=1}^k p_j \left( \sum_{i=1}^m r_{ij} s_i \right)$ que muestra que $\sum_{i=1}^m s_i(r_{i1},\ldots,r_{ik})$ pertenece a $\ker(A \otimes \mathrm{id}_S)$ donde $A : R^n \to R$ envía $(r_1,\ldots,r_k) \mapsto r_1p_1 + \ldots + r_kp_l$ . Por la suposición de que (3) se cumple existen $(q_{i1},\ldots,q_{ik}) \in \ker(A)$ y $t_i \in S$ , $i=1,\ldots,n$ tal que $\sum_{i=1}^m s_i \cdot (r_{i1},\ldots,r_{ik}) = \sum t_i \cdot \sum_{i=1}^n (q_{i1},\ldots, q_{ik})$ es decir $\sum_{i=1}^m s_i r_{ij} = \sum_{i=1}^n t_i q_{ij}$ para $j=1,\ldots,k$ . Pero ahora, vemos que $$x=\sum_{i=1,j=1}^{m,k} r_{ij} p_j \otimes s_i = \sum_{j=1}^k p_j \otimes \left( \sum_{i=1}^m s_i r_{ij} \right) = \sum_{j=1}^k p_j \otimes \left( \sum_{i=1}^n t_i q_{ij} \right) = \sum_{i=1}^n \left( \underbrace{\sum_{j=1}^k p_j q_{ij}}_{0} \right) \otimes t_i = 0$$ así que el mapa $\phi$ es inyectiva como se desea.

0 votos

Se puede formular más conceptualmente esta prueba mediante la persecución de un diagrama. La condición (3) es simplemente la condición de que tensar con $S$ preserva la exactitud de las secuencias de la forma $K\to R^n\to R$ . Para demostrar $S$ es plana, hay que demostrar que preserva la exactitud de secuencias de la forma $0\to I\to R$ donde $I$ es un ideal finitamente generado. Entonces, para deducir (1) de (3), construimos una secuencia exacta $K\to R^n\to R$ junto con un epimorfismo $R^n\to I$ tal que junto con el mapa cero $K\to 0$ y el mapa de identidad $R\to R$ tenemos un diagrama conmutativo de secuencias exactas.

1 votos

A continuación, tras tensar con $S$ se puede hacer una simple persecución del diagrama para demostrar que la exactitud de la fila inferior del diagrama se deduce de la exactitud de la fila superior. Si tienes un elemento de $S\otimes I$ que corresponde a $0$ elevarlo a un elemento de $S\otimes R^n$ entonces observe que esta elevación debe provenir de un elemento de $S\otimes K$ . Pero eso implica que el elemento original era $0$ ya que la composición $S\otimes K\to S\otimes R^n\to S\otimes I$ es $0$ por conmutatividad del diagrama.

0 votos

¡Es una gran mejora! Muchas gracias, supongo que no se usa mucho excepto que el functor "tensor con $S$ " preserva los epimorfismos, lo que me parece bastante obvio.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X