47 votos

Uso del álgebra lineal para clasificar haces vectoriales sobre P^1

Existe un teorema de Grothendieck que afirma que un haz vectorial de rango $r$ sobre la línea proyectiva $\mathbb{P}^1$ puede descomponerse en $r$ haces de líneas de forma única hasta el isomorfismo. Si dejamos que $\mathcal{E}$ sea un haz vectorial de rango $r$ con $\mathcal{O}_X$ la gavilla habitual de funciones sobre $X = \mathbb{P}^1$ entonces podemos escribir nuestros haces de líneas como las láminas invertibles $\mathcal{O}_{X}(n)$ con $n \in \mathbb{Z}$ . Por lo tanto, la descomposición se puede plantear como $$\mathcal{E} \cong \oplus_{i=1}^n \mathcal{O}(n_i) \quad n_1 \leq ... \leq n_r.$$

Si utilizamos la cubierta abierta habitual de $\mathbb{P}^1$ con dos líneas afines $U_0 = \mathbb{P}^1 - \{\infty\}$ y $U_1 = \mathbb{P}^1 - \{0\}$ , tenga en cuenta que $\mathcal{O}_{U_0 \cap U_1} = k[x,x^{-1}]$ (con $\mathcal{O}_{U_0} = k[x]$ y $\mathcal{O}_{U_1} = k[x^{-1}]$ ). Un haz vectorial (hasta el isomorfismo) $\mathcal{E}$ de rango $n$ es entonces un automorfismo lineal en $\mathcal{O}_{U_0 \cap U_1}^r$ módulo de automorfismos de cada $\mathcal{O}_{U_i}^r$ para $i = 0,1$ . (Me refiero a la definición dada en Hartshorne II.5.18 donde $A = k[x,x^{-1}]$ los automorfismos lineales son $\psi_1^{-1} \circ \psi_0$ donde $\psi_i: \mathcal{O}_{U_i}^r \rightarrow \left.\mathcal{E}\right|_{U_i}$ son isomorfismos, y la definición de isomorfismo de haces vectoriales nos permite cambiar las bases de $\mathcal{O}_{U_i}^r$ .

Pensando en esto en términos de álgebra lineal, estos automorfismos lineales en $\mathcal{O}_{U_0 \cap U_1}^r$ son elementos de $GL_r(k[x,x^{-1}])$ y el cambio de coordenadas en $\mathcal{O}_{U_i}^r$ son elementos de $GL_r(k[x])$ para $i = 0$ y $GL_r(k[x^{-1}])$ para $i = 1$ . Así, hasta el isomorfismo, los haces vectoriales de rango $r$ en $\mathbb{P}^1$ son elementos del doble cociente $$ GL_r(k[x^{-1}]) \left\backslash \large{GL_r(k[x,x^{-1}])} \right/ GL_r(k[x]).$$ La descomposición de los haces vectoriales en haces de líneas DEBERÍA significar que estos dobles cosets pueden ser representados por matrices de la forma $$\left(\begin{array}{cccc} x^{n_1} & & & 0 \\ & x^{n_2}& & \\ & & \ddots & \\ 0 & & & x^{n_r}\end{array}\right) \quad n_1 \leq n_2 \leq ... \leq n_r.$$ Quiero saber si hay una manera de demostrar este hecho puramente a través del álgebra lineal (equivalentemente, si la prueba geométrica [cf. Lemma 4.4.1 en "Lectures on Vector Bundles" de Le Potier] tiene una interpretación algebraica lineal).

[Nota: Para el caso afín, tomando el doble cociente $$GL_n(k[x]) \left \backslash M_{n,m}(k[x]) \right/ GL_m(k[x])$$ da la clasificación de los haces vectoriales sobre $\mathbb{A}^1_k$ (y por supuesto, al sustituir $k[x]$ con un PID arbitrario, da el teorema de estructura habitual de los módulos finitamente generados sobre PID).

32voto

Nick Cox Puntos 16

Estimada Ila, el resultado de álgebra lineal que mencionas se debe a Dedekind-Weber y fue publicado en la Revista de Crelle de 1882, en su artículo "Theorie der algebraischen Funktionen einer Veränderlichen". Su motivación era demostrar Riemann-Roch en una curva proyectiva suave arbitraria $X$ presentando la curva como un recubrimiento ramificado de $\mathbb P^1$ y empujando hacia abajo el haz de líneas asociado a un divisor en $X$ (utilizaron el lenguaje de los campos de función).

Por supuesto, Grothendieck no conocía este resultado, que también fue redescubierto por Birkhoff en un entorno analítico en 1913, por Plemelj en 1908, por Hilbert en 1905...

Encontrará algunos detalles sobre la metamorfosis de este teorema del álgebra lineal en el resultado de Grothendieck en el interesante artículo de Scharlau

http://wwwmath.uni-muenster.de/u/scharlau/scharlau/grothendieck/Grothendieck.pdf

14voto

David Gardiner Puntos 348

Debo admitir que nunca he leído esta referencia, pero la recuerdo de una discusión similar en un foro alemán, según la cual hay una prueba sencilla en

Michiel Hazewinkel y Clyde Martin, Una breve demostración elemental del teorema de Grothendieck sobre los haces vectoriales algebraicos sobre la línea proyectiva Journal of pure and applied algebra 25 (1982), pp. 207 - 211 .

8voto

Vetle Puntos 413

Conozco este resultado como Factorización de Birkhoff . Me lo asignaron como ejercicio en una clase de geometría algebraica y se me ocurrió la siguiente prueba bastante tediosa. A continuación trabajo sobre $\mathbb{C}$ pero la prueba no utiliza ningún dato sobre el campo base.


Cualquier elemento de $\mathbb{C}[t, t^{-1}]$ puede escribirse de forma única en la forma $t^k f(t)$ donde $f$ es un polinomio con término constante no nulo. Llamamos $k$ le site $t$ -Valoración de la $t^k f(t)$ .

Queremos clasificar los cosets dobles

\begin{equation} \text{GL}_n(\mathbb{C}[t]) \backslash \text{GL}_n(\mathbb{C}[t, t^{-1}]) / \text{GL}_n(\mathbb{C}[t^{-1}]). \end{equation}

Obsérvese que partiendo de una matriz en $\text{GL}_n(\mathbb{C}[t, t^{-1}])$ y realizando $\mathbb{C}[t]$ -operaciones lineales de fila resp. $\mathbb{C}[t^{-1}]$ -operaciones lineales de columna no cambia el coset al que pertenece la matriz.

Partiendo de dicha matriz, realice $\mathbb{C}[t]$ -Operaciones lineales de fila como se indica a continuación. En primer lugar, consideremos el $\mathbb{C}[t]$ -submódulo de $\mathbb{C}[t, t^{-1}]$ generado por los elementos de la primera columna. Este submódulo es $t^k$ veces un ideal de $\mathbb{C}[t]$ para algunos $k$ que es principal, por lo que es generado por un elemento. Utilizando las operaciones de fila, sustituya una de las entradas de la columna por un generador, colóquelo en la fila superior y elimine el resto de las entradas de la columna. Repite la operación para cada columna.

Tras realizar las operaciones de fila anteriores, obtenemos una matriz triangular superior en el mismo coset que la original. Cada una de sus entradas diagonales es una unidad en $\mathbb{C}[t, t^{-1}]$ por lo que debe ser una constante invertible veces $t^k$ para algunos $k \in \mathbb{Z}$ (y multiplicando las filas o columnas por las constantes adecuadas podemos suponer WLOG que tienen la forma $t^k$ ).

Ahora realice la siguiente secuencia de operaciones de filas y columnas en cada diagonal por encima de la diagonal principal (no pase a una nueva diagonal hasta que cada entrada de la diagonal actual sea cero). Utilizando las operaciones de fila y columna, asegúrese de que cada término de la entrada de la diagonal $p(t)$ tiene la propiedad de que si $t^{\ell}$ es la entrada de la diagonal principal a su izquierda y $t^d$ es la entrada de la diagonal principal por debajo de ella, entonces $p(t)$ no contiene términos de grado mayor o igual a $d$ o inferior o igual a $\ell$ . Abreviaremos esta situación utilizando el $2 \times 2$ matriz

\begin{equation} \left[ \begin{array}{cc} t^{\ell} & p(t) \\ 0 & t^d \end{array} \[derecho] \ ~ - fin {ecuación}

donde $p(t) = \sum_{m=\ell+1}^{d-1} p_m t^m$ . Sea $k < 0$ sea el número entero negativo tal que la mayor potencia de $t$ dividiendo $t^k p(t)$ es $t^{\ell}$ y realizar la operación de la columna

\begin{equation} \left[ \begin{array}{cc} t^{\ell} - t^k p(t) & p(t) \\ -t^{d+k} & t^d \end{array} \[derecha]. \fin{s} {equipamiento}

Ahora realice operaciones de fila para eliminar la entrada inferior izquierda. El resultado tendrá la forma

\begin{equation} \left[ \begin{array}{cc} t^{\ell'} & p'(t) \\ 0 & t^{d'} \end{array} \[derecho] \ ~ - fin {ecuación}

donde $\ell'$ es el mínimo del $t$ -Valoración de la $t^{\ell} - t^k p(t)$ (que es mayor que $\ell$ ) y $d+k$ . Pero como $p(t)$ por supuesto no contiene términos de grado mayor o igual a $m$ , $d+k$ es necesariamente también mayor que $\ell$ . Por lo tanto, nuestras operaciones de fila y columna han garantizado que $\ell' > \ell$ y $d' < d$ . Si $p'(t) = 0$ hemos terminado y podemos pasar a una nueva entrada en la misma diagonal o a una nueva diagonal. En caso contrario, repetimos. Después de un número finito de pasos, tendremos $\ell^{(N)} \ge d^{(N)}$ (donde $N$ es el número de pasos), en cuyo momento $p^{(N)}(t)$ necesariamente desaparece y podemos pasar a una nueva entrada o a una nueva diagonal.

El algoritmo anterior produce finalmente una matriz diagonal con entradas de la forma $t^k$ para algunos $k$ lo que demuestra que todo doble coset en

\begin{equation} \text{GL}_n(\mathbb{C}[t]) \backslash \text{GL}_n(\mathbb{C}[t, t^{-1}]) / \text{GL}_n(\mathbb{C}[t^{-1}]). \end{equation}

contiene una matriz de la forma deseada. Queda por demostrar que esta matriz es única hasta la permutación de sus entradas diagonales. Supongamos entonces dos matrices diagonales $D, D'$ con entradas diagonales $t^{k_i}, t^{k_i'}$ se encuentran en el mismo doble coset, por lo que existe $A \in \text{GL}_n(\mathbb{C}[t])$ y $B \in \text{GL}_n(\mathbb{C}[t^{-1}])$ tal que

\begin{equation} D' = A^{-1} DB. \end{equation}

Tomando determinantes vemos que $\sum k_i = \sum k_i'$ . Reescribe la identidad anterior como

\begin{equation} AD' = DB. \end{equation}

Dejemos que $a_{ij}, b_{ij}$ sean las entradas de $A, B$ . Entonces lo anterior da

\begin{equation} t^{k_j} a_{ij} = t^{k_i'} b_{ij} \end{equation}

o

\begin{equation} b_{ij} = t^{k_j - k_i'} a_{ij}. \end{equation}

Desde $\sum k_i = \sum k_i'$ se deduce que $\sum (k_i - k_i') = 0$ . Si $\sigma \in S_n$ es una permutación, se deduce que

\begin{equation} \sum_i (k_{\sigma(i)} - k_i') = 0 \end{equation}

por lo tanto, que o bien $k_{\sigma(i)} = k_i'$ para todos $i$ (en cuyo caso hemos terminado) o que existe un $i$ tal que $k_{\sigma(i)} - k_i' > 0$ . Pero $a_{ij} \in \mathbb{C}[t]$ y $b_{ij} \in \mathbb{C}[t^{-1}]$ por lo que esto es posible si y sólo si $a_{ij} = b_{ij} = 0$ . Desde $A, B$ no son idénticos a cero, debe existir una permutación $\sigma$ tal que $k_{\sigma(i)} = k_i'$ para todos $i$ y la conclusión es la siguiente.

7voto

mreggen Puntos 2940

Cuando era estudiante de posgrado, mi asesor Phillip Griffiths me dijo que el teorema de división de Grothendieck era equivalente al lema del lápiz de Kronecker, que da una forma normal para un espacio bidimensional de matrices rectangulares. Recuerdo haber calculado la equivalencia, y de hecho la utilicé en mi tesis doctoral (que fue no en la geometría algebraica). El enunciado y la demostración del lema del lápiz de Kronecker se encuentran en el libro de Gantmacher, "The Theory of Matrices", y se basan únicamente en el álgebra lineal. No sé nada sobre el resultado de Dedekind-Weber citado por Georges Elencwajg. Recuerdo que el libro "Vector Bundles on Complex Projective Spaces" de Okonek y otros me resultó muy útil.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X