2 votos

Problema con una demostración donde se asume que las extensiones algebraicas son extensiones finitas

Estoy leyendo el artículo "Integración en términos finitos" de Maxwell Rosenlicht y tengo un problema con un paso en una demostración. Rosenlicht quiere demostrar lo siguiente: Si $F$ es un campo diferencial de característica cero y $K$ un campo de extensión algebraica de $F$, entonces la derivación en $F$ se puede extender a una derivación en $K$ y esta extensión es única. Después de probar la unicidad, Rosenlicht continúa de la siguiente manera: "Ahora mostramos que dicha estructura de [campo diferencial] en $K$ existe. Usando los argumentos usuales de teoría de campos, podemos suponer que $K$ es una extensión finita de $F$, de modo que podemos escribir $K=F(x)$, para cierto $x\in K".

No siendo un experto en teoría de campos, no entiendo a qué se refiere con los "argumentos usuales" que menciona. Una extensión algebraica no necesariamente es finita, ¿por qué podemos asumirlo aquí?

1voto

Fabio Lucchini Puntos 1886

Sea $K/F$ una extensión algebraica y sea $\mathscr F$ el conjunto de subextensiones finitas de $K/F$, es decir, el conjunto de subcampos $E$ de $K$ que contienen a $F$ tal que $E/F$ es una extensión finita.

Para todo $E\in\mathscr F$ su texto demuestra la existencia de una única derivación $d_E:E\to E$ que extiende la derivación dada en $F$. Como $K=\bigcup\mathscr F$, existe una (y solo una) función $d:K\to K$ tal que $d|E=d_E$ para todo $E\in\mathscr F$ y esta es la derivación requerida.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X