27 votos

¿Es posible motivar formas diferenciales superiores sin integración?

Has estado enseñando a Dennis e Inez matemáticas utilizando el método de Moore durante toda su vida, y actualmente estás profundamente inmerso en la clase de topología.

Los has convencido de que las variedades topológicas no son el objeto correcto de estudio porque "no se puede hacer cálculo en ellas", y has logrado motivar la definición de una variedad suave.

Dennis e Inez se toman en serio tu motivación sobre "hacer cálculo". Te plantean que se preguntaron cómo encontrar la derivada de una función $f: M \to \mathbb{R}$. Descubrieron independientemente que algo así no podría ser simplemente otra función suave. En cambio, tiene que expresar cómo la función está cambiando en la dirección de un campo vectorial dado.

Estás emocionado con su trabajo: han inventado independientemente $d$ y el fibrado cotangente, y llegan a la definición formal correcta de ambos con poco estímulo.

Quieres orientarlos en la dirección de la generalización, así que les pides que consideren cómo extender $d$ a potencias exteriores superiores del fibrado cotangente. Te miran en blanco. ¿Por qué deberían pensar en las potencias tensoriales superiores del fibrado cotangente en absoluto? ¿Por qué los tensores alternos, en particular? Sí, saben lo que eso significa (los guiaste en su curso de álgebra lineal), pero el fibrado cotangente apareció naturalmente cuando empezaron a pensar en derivadas, y los tensores alternos no.

¡Ups! Ahora es el momento de confesar que tus estudiantes nunca tuvieron un curso tradicional de cálculo vectorial tridimensional que culminara en el teorema de Stokes. De hecho, es peor: nunca han oído hablar de integrales. Ves, estabas indeciso sobre si empezar con la teoría de Lebesgue o dedicar tiempo a construir la integral de Riemann más intuitiva, así que simplemente saltaste de la primera mitad de Cálculo I a un curso de temas sobre teoría de topos superiores. Lección aprendida.

Entonces, ¿cómo los enseñas? (Alternativamente, responde a esta pregunta en sentido negativo demostrando que Dennis e Inez siempre inventarán la integración si los haces pensar lo suficiente sobre las derivadas exteriores superiores.)

9voto

Chris Benard Puntos 1430

$\def\RR{\mathbb{R}}$De hecho he intentado abordar este problema cuando enseño formas diferenciales superiores. Aquí hay algunas cosas que intento.

Antes de hacer formas diferenciales o variedades Para funciones $f : \RR^n \to \RR^p$, introducir $Df$ y demostrar la fórmula multivariante de cambio de variables.

Sea $f$ una función en $\RR^n$. Definir el Hessiano de $f$, $D^2 f$, como la matriz de segundas derivadas parciales $\tfrac{\partial^2 f}{(\partial x_i) (\partial x_j)}$. Demostrar el test de la segunda derivada multivariante: Si $Df=0$ en $c$ y $D^2 f$ es positiva definida, entonces $c$ es un mínimo local para $f$. (Esto no es lógicamente necesario para lo que sigue, pero ayuda a mostrar que es un concepto útil.)

Mostrar que, si $c$ es un punto crítico, entonces el Hessiano tiene una fórmula simple tipo regla de la cadena. Mostrar que, si $c$ no es un punto crítico, la fórmula para cambiar variables dentro del Hessiano es un desastre.

También, durante este tiempo previo a las variedades, hablo sobre el rizo de un campo vectorial en $\RR^2$ y demuestro el teorema de Stokes para rectángulos; pero me pediste que no mencionara la integración.

Pasar un buen tiempo trabajando con y acostumbrándose a las formas de grado $1$, todavía en $\RR^n$ Notar que la regla de la cadena multivariante significa que $df$ está bien definido. Notar que $D^2 f$ está bien definido como una forma cuadrática en el espacio tangente en los puntos críticos, pero no es una forma cuadrática bien definida en el espacio tangente en general. Todo esto son simplemente los cálculos de la discusión pre-variedad, ahora colocados en un contexto más sofisticado. Esto significa que no tenemos una noción independiente de coordenadas de segunda derivada.

Si no podemos tomar la segunda derivada de una función, ¿podemos al menos tomar la primera derivada de una forma de grado $1$? En coordenadas, si tenemos $\omega = \sum g_i d x_i$, podemos formar la matriz de derivadas parciales $\tfrac{\partial g_i}{\partial x_j}$. ¿Podría esto ser independiente de coordenadas en algún sentido?

¡Un problema! Si $\omega = df$, entonces $\tfrac{\partial g_i}{\partial x_j}$ es el Hessiano, que acabamos de ver que es malo. Intentemos simetrizar de forma antisimétrica esta matriz, para obtener $\tfrac{\partial g_i}{\partial x_j} - \tfrac{\partial g_j}{\partial x_i}$. Esto descarta el Hessiano: Si $\omega = df$, simplemente obtenemos $0$. ¿Es lo que queda mejor?

Un milagro (que se asigna a los estudiantes para que lo saquen a la fuerza): Esto da una forma antisimétrica bien definida en el espacio tangente. Definir una forma de grado $2$ en $\RR^n$, y explicar que acabamos de construir $d: \Omega^1 \to \Omega^2$ y mostrar que está bien definido. En particular, cuando $n=2$, acabamos de mostrar que el rizo es una forma antisimétrica bien definida.

7voto

Sharkos Puntos 11597

Entonces, si vamos a insistir en evitar la integración, supongo que sería mejor tomar más derivadas. En particular, queremos aprender a tomar derivadas de tensores. Por supuesto, famosamente, sin alguna estructura adicional en incluso una variedad suave, no hay una noción generalmente bien definida. De hecho, hay tres tipos comunes de derivadas de tensores:

  1. derivadas covariantes;
  2. derivadas de Lie; y
  3. derivadas exteriores.

Las primeras dos requieren aún más estructura adicional (un métrica/conexión, o una extensión de vectores tangentes a campos de vectores cuando definimos derivadas direccionales); la última requiere en cambio una restricción en la clase de tensores que podemos diferenciar - ¡a formas diferenciales! Entonces claramente la idea central en nuestra motivación debería ser responder a la pregunta

¿Para qué clase de tensores se puede definir una derivada sin más estructura?

Centrándonos en los tensores covariantes $(0,m)$ como los objetos que se pueden formar a partir de funciones escalares solo "tomando derivadas" y multiplicándolas, una respuesta formal a esta pregunta es:

Teorema: Para cualquier variedad suave conectada $M$, si $T$ mapea campos tensores covariantes diferenciables de tipo $(0,m)$ a aquellos de tipo $(0,m+1)$ y es natural en el sentido técnico de que para todas las automorfismas (difeomórficas) $\phi$ tenemos $\phi^\star(T \omega) = T(\phi^\star \omega)$, entonces $T = k \ {\rm d}$ es un múltiplo de la derivada exterior. En particular, se caracteriza por completo por su acción en los tensores totalmente antisimétricos, es decir, formas diferenciales, y se anula en todos los tensores con otras estructuras de simetría.

Una prueba bastante directa, aunque tediosa, de esto se puede construir siguiendo por ej. Operaciones naturales en campos tensores covariantes (Leicher). (De hecho, varios resultados más fuertes son verdaderos; esencialmente ${\rm d}$ es más o menos el único operador diferencial natural que actúa en solo un tensor. Hay discusiones en por ej. esta pregunta de MathOverflow así como en el artículo de Leicher.)


Pero para los propósitos de motivación, ¿cuál es la idea básica subyacente a esta observación? Bueno, para ser invariable bajo transformaciones de coordenadas, la expresión de cualquier $T$ en coordenadas locales debe ser $$ (T \omega)_{i_1\ldots i_{m+1}} = c_{i_1 \ldots i_{m+1}}^{j_1 \ldots j_{m+1}} \frac{\partial}{\partial x^{j_1}} \omega_{j_2 \ldots j_{m+1}} $$ ¿Por qué es esto? Cualquier dependencia explícita de $x^i$ en el RSH viola la invariancia bajo cambios de coordenadas $x^i$, y el reescalado homogéneo de coordenadas implica que el RSH debe tener peso $-1$ en $x$, y por suavidad esto debe surgir de una sola derivada respecto a $x$. (Uno podría razonablemente incluso imponer estos requisitos como parte de su intento de definir una derivada.)

Ahora tenemos que decidir qué combinaciones lineales de las derivadas de $\omega$ coordenadas pueden posiblemente ser invariantes bajo transformaciones de coordenadas. Este es el esfuerzo de (4.2) en Leicher. Pero la esencia de ello es simplemente que bajo transformaciones de coordenadas, el LHS se transforma por un producto de $m+1$ términos $\partial x^j / \partial y^i$, mientras que el RSH también involucra $m+1$ tales factores, con $m$ de ellos apareciendo dentro de la derivada existente. Pero para la invariancia, uno necesita finalmente que solo quede el término con una derivada actuando sobre los componentes de $\omega$. Esto solo se puede lograr si los $j_i$ se antisimetrizan totalmente, en cuyo caso todos los términos donde la derivada $\partial / \partial y^{j_1}$ actúa sobre $\partial x^{k_p} / \partial y^{j_p}$ se anulan debido a la simetría de las derivadas parciales.

(En cierto sentido, el resultado por lo tanto se reduce al simple y limpio hecho de que las 'transposiciones estrella' $(1 \ p)$ generan todo el grupo simétrico -- al requerir que la derivada esté antisimetrizada con cada índice de $\omega$, exigimos que todos los índices de $\omega$ estén antisimetrizados entre sí.)

Por lo tanto, en particular, solo la parte totalmente antisimétrica $\omega_{[j_2\ldots j_{m+1}]}$ contribuye a $T \omega$.


Entonces, aunque sería agradable limpiar esto y dar una versión más breve e idealmente libre de coordenadas del argumento, la idea es simplemente que en un sentido técnico simple

la derivada exterior es la única noción natural de diferenciación de un tensor

y el hecho intuitivo en el que se basa es que

antisimetrizar totalmente los índices es la única forma de evitar que las derivadas actúen sobre los factores jacobianos que surgen bajo un cambio de coordenadas.

2voto

studiosus Puntos 19728

En cuanto a la oración:

"Alternativamente, responde a esta pregunta en forma negativa demostrando que Dennis e Inez siempre inventarán la integración si los haces pensar lo suficiente en derivadas exteriores más altas."

La respuesta es "sí" (pero "lo suficientemente largo" podría llevar más tiempo del que esperan vivir). Hay dos formas de abordar esto:

a. Supongamos que estudian aplicaciones suaves de $k$-variedades en una $m$-variedad $M$ y se les ocurre la idea de crear un espacio vectorial a partir de esto trabajando con cadenas (con coeficientes reales). Luego podrían preguntarse "¿cuál es el espacio vectorial dual"? Bajo las suposiciones analíticas adicionales sobre el elemento del espacio dual que no detallaré aquí, los elementos del espacio dual son $k$-formas diferenciales en $M$ (y viceversa). Ver

Whitney, Hassler, Teoría de integración geométrica, Serie Matemática de Princeton. Princeton, N.J.: Princeton University Press; Londres: Oxford University Press. XV, 387 p. (1957). ZBL0083.28204.

Teorema 10A, página 167, para más detalles. Entonces podrían descubrir la diferencial exterior como el dual del operador de frontera en cadenas (Teorema de Stokes).

b. Por otro lado, si descubren (de alguna manera) las formas diferenciales, podrían preguntarse "¿cuál es el espacio dual" de $\Omega^k(M)$?" Los elementos del dual se conocen como [corrientes](https://en.wikipedia.org/wiki/Current(mathematics))_. Probablemente intentarán encontrar "ejemplos concretos" de corrientes que probablemente serán corrientes de Lipschitz, dadas por integración sobre subvariedades de Lipschitz.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X