9 votos

¿De dónde sale la expresión invariante de la derivada exterior?

Así que acabo de gastar unas cuatro páginas en TeX (más una docena de páginas en TeX de trabajo descartado) para demostrar la identidad

\begin{align*} d \omega(\zeta_1, \ldots, \zeta_{k+1}) &= \sum_{i=1}^{k+1} (-1)^{i-1} \zeta_i \cdot \omega(\zeta_1, \ldots, \hat{\zeta_i}, \ldots, \zeta_{k+1}) \\ &\qquad + \sum_{1 \leq i < j \leq k + 1} (-1)^{i+j} \omega([\zeta_i, \zeta_j], \zeta_1, \ldots, \hat{\zeta_i}, \ldots, \hat{\zeta_j}, \ldots, \zeta_n). \end{align*}

Obviamente, no es así como se descubrió esta identidad. Pero no veo ninguna explicación escrita en ninguna parte - sólo cosas del tipo "se puede comprobar laboriosamente que el lado derecho es de hecho lineal en $\zeta_1 \wedge \cdots \wedge \zeta_{k+1}$ y entonces la identidad puede ser verificada sobre una base apropiada".

Preguntas:

  1. ¿Hay una manera fácil de ver que el lado derecho es una función lineal de $\zeta_1 \wedge \cdots \wedge \zeta_{k+1}$ ?
  2. ¿Existe una explicación razonable de cómo se puede llegar a esta identidad?

En cuanto a la primera pregunta: En particular, observo que, en una base, la primera suma da los resultados deseados y la segunda suma desaparece; simplemente ocurre que ninguna de las dos sumas es realmente una función lineal de $\zeta_1 \wedge \cdots \wedge \zeta_{k+1}$ pero combinando los dos se obtiene un mapa lineal. ¿Hay alguna forma de considerar la segunda suma como el resultado de algún proceso de "corrección" aplicado a la primera que la hace lineal? (Compare, por ejemplo, las situaciones en las que se promedia sobre un grupo de simetrías para obtener un mapa invariante).

10voto

Jeremy Daniel Puntos 2519

Para su primera pregunta, considere que mira el RHS como un mapa que toma $k+1$ campos vectoriales en el argumento y devolver un número real. Este mapa es claramente una forma lineal definida en $\Gamma(TM)^{\otimes k+1}$ . Lo que queremos es demostrar que : 1) este mapa es antisimétrico: esto se deduce inmediatamente del hecho de que $\omega$ sea antisimétrico y que el soporte lo sea ; 2) que este mapa sea tensorial: este es realmente el punto crucial; queremos que el valor de este mapa sobre un punto $x$ de $M$ sólo depende de los valores de los campos vectoriales en $x$ (pero, por supuesto, no depende sólo del valor de $\omega$ en $x$ ). Para demostrarlo, el lema de tensorialidad dice que es equivalente comprobar que es lineal sobre las funciones; es decir: si se toma una función suave $f$ y multiplicar uno de sus campos vectoriales por $f$ entonces el resultado debe multiplicarse por $f$ . ¡Y esto funciona!

Esto no es tan mágico: la idea es que los corchetes aparecen en todas partes cuando se quieren obtener tensores naturales en la variedad. Quizá el ejemplo más sencillo sea el operador de torsión de una conexión. Tomemos $\nabla$ una conexión en su espacio tangencial. Si tienes dos campos vectoriales, puedes comparar $\nabla_X Y$ et $\nabla_Y X$ pero $T(X,Y) = \nabla_X Y - \nabla_Y X$ no es tensorial en $X$ et $Y$ . De hecho, $T(fX,Y) = f(\nabla_X Y - \nabla_Y X) - (Y.f)X$ . El último término implica la derivada de $f$ y quieres deshacerte de él.

Ahora observe que $[fX,Y] = f[X,Y] - (Y.f)X$ por lo que el mismo término aparece en la no tensorialidad del paréntesis. Esto conduce a la buena definición de la torsión: $T(X,Y) = \nabla_X Y - \nabla_Y X - [X,Y]$ y esto es tensorial en $X$ et $Y$ .

Si no sabes lo que es una conexión, esto puede parecer poco claro pero el fenómeno es realmente el mismo que en tu caso. En cierto sentido, el paréntesis es el "defecto universal de la no tensorialidad". Creo que la noción de tensorialidad es realmente la buena para entender estas fórmulas y esto debería ser más enfatizado en una primera lección de geometría diferencial.

Para tu segunda pregunta, una vez que sabes que el RHS es tensorial en los campos vectoriales, puedes tomar campos vectoriales con propiedades agradables, es decir con corchetes que desaparecen. Esto siempre es posible localmente (basta con tomar campos vectoriales procedentes de un sistema de coordenadas); entonces el cálculo es más sencillo porque hay una expresión simple para $d\omega$ si uno expresa $\omega$ en una base procedente de coordenadas.

Es decir: si $\omega = \sum_I \alpha_I dx^I$ entonces $d\omega = \sum_{j,I} (\partial_j.\alpha_I) dx^j \wedge dx^I$ (aquí $I$ es un índice múltiple, $j$ un índice). Esto da la identidad que buscas como un cálculo fácil en álgebra multilineal (no en geometría: cuando sabes que las cosas son tensoriales, todo es álgebra).

Curiosamente, hay una situación en la que el RHS se utiliza de forma diferente. Cuando se está en un grupo de Lie, entonces se puede tomar una base de campos vectoriales invariantes a la izquierda, y mirar una forma diferencial invariante a la izquierda. Entonces el primer término en el RHS será cero y sólo el segundo término es importante. Y de hecho, se obtiene de este modo la diferencial habitual que se obtiene en la cohomología del álgebra de Lie.

Una última observación: en realidad no es necesario mostrar la antisimetría del lado derecho. Se puede ver simplemente como un mapa multilineal y una vez que se sabe que éste es igual al LHS, esto demuestra la antisimetría.

4voto

Steven Gubkin Puntos 3929

Yo también he luchado bastante con esto. No tengo una respuesta completa, pero aquí hay al menos un comienzo.

Dejemos que $\omega$ ser un $1$ -forma en un colector $M$ . Come campos vectoriales y escupe funciones. Tengo que tratar de encontrar una manera de cocinar un $2$ -forma fuera de esto.

Recordemos que la forma invariable de definir los vectores es como derivaciones del álgebra de funciones suaves. Así que un campo vectorial $X$ se comerá una función y escupirá una función (que consideramos como las derivadas direccionales de $f$ en las direcciones dadas por $X$ ). En particular, queremos $df(X) = X(f)$ .

Un intento de $d\omega(X,Y)$ es $X(\omega(Y)) - Y(\omega(X))$ . Esta parece ser la única forma en que podré obtener una función. Esta es alternante al menos, y es multilineal en $X$ et $Y$ (compruébalo). La única otra cosa que quiero fuera del derivado exterior es que $d\circ d=0$ Así que vamos a comprobarlo utilizando nuestra fórmula anterior:

$d(df)(X,Y) = X(df(Y)) - Y(df(X)) = X(Y(f)) - Y(X(f)) = [X,Y](f) = df([X,Y])$ no $0$ como habíamos deseado.

Así que tiene sentido redefinir $d(\omega(X,Y)) = X(\omega(Y)) - Y(\omega(X)) - \omega([X,Y])$

Creo (pero no tengo la entereza de demostrarlo) que un razonamiento similar te llevará a la definición de las derivadas exteriores de nivel superior.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X