Quiero empezar con una simple analogía con la derivada (ordinaria). Supongamos que ωω es un kk -y X1,…,XkX1,…,Xk son campos vectoriales. Y por el momento, quiero que te imagines que el XiXi los campos son todos "constantes cerca de algún punto pp . Ahora que realmente no tiene sentido (a menos que estés en Rn ), pero tengan paciencia. Si p es el polo norte, y X1(p) es un campo vectorial que apunta hacia, digamos, Londres, entonces tiene sentido definir X1 cerca de p apunte también hacia Londres, y esos vectores (en el espacio 3) estarán todos bastante cerca de X1(p) .
Entonces podemos definir una función f(q)=ω(q)[X1(q),…,Xk(q)] definido para q cerca de p .
¿Cómo puede f(q) varían según q se aleja de p ? Bueno, depende de la dirección que q movimientos. Así que podemos preguntarnos: ¿Qué es f(p+tv)−f(p)? O mejor aún, ¿qué es f(p+tv)−f(p)t? especialmente como t se acerca a cero?
Ese "derivado" es casi la definición de dω(p)[X1(p),…,Xk(p),v].
Esta "definición" tiene un par de problemas:
- ¿Y si hay varias formas de ampliar Xi(p) es decir, ¿y si "constante" no tiene realmente sentido? ¿Será la respuesta la misma independientemente de los valores de Xi cerca de p (a diferencia de en p )?
- ¿Cómo sabemos que dω tiene todas esas bonitas propiedades como ser antisimétrico, etc.?
- ¿Cómo encaja esto con div, grad, curl y todo eso?
Los problemas 1 y 2 son la razón por la que tenemos definiciones extravagantes de d que hacen que los teoremas sean fáciles de demostrar, pero ocultan el conocimiento. Permítanme atacar brevemente el punto 3.
Para una forma 0, g la definición informal que he dado anteriormente es exactamente la definición del gradiente. Tienes que hacer algunas cosas con parciales mixtos (creo) para verificar que el gradiente, como función del vector v es en realidad lineal en v por lo que se puede escribir dg(p)[v]=w⋅v para algún vector w que denominamos "gradiente de g en p ."
Así que ese caso es bastante bonito.
¿Y el rizo? Eso es más complicado, e implica la identificación de cada forma 2 alterna con una forma 1 (porque 2+1=3 ), así que me lo voy a saltar.
¿Y la div? Para el tipo más básico de 2 formas, algo como ω(p)=h(x,y,z)dx∧dy y el punto p=(0,0,0) y el vector v=(0,0,1) y los dos "campos vectoriales" X1(x,y,z)=(1,0,0) et X2(x,y,z)=(0,1,0) acabamos viendo
f(p+tv)=h(0,0,t)dx∧dy[(1,0,0),(0,1,0)]=h(0,0,t) y el cociente de diferencias acaba siendo sólo ∂h∂z(0,0,0) Esa cifra le indica cómo ω′s "respuesta" a la zona en la xy -plano cambia a medida que se mueve en el z dirección.
¿Qué tiene eso que ver con la divergencia de un campo vectorial? Bueno, ese campo vectorial es en realidad un campo de 2 formas, y se ha vuelto a aplicar la dualidad. Pero en coordenadas, parece (0,0,h) y su divergencia es exactamente la z -derivado de h . Así que las dos nociones vuelven a coincidir en este caso.
Pido disculpas por no explicar todos los detalles; creo que la idea principal viene de reconocer la idea de que la derivada exterior es en realidad sólo una derivada direccional con respecto a su último argumento... y luego hacer el álgebra para ver que también es una derivada direccional con respecto a los OTROS argumentos, lo cual es bastante interesante y conduce a cosas interesantes como el teorema de Stokes.
1 votos
Sólo preguntaba: ¿Ayuda pensar en grad, curl y div en tres dimensiones? ¿Ha encontrado Fórmula de Cartan ? ¿Ayuda interpretar el teorema de Stokes como la afirmación de que dd y el operador límite para las variedades son adyacentes con respecto al emparejamiento dado por la integración? (Supongo que no conseguirás mucho más que "la imagen es análoga en dimensiones superiores", aunque me encantaría que me demostraran lo contrario).