Dado un haz de fibras $f: E\rightarrow M$ conectado con fibras llamamos a la imagen $f^*(\Omega^k(M))\subset \Omega^k(E)$ el subespacio de formas básicas. Claramente, para cualquier verticales campo de vectores $X$ $E$ tenemos que el producto en el interior de $i_X(f^*\omega)$ y la Mentira derivado $L_X(f^*\omega)$ desaparecen para todos los $\omega \in \Omega^k(M)$. Es a la inversa verdad? Es decir, si $\alpha \in \Omega^k(E)$ es una forma tal que $i_X(\alpha)=0$ $L_X(\alpha)=0$ para todos vertical campos vectoriales $X$$E$, es cierto que $\alpha$ es una forma básica? Creo, pero no estoy seguro de cómo demostrarlo. Gracias por tu ayuda.
Respuestas
¿Demasiados anuncios?En primer lugar, esto puede ser comprobado a nivel local, así podemos muy bien suponer $E = F\times M$.
El uso de coordenadas $x_i$$F$$y_j$$M$. A continuación, una $k-$forma está dada por $\alpha =\sum f_{IJ} dx^I\wedge dy^J$. Aquí, $I = \{i_1,...,i_s\}$ $dx^I$ $dx^{i_1}\wedge...\wedge dx^{i_s}$ y tenemos $|I|+|J|=k$.
El objetivo es mostrar que si $i_X(\alpha) = 0$ vertical $X$, $f_{IJ} = 0$ siempre $I\neq \emptyset$.
Por lo tanto, fijar cualquier $I\neq \emptyset$. Supongamos $i_1\in I$. Deje $X = \frac{\partial}{\partial x^{i_1}}$, el vector dual do $dx^{i_1}$. A continuación,$0 = i_X(\alpha)$$ 0 = i_X(\alpha)(\frac{\partial}{\partial x^{I-i_1}}, \frac{\partial}{\partial x^{J}}) = \pm f_{IJ}$.
Por lo tanto la condición garantiza que $f_{IJ} = 0$ siempre $I\neq \emptyset$, por lo que los únicos términos que aparecen en $\alpha$ son de la forma $f_J dy^J$.
El único problema ahora es que el $f_J$ podría depender de la $F$ factor. Aquí es donde la Mentira soporte plazo vendrá.
La Mentira de soporte de una forma está dada por $L_Y(\alpha) = i_Y d\alpha + d i_Y(\alpha)$.
Tomando $Y$ vertical, esto se reduce a $L_Y(\alpha) = i_Y(d\alpha)$ ya que hemos demostrado que $i_Y( \alpha) = 0$.
Ahora, $d\alpha = \sum \frac{\partial{f_J}}{{\partial x^i}} dx^i\wedge dy^J + \sum \frac{\partial{f_J}}{{\partial y^j}} dy^j\wedge dy^J$.
Al igual que antes, mediante la utilización de una base dual, podemos mostrar que desde $0 = L_X(\alpha) = di_X(\alpha)$,$\frac{\partial{f_J}}{\partial x^i} = 0$.
Pero esto implica que cada una de las $f_J$ sólo depende de la $y^j$ coordenadas. Ahora es claro que $\alpha$ es la tire hacia atrás de algo, principalmente de $\sum f_J dy^J$, lo cual tiene sentido porque la $f$ es realmente sólo una función en $M$.
Si usted agrega una conexión de la asunción (que es esencial, como ya he mencionado en mi comentario a tu pregunta principal), lo que deseo de la siguiente manera
La proposición Deje $f:M\to N$ ser una inmersión tal que para cada $y\in N$, $f^{-1}(y)$ es un conectada submanifold de $M$. Entonces si $\mu\in\Omega^k(M)$ es un diferencial de forma satisfactoria $i_Y\mu = 0$ $i_Y d\mu = 0$ cualquier $Y\in \ker df$, entonces no hay una única $\nu\in\Omega^k(N)$ tal que $\mu = f^*\nu$.
Croquis de la prueba Es suficiente para mostrar que el diferencial de la forma definida por la $\nu(f_*X_1,\ldots ,f_*X_k) = \mu(X_1,\ldots, X_k)$ está bien definido. Por la suposición de que $i_Y\mu = 0$ si $y\in \ker df$, en una base fija punto de $x\in M$ que si $f_*X_1 = f_*X'_1$, $\mu(X_1,\ldots, X_k) = \mu(X'_1, X_2,\ldots,X_k)$. Ahora bien, es claro que si $X$ es un campo de vectores en $M$ de manera tal que su pushforward está bien definido (en el sentido de que no existe un vectorfield $Z$ $N$ que si $x_1,x_2\in f^{-1}(y)$, $df(X)|_{x_1} = df(X)|_{x_2} = Z|_y$) y si $Y$ es un campo de vectores en $\ker df$,$[X,Y] \in \ker df$. Esto se puede comprobar fácilmente actuando $[X,Y]$ sobre la retirada de las funciones definidas en $N$. A partir de esto se puede concluir que el uso de $i_Yd\mu = 0$, para cualquier vector campos de $X_1, \ldots, X_k$ de manera tal que el pushforward está bien definido, $\mu(X_1,\ldots, X_k)$ es constante a lo largo de componentes conectados de $f^{-1}(y)$. q.e.d.
Adenda a la dirección de comentarios: Considerar la escalares $\mu(X_1,\ldots, X_k)$$M$. Deje $Y$ ser una vertical de campo vectorial, entonces tenemos que $$ Y(\mu(X_1,\ldots,X_k)) = (\mathcal{L}_Y\mu)(X_1,\ldots,X_k) + \mu([Y,X_1],X_2,\ldots,X_k) + \cdots + \mu(X_1,\ldots, X_{k-1}, [Y,X_k]) $$ usando la regla de Leibniz para la Mentira derivados. De modo local constancia de que el campo escalar necesidades que $\mathcal{L}_Y\mu \equiv 0$ y $[Y,X_l]$ es vertical.