15 votos

No integrabilidad de la distribución derivada de la forma 1 y condición de la forma 1

Supongamos que $M$ es un $(2k+1)$ -en la que una forma 1 $\alpha$ se define. $M$ se denomina colector de contacto si la distribución resultante de $\alpha$ no es integrable en ninguna parte, es decir, si $$\xi_q=\{v\in T_qM:\alpha(v)=0\}$$ es una distribución que no admite ninguna integral cualquiera que sea el punto en el que se busque una integral. He leído que esto es equivalente a: $$\alpha\wedge(d\alpha)^k\neq0.$$ ¿Cómo puedo demostrarlo?

11voto

Mike Miller Puntos 17852

Esto es falso. La condición de contacto se conoce a menudo como ser máximamente no integrable.

Dada una distribución integrable $\xi$ definido por una forma 1 $\alpha$ Utiliza eso $$d\alpha(X,Y) = Y\alpha(X) - X\alpha(Y) - \alpha([X,Y]).$$ Así que si $X,Y \in \xi$ entonces $d\alpha(X,Y) = 0$ . Así que en particular $\alpha \wedge d\alpha = 0$ en todas partes.

En el caso de los 3 manifolds, la condición de contacto es equivalente a la no integrabilidad, porque la no integrabilidad es lo mismo que $\alpha \wedge d\alpha \neq 0$ . En el caso de las variedades de mayor dimensión, la condición de contacto puede reinterpretarse como " $d\alpha|_{\xi}$ es no-degenerado" - lo más no-integrable que se puede conseguir, dado que integrable es equivalente a $d\alpha|_{\xi} = 0$ ".

1 votos

Vale, me olvidé de la maximalidad, culpa mía. Ahora bien, ahí arriba estás asumiendo que una distribución integrable es involutiva, ya que estás diciendo que si $\xi$ es integrable, y $X,Y\in\xi$ entonces $[X,Y]\in\xi$ . No era completa ¿la integrabilidad (no sólo la integrabilidad) equivale a la involutividad según el teorema de Frobenius? Es decir, ¿ese teorema no afirmaba que una distribución es involutiva si y sólo si admite, en cada punto de la colector, una colector integral de dimensión precisamente la dimensión de la distribución? Creía que tenía una demostración de eso ¿te estoy interpretando mal?

0 votos

@MickG Completamente integrable $\implies$ integrable $\implies$ involutivo. La dirección difícil es la prueba de que la involutiva $\implies$ completamente integrable. Pero las tres condiciones son equivalentes.

0 votos

Oh. Así que integrable es equivalente a completamente integrable. Lo que significa que es imposible que una distribución admita integrales en todos los puntos de la colecta ambiental y todas de dimensión menor que la de la colecta ambiental. Interesante.

6voto

MickG Puntos 2115

Publicando esto para resumir todo lo que salió en la enorme discusión de comentarios bajo la respuesta de Mike, una discusión que necesita 4 capturas de pantalla, 1 2 3 y 4 para encajar en ellos. Aceptaré la respuesta de Mike por la paciencia que debió emplear para seguir con esa discusión :). Lo que surgió fue lo siguiente.

  1. Me olvidé de un "máximo" en mi condición de contacto. "máximamente no integrable" significa "lo más lejos posible de ser integrable", en un sentido que se aclarará en los puntos siguientes.

  2. Si se definen las variedades integrales como aquellas cuyo espacio tangente es el subespacio del s.t. de la variedad ambiental, y no sólo un subespacio de ésta como hace Boothby -- y Boothby es aparentemente el sólo uno haciendo eso --, entonces completamente integrable, integrable e involutivo son equivalentes, ya que que c.i. e involutivo son equivalentes es el teorema de Frobenius, demostrado en Boothby y Lee, y que integrable implica involutivo se puede demostrar -- Proposición 14.3 en la p. 358 de Lee.

  3. Así, si la distribución dada por los ceros de $\alpha$ es integrable, es involutivo, y $d\alpha$ es cero, ya que: $$d\alpha(X,Y)=X\alpha(Y)-Y\alpha(X)-\alpha([X,Y]).$$ La verdad es que todavía no he visto una prueba de esto, que yo recuerde, pero no debería ser difícil. Lo intentaré pronto. Por supuesto, si $d\alpha=0$ la distribución es involutiva y, por tanto, integrable.

  4. Por tanto, la integrabilidad equivale a $d\alpha=0$ y la no integrabilidad a $d\alpha\neq0$ . ¿Qué tan lejos puedes llegar de $d\alpha$ ¿es cero? Al tenerlo no degenerado en $\xi$ . Por eso se denomina $\xi$ ser máximamente no integrable . Esta es la definición de condición de contacto, y de forma de contacto.

  5. Y ahora la porción principal de la comida: esto equivale a $\alpha\wedge(d\alpha)^k\neq0$ . Mike me dijo que intentara probarlo yo mismo, y lo hice. En primer lugar, escribimos el producto de la cuña explícitamente: $$\alpha\wedge(d\alpha)^k(v_1,\dotsc,v_{2k+1})=\sum_{\sigma\in S_{2k+1}}\operatorname{sgn}\sigma\cdot\alpha(v_{\sigma(1)})d\alpha(v_{\sigma(2)},v_{\sigma(3)})\cdot\dotso\cdot d\alpha(v_{\sigma(2k)},v_{\sigma(2k+1)}).$$ Supongamos ahora que $d\alpha|_\xi$ es no degenerado. Entonces es fácil demostrar por inducción que podemos encontrar un base simpléctica para $d\alpha$ en $\xi$ Así que $d\alpha$ está representada por la matriz $J_0$ con un bloque de ceros en las esquinas TL y BR, la identidad en la esquina BL y menos la identidad en la esquina TR, donde todos los bloques son $k\times k$ . Entonces completamos esta base simpléctica a una base para todo el espacio tangente añadiendo un vector fuera de $\xi$ . Introdúzcalos en ese producto de cuña, y los términos supervivientes tienen todos $\sigma(1)=2k+1$ , donde $v_{2k+1}$ está fuera $\xi_q$ y $v_i$ es la base simpléctica. Así que el resultado de introducir estos vectores en el producto cuña es $\alpha(v_{2k+1})$ veces el $k$ -ésima potencia de la forma simpléctica canónica aplicada a la base simpléctica. Ahora aplicando la $k$ de la forma simpléctica canónica a la base simpléctica da lugar, como se ve trivialmente, a una suma de términos que son todos o bien $1$ o $-1$ . Los términos en cuestión difieren entre sí de tres maneras posibles:

    1) El signo de $\sigma$ ;

    2) El orden de los argumentos dentro de los factores;

    3) El orden de los factores.

    Veamos cómo la alteración de las dos segundas altera la primera. Si intercambio los factores (3), la permutación $\sigma$ se altera al componer con las dos transposiciones que intercambian los factores. Para ser más explícito, si tengo $\omega(v_1,v_3)\omega(v_2,v_4)$ y quiero intercambiar esos factores, necesito pero componer $\sigma$ con la permutación $(1,2)(3,4)$ . Esto tiene incluso signo, por lo que $\sigma$ mantiene su signo, y el factor también, así que no hay cambios. Si intercambio los argumentos, obtengo un signo menos del factor, pero otro del signo de $\sigma$ que se compone con una transposición. De nuevo, no hay cambio de signo. Así que todos tienen el mismo signo, y hemos terminado. A continuación, supongamos que el producto cuña es distinto de cero. Esto implica que tenemos $2k+1$ vectores linealmente independientes para los que el producto cuña aplicado a ellos da un resultado distinto de cero. Exactamente uno de ellos está fuera de $\xi$ por lo que de nuevo por la expresión anterior tenemos una suma de términos con el mismo argumento dado a $\alpha$ . Uno de esos términos es distinto de cero, lo que significa que si $v_i$ son esos vectores y $v_{2k+1}\notin\xi$ , entonces para cada $i\leq2k$ existe $j\leq2k$ tal que $\omega(v_i,v_j)\neq0$ . No es una base simpléctica, pero casi: con un par de normalizaciones se convierte en una. Así que $d\alpha|_\xi$ es no degenerado, ya que admite una base simpléctica.

  6. Como ventaja, si $\omega$ es una 2 forma, la no degeneración es equivalente a $\omega^k\neq0$ . El argumento es similar al anterior: utilizar una expresión similar para $\omega^k$ aplicado a $2k$ vectores, si $\omega^k$ es distinto de cero, entonces existe $2k$ vectores para los que un término es distinto de cero, lo que significa casi una base simpléctica, y si $\omega$ es no degenerada entonces tenemos la base simpléctica, y para la forma simpléctica canónica la $k$ es distinto de cero simplemente aplicándolo a la base. La expresión para la $k$ El poder es: $$\omega^k(v_1,\dotsc,v_{2k})=\sum_{\sigma\in S_{2k}}\operatorname{sgn}\sigma\cdot\omega(v_{\sigma(1)},v_{\sigma(2)})\cdot\dotso\cdot\omega(v_{\sigma(2k-1)},v_{\sigma(2k)}).$$

Actualización: Intenté probar la fórmula de $\alpha([X,Y])$ pero parece que lo he refutado. Estoy seguro de que debe haber algo mal en lo que he hecho, pero no puedo ver qué. Lo he hecho todo localmente. Localmente, tengo un gráfico, una base del espacio tangente que es $\partial_i$ La base de coordenadas "canónica" y la base del dual de la tangente, $dx_i$ . $dx_i(\partial_j)=\delta_{ij}$ . A nivel local, $\alpha=\alpha_idx_i$ con la convención de los índices repetidos. $d\alpha$ se puede escribir como: $$d\alpha=dx_i\wedge\partial_j\alpha_idx_i=(\partial_j\alpha_i-\partial_i\alpha_j)dx_j\wedge dx_i.$$ Ahora bien, si introduzco $X,Y$ me sale: \begin{align*} d\alpha(X,Y)={}&(\partial_j\alpha_i-\partial_i\alpha_j)(dx_j(X)dx_i(Y)-dx_i(X)dx_j(Y))={} \\ {}={}&\partial_j\alpha_idx_j(X)dx_i(Y)-\partial_j\alpha_idx_i(X)dx_j(Y)-\partial_i\alpha_jdx_j(X)dx_i(Y)+\partial_i\alpha_jdx_i(X)dx_j(Y)={} \\ {}={}&\partial_j\alpha_iX_jY_i-\partial_j\alpha_iX_iY_j-\partial_i\alpha_jX_jY_i+\partial_i\alpha_jX_iY_j. \end{align*} El primer término que aparece es $X\alpha(Y)$ el segundo es $-Y\alpha(X)$ , por lo que el resto debería ser $-\alpha([X,Y])$ . Así que escribí el conmutador: $$[X,Y]=[X_i\partial_i,Y_j\partial_j]=X_i\partial_i(Y_j\partial_j)-Y_j\partial_j(X_i\partial_i)=X_iY_j\partial_i\partial_j+X_i(\partial_iY_j)\partial_j-Y_jX_i\partial_j\partial_i-Y_j(\partial_jX_i)\partial_i.$$ Las derivadas mixtas se cancelan, y el resto es: $$[X,Y]=X_i(\partial_iY_j)\partial_j-Y_j(\partial_jX_i)\partial_i.$$ Aplicar $\alpha$ a ella: \begin{align*} \alpha([X,Y])={}&\alpha_kdx_k[X_i(\partial_iY_j)\partial_j-Y_j(\partial_jX_i)\partial_i]={} \\ {}={}&\alpha_kX_i(\partial_iY_j)dx_k(\partial_j)-\alpha_kY_j(\partial_jX_i)dx_k(\partial_i)={} \\ {}={}&\alpha_kX_i(\partial_iY_j)\delta_{jk}-\alpha_kY_j(\partial_jX_i)\delta_{ik}={} \\ {}={}&\alpha_jX_i(\partial_iY_j)-\alpha_iY_j(\partial_jX_i). \end{align*} Que evidentemente no es lo mismo que lo anterior. ¿Qué estoy haciendo mal aquí?

Actualización 2: Intenté un enfoque totalmente diferente, y volví a fracasar. Lo copio para que conste, y también porque la terrible costumbre que tengo de usar $i,j$ ya que los índices podrían haberme hecho liar los índices y obtener un resultado erróneo, lo que por supuesto no ocurrirá en el ordenador. Intenté usar la fórmula de Cartan: $$\mathcal{L}_X\alpha=\iota_Xd\alpha+d(\iota_X\alpha),$$ ya que evidentemente: $$d\alpha(X,Y)=(\iota_Xd\alpha)(Y)=(\mathcal{L}_X\alpha-d(\iota_X\alpha))(Y).$$ Escribamos el conmutador. Supongamos que $X=X_i\partial_i,Y=Y_i\partial_i$ . Entonces: \begin{align*} [X,Y]={}&[X_i\partial_i,Y_j\partial_j]=X_i(\partial_iY_j)\partial_j+X_iY_j\partial_i\partial_j-Y_j(\partial_jX_i)\partial_i-Y_jX_i\partial_j\partial_i=X(Y_j)\partial_j-Y(X_i)\partial_i={} \\ {}={}&(X(Y_i)-Y(X_i))\partial_i. \end{align*} Empecemos por el segundo término. Supongamos que $\alpha=\alpha_idx_i$ . Entonces: $$d(\iota_X\alpha)(Y)=d(\alpha(X))(Y)=\partial_j(\alpha_iX_i)dx_j(Y)=(\partial_j\alpha_i)X_iY_j+(\partial_jX_i)\alpha_iY_j=Y(\alpha(X)).$$ Vale, me he equivocado de signo menos aquí. Yo había conseguido $Y(\alpha(X))-2\alpha_iY(X_i)$ . Pero entonces debe haber algo mal en la siguiente parte también. Déjame ver. $$\mathcal{L}_X\alpha=X_i\partial_i(\alpha_jdx_j)=X_i\partial_i(\alpha_j)dx_j+X_i\alpha_j\partial_i(dx_j).$$ Interpretación de $\partial_i$ como un campo vectorial, $\partial_i(dx_j)$ sería una derivada de Lie, así que uso la fórmula de Cartan una vez más: $$\mathcal{L}_X\alpha=X_i\partial_i(\alpha_j)dx_j+X_i\alpha_j(\iota_{\partial_i}ddx_j+d(\iota_{\partial_i}dx_j)).$$ Ahora $ddx_j=0$ y $\iota_{\partial_i}dx_j=dx_j(\partial_i)=\delta_{ij}$ Así que..: $$\mathcal{L}_X\alpha=X_i\partial_i(\alpha_j)dx_j+X_i\alpha_jd(\delta_{ij}),$$ OK, eso no puede ser correcto. O tal vez lo sea. Sigamos y veamos qué obtenemos. Eso significa que el segundo término es 0. Ahora finalmente insertamos $Y$ : $$(\mathcal{L}_X\alpha)(Y)=X_i(\partial_i\alpha_j)Y_j=X(\alpha_j)Y_j=X(\alpha_jY_j)-X(Y_j)\alpha_j.$$ ¿Es ese último término $\alpha([X,Y])$ ? Recuerda cómo $[X,Y]=(X(Y_i)-Y(X_i))\partial_i$ . Entonces: $$\alpha([X,Y])=\alpha((X(Y_i)-Y(X_i))\partial_i)=\alpha_jdx_j((X(Y_i)-Y(X_i))\partial_i)=\alpha_j(X(Y_j)-Y(X_j)).$$ Así que me falta la mitad de lo anterior. ¿Qué es lo que está mal arriba?

Actualización 3: Chi la dura, la vince (Vence el que aguanta). Me obstiné en intentarlo una tercera vez. Ya lo hemos escrito antes: $$\alpha([X,Y])=\alpha_i(X(Y_i)-Y(X_j)).$$ Podemos ver fácilmente lo siguiente: \begin{align*} X(\alpha(Y))={}&X(\alpha_i)Y_i+X(Y_i)\alpha_i, \\ Y(\alpha(X))={}&Y(\alpha_i)X_i+Y(X_i)\alpha_i,$$ \end{align*} this boils down to writing the arguments of $ X,Y $ and $ X,Y $ themselves explicitly, I think we've done that above as well. Let us then compute the RHS of our claim: \begin{align*} X(\alpha(Y))-Y(\alpha(X))-\alpha([X,Y])={}&X(\alpha_i)Y_i+\underline{X(Y_i)\alpha_i}-Y(\alpha_i)X_i-\overline{Y(X_i)\alpha_i}-\alpha_i(\underline{X(Y_i)}-\overline{Y(X_j)})={} \\ {}={}&X(\alpha_i)Y_i-Y(\alpha_i)X_i. \end{align*} For the LHS, I must first stress I have an erroneous definition of $ d\N-alfa $. $ d\alpha\neq(\partial_i\alpha_j-\partial_j\alpha_i)dx_i\wedge dx_j $. It is NOT a sum over all combinations of $ i,j $, but a sum over $ i<j$. Para tener todas las combinaciones posibles, debo añadir un medio delante de todo. Ahora voy a calcular el LHS finalmente demostrar la igualdad. Veamos: \begin{align*} 2d\alpha(X,Y)={}&(\partial_j\alpha_i-\partial_i\alpha_j)(dx_j(X)dx_i(Y)-dx_i(X)dx_j(Y))={} \\ {}={}&X_jY_i\partial_j\alpha_i-X_jY_i\partial_i\alpha_j-X_iY_j\partial_j\alpha_i+X_iY_j\partial_i\alpha_j={} \\ {}={}&Y_iX(\alpha_i)-X_jY(\alpha_j)-X_iY(\alpha_i)+Y_jX(\alpha_j)={} \\ {}={}&2Y_iX(\alpha_i)-2X_iY(\alpha_i), \end{align*} que, a menos que me equivoque mucho, es exactamente el doble de la RHS.

Lo intentamos y fracasamos, lo intentamos y fracasamos, pero el único fracaso verdadero es cuando dejamos de intentarlo.

Lo dice el gitano de la esfera en "La Mansión Embrujada". Bueno, suerte que no dejé de intentarlo :).

2voto

ttimasdf Puntos 181

Gracias por el post, ha sido muy útil. Si te interesa, la siguiente es otra forma de demostrar la fórmula (en caso de que seas como yo y seas alérgico a calcular cosas en coordenadas). Recordemos que existe una fórmula general sobre cómo actúa la derivada de Lie en los tensores. A saber, si $T$ es un tensor de tipo $(p,q)$ entonces para todos $Y_1,\dots,Y_p\in \mathfrak{X}(M)$ y $\eta_1,\dots,\eta_q \in \Omega^1(M)$ tenemos $$ (\mathcal{L}_X T)(Y_1,\dots,Y_p,\eta_1,\dots\eta_q) = X( T(Y_1,\dots,Y_p,\eta_1,\dots,\eta_q)) -T(\mathcal{L}_XY_1,\dots,Y_p,\eta_1,\dots,\eta_q) - \dots -T(Y_1,\dots,Y_p,\eta_1,\dots,\mathcal{L}_x\eta_q) $$ (ver https://en.wikipedia.org/wiki/Lie_derivative )

Utilizando esto, tenemos $$(\mathcal{L}_X\alpha)(Y) = X(\alpha(Y)) - \alpha(\mathcal{L}_XY)= X(\alpha(Y))-\alpha([X,Y]) $$

y ahora utilizamos la fórmula mágica de Cartan para obtener $$d\alpha(X,Y) = (\iota_Xd\alpha)(Y) = (\mathcal{L}_X\alpha)(Y) - (d\iota_X\alpha)(Y) \\ = X(\alpha(Y))-\alpha([X,Y]) - (d\alpha(X))(Y)\\ = X(\alpha(Y)) - \alpha([X,Y]) - Y(\alpha(X))$$ como se desee.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X