Publicando esto para resumir todo lo que salió en la enorme discusión de comentarios bajo la respuesta de Mike, una discusión que necesita 4 capturas de pantalla, 1 2 3 y 4 para encajar en ellos. Aceptaré la respuesta de Mike por la paciencia que debió emplear para seguir con esa discusión :). Lo que surgió fue lo siguiente.
-
Me olvidé de un "máximo" en mi condición de contacto. "máximamente no integrable" significa "lo más lejos posible de ser integrable", en un sentido que se aclarará en los puntos siguientes.
-
Si se definen las variedades integrales como aquellas cuyo espacio tangente es el subespacio del s.t. de la variedad ambiental, y no sólo un subespacio de ésta como hace Boothby -- y Boothby es aparentemente el sólo uno haciendo eso --, entonces completamente integrable, integrable e involutivo son equivalentes, ya que que c.i. e involutivo son equivalentes es el teorema de Frobenius, demostrado en Boothby y Lee, y que integrable implica involutivo se puede demostrar -- Proposición 14.3 en la p. 358 de Lee.
-
Así, si la distribución dada por los ceros de $\alpha$ es integrable, es involutivo, y $d\alpha$ es cero, ya que: $$d\alpha(X,Y)=X\alpha(Y)-Y\alpha(X)-\alpha([X,Y]).$$ La verdad es que todavía no he visto una prueba de esto, que yo recuerde, pero no debería ser difícil. Lo intentaré pronto. Por supuesto, si $d\alpha=0$ la distribución es involutiva y, por tanto, integrable.
-
Por tanto, la integrabilidad equivale a $d\alpha=0$ y la no integrabilidad a $d\alpha\neq0$ . ¿Qué tan lejos puedes llegar de $d\alpha$ ¿es cero? Al tenerlo no degenerado en $\xi$ . Por eso se denomina $\xi$ ser máximamente no integrable . Esta es la definición de condición de contacto, y de forma de contacto.
-
Y ahora la porción principal de la comida: esto equivale a $\alpha\wedge(d\alpha)^k\neq0$ . Mike me dijo que intentara probarlo yo mismo, y lo hice. En primer lugar, escribimos el producto de la cuña explícitamente: $$\alpha\wedge(d\alpha)^k(v_1,\dotsc,v_{2k+1})=\sum_{\sigma\in S_{2k+1}}\operatorname{sgn}\sigma\cdot\alpha(v_{\sigma(1)})d\alpha(v_{\sigma(2)},v_{\sigma(3)})\cdot\dotso\cdot d\alpha(v_{\sigma(2k)},v_{\sigma(2k+1)}).$$ Supongamos ahora que $d\alpha|_\xi$ es no degenerado. Entonces es fácil demostrar por inducción que podemos encontrar un base simpléctica para $d\alpha$ en $\xi$ Así que $d\alpha$ está representada por la matriz $J_0$ con un bloque de ceros en las esquinas TL y BR, la identidad en la esquina BL y menos la identidad en la esquina TR, donde todos los bloques son $k\times k$ . Entonces completamos esta base simpléctica a una base para todo el espacio tangente añadiendo un vector fuera de $\xi$ . Introdúzcalos en ese producto de cuña, y los términos supervivientes tienen todos $\sigma(1)=2k+1$ , donde $v_{2k+1}$ está fuera $\xi_q$ y $v_i$ es la base simpléctica. Así que el resultado de introducir estos vectores en el producto cuña es $\alpha(v_{2k+1})$ veces el $k$ -ésima potencia de la forma simpléctica canónica aplicada a la base simpléctica. Ahora aplicando la $k$ de la forma simpléctica canónica a la base simpléctica da lugar, como se ve trivialmente, a una suma de términos que son todos o bien $1$ o $-1$ . Los términos en cuestión difieren entre sí de tres maneras posibles:
1) El signo de $\sigma$ ;
2) El orden de los argumentos dentro de los factores;
3) El orden de los factores.
Veamos cómo la alteración de las dos segundas altera la primera. Si intercambio los factores (3), la permutación $\sigma$ se altera al componer con las dos transposiciones que intercambian los factores. Para ser más explícito, si tengo $\omega(v_1,v_3)\omega(v_2,v_4)$ y quiero intercambiar esos factores, necesito pero componer $\sigma$ con la permutación $(1,2)(3,4)$ . Esto tiene incluso signo, por lo que $\sigma$ mantiene su signo, y el factor también, así que no hay cambios. Si intercambio los argumentos, obtengo un signo menos del factor, pero otro del signo de $\sigma$ que se compone con una transposición. De nuevo, no hay cambio de signo. Así que todos tienen el mismo signo, y hemos terminado. A continuación, supongamos que el producto cuña es distinto de cero. Esto implica que tenemos $2k+1$ vectores linealmente independientes para los que el producto cuña aplicado a ellos da un resultado distinto de cero. Exactamente uno de ellos está fuera de $\xi$ por lo que de nuevo por la expresión anterior tenemos una suma de términos con el mismo argumento dado a $\alpha$ . Uno de esos términos es distinto de cero, lo que significa que si $v_i$ son esos vectores y $v_{2k+1}\notin\xi$ , entonces para cada $i\leq2k$ existe $j\leq2k$ tal que $\omega(v_i,v_j)\neq0$ . No es una base simpléctica, pero casi: con un par de normalizaciones se convierte en una. Así que $d\alpha|_\xi$ es no degenerado, ya que admite una base simpléctica.
-
Como ventaja, si $\omega$ es una 2 forma, la no degeneración es equivalente a $\omega^k\neq0$ . El argumento es similar al anterior: utilizar una expresión similar para $\omega^k$ aplicado a $2k$ vectores, si $\omega^k$ es distinto de cero, entonces existe $2k$ vectores para los que un término es distinto de cero, lo que significa casi una base simpléctica, y si $\omega$ es no degenerada entonces tenemos la base simpléctica, y para la forma simpléctica canónica la $k$ es distinto de cero simplemente aplicándolo a la base. La expresión para la $k$ El poder es: $$\omega^k(v_1,\dotsc,v_{2k})=\sum_{\sigma\in S_{2k}}\operatorname{sgn}\sigma\cdot\omega(v_{\sigma(1)},v_{\sigma(2)})\cdot\dotso\cdot\omega(v_{\sigma(2k-1)},v_{\sigma(2k)}).$$
Actualización: Intenté probar la fórmula de $\alpha([X,Y])$ pero parece que lo he refutado. Estoy seguro de que debe haber algo mal en lo que he hecho, pero no puedo ver qué. Lo he hecho todo localmente. Localmente, tengo un gráfico, una base del espacio tangente que es $\partial_i$ La base de coordenadas "canónica" y la base del dual de la tangente, $dx_i$ . $dx_i(\partial_j)=\delta_{ij}$ . A nivel local, $\alpha=\alpha_idx_i$ con la convención de los índices repetidos. $d\alpha$ se puede escribir como: $$d\alpha=dx_i\wedge\partial_j\alpha_idx_i=(\partial_j\alpha_i-\partial_i\alpha_j)dx_j\wedge dx_i.$$ Ahora bien, si introduzco $X,Y$ me sale: \begin{align*} d\alpha(X,Y)={}&(\partial_j\alpha_i-\partial_i\alpha_j)(dx_j(X)dx_i(Y)-dx_i(X)dx_j(Y))={} \\ {}={}&\partial_j\alpha_idx_j(X)dx_i(Y)-\partial_j\alpha_idx_i(X)dx_j(Y)-\partial_i\alpha_jdx_j(X)dx_i(Y)+\partial_i\alpha_jdx_i(X)dx_j(Y)={} \\ {}={}&\partial_j\alpha_iX_jY_i-\partial_j\alpha_iX_iY_j-\partial_i\alpha_jX_jY_i+\partial_i\alpha_jX_iY_j. \end{align*} El primer término que aparece es $X\alpha(Y)$ el segundo es $-Y\alpha(X)$ , por lo que el resto debería ser $-\alpha([X,Y])$ . Así que escribí el conmutador: $$[X,Y]=[X_i\partial_i,Y_j\partial_j]=X_i\partial_i(Y_j\partial_j)-Y_j\partial_j(X_i\partial_i)=X_iY_j\partial_i\partial_j+X_i(\partial_iY_j)\partial_j-Y_jX_i\partial_j\partial_i-Y_j(\partial_jX_i)\partial_i.$$ Las derivadas mixtas se cancelan, y el resto es: $$[X,Y]=X_i(\partial_iY_j)\partial_j-Y_j(\partial_jX_i)\partial_i.$$ Aplicar $\alpha$ a ella: \begin{align*} \alpha([X,Y])={}&\alpha_kdx_k[X_i(\partial_iY_j)\partial_j-Y_j(\partial_jX_i)\partial_i]={} \\ {}={}&\alpha_kX_i(\partial_iY_j)dx_k(\partial_j)-\alpha_kY_j(\partial_jX_i)dx_k(\partial_i)={} \\ {}={}&\alpha_kX_i(\partial_iY_j)\delta_{jk}-\alpha_kY_j(\partial_jX_i)\delta_{ik}={} \\ {}={}&\alpha_jX_i(\partial_iY_j)-\alpha_iY_j(\partial_jX_i). \end{align*} Que evidentemente no es lo mismo que lo anterior. ¿Qué estoy haciendo mal aquí?
Actualización 2: Intenté un enfoque totalmente diferente, y volví a fracasar. Lo copio para que conste, y también porque la terrible costumbre que tengo de usar $i,j$ ya que los índices podrían haberme hecho liar los índices y obtener un resultado erróneo, lo que por supuesto no ocurrirá en el ordenador. Intenté usar la fórmula de Cartan: $$\mathcal{L}_X\alpha=\iota_Xd\alpha+d(\iota_X\alpha),$$ ya que evidentemente: $$d\alpha(X,Y)=(\iota_Xd\alpha)(Y)=(\mathcal{L}_X\alpha-d(\iota_X\alpha))(Y).$$ Escribamos el conmutador. Supongamos que $X=X_i\partial_i,Y=Y_i\partial_i$ . Entonces: \begin{align*} [X,Y]={}&[X_i\partial_i,Y_j\partial_j]=X_i(\partial_iY_j)\partial_j+X_iY_j\partial_i\partial_j-Y_j(\partial_jX_i)\partial_i-Y_jX_i\partial_j\partial_i=X(Y_j)\partial_j-Y(X_i)\partial_i={} \\ {}={}&(X(Y_i)-Y(X_i))\partial_i. \end{align*} Empecemos por el segundo término. Supongamos que $\alpha=\alpha_idx_i$ . Entonces: $$d(\iota_X\alpha)(Y)=d(\alpha(X))(Y)=\partial_j(\alpha_iX_i)dx_j(Y)=(\partial_j\alpha_i)X_iY_j+(\partial_jX_i)\alpha_iY_j=Y(\alpha(X)).$$ Vale, me he equivocado de signo menos aquí. Yo había conseguido $Y(\alpha(X))-2\alpha_iY(X_i)$ . Pero entonces debe haber algo mal en la siguiente parte también. Déjame ver. $$\mathcal{L}_X\alpha=X_i\partial_i(\alpha_jdx_j)=X_i\partial_i(\alpha_j)dx_j+X_i\alpha_j\partial_i(dx_j).$$ Interpretación de $\partial_i$ como un campo vectorial, $\partial_i(dx_j)$ sería una derivada de Lie, así que uso la fórmula de Cartan una vez más: $$\mathcal{L}_X\alpha=X_i\partial_i(\alpha_j)dx_j+X_i\alpha_j(\iota_{\partial_i}ddx_j+d(\iota_{\partial_i}dx_j)).$$ Ahora $ddx_j=0$ y $\iota_{\partial_i}dx_j=dx_j(\partial_i)=\delta_{ij}$ Así que..: $$\mathcal{L}_X\alpha=X_i\partial_i(\alpha_j)dx_j+X_i\alpha_jd(\delta_{ij}),$$ OK, eso no puede ser correcto. O tal vez lo sea. Sigamos y veamos qué obtenemos. Eso significa que el segundo término es 0. Ahora finalmente insertamos $Y$ : $$(\mathcal{L}_X\alpha)(Y)=X_i(\partial_i\alpha_j)Y_j=X(\alpha_j)Y_j=X(\alpha_jY_j)-X(Y_j)\alpha_j.$$ ¿Es ese último término $\alpha([X,Y])$ ? Recuerda cómo $[X,Y]=(X(Y_i)-Y(X_i))\partial_i$ . Entonces: $$\alpha([X,Y])=\alpha((X(Y_i)-Y(X_i))\partial_i)=\alpha_jdx_j((X(Y_i)-Y(X_i))\partial_i)=\alpha_j(X(Y_j)-Y(X_j)).$$ Así que me falta la mitad de lo anterior. ¿Qué es lo que está mal arriba?
Actualización 3: Chi la dura, la vince (Vence el que aguanta). Me obstiné en intentarlo una tercera vez. Ya lo hemos escrito antes: $$\alpha([X,Y])=\alpha_i(X(Y_i)-Y(X_j)).$$ Podemos ver fácilmente lo siguiente: \begin{align*} X(\alpha(Y))={}&X(\alpha_i)Y_i+X(Y_i)\alpha_i, \\ Y(\alpha(X))={}&Y(\alpha_i)X_i+Y(X_i)\alpha_i,$$ \end{align*} this boils down to writing the arguments of $ X,Y $ and $ X,Y $ themselves explicitly, I think we've done that above as well. Let us then compute the RHS of our claim: \begin{align*} X(\alpha(Y))-Y(\alpha(X))-\alpha([X,Y])={}&X(\alpha_i)Y_i+\underline{X(Y_i)\alpha_i}-Y(\alpha_i)X_i-\overline{Y(X_i)\alpha_i}-\alpha_i(\underline{X(Y_i)}-\overline{Y(X_j)})={} \\ {}={}&X(\alpha_i)Y_i-Y(\alpha_i)X_i. \end{align*} For the LHS, I must first stress I have an erroneous definition of $ d\N-alfa $. $ d\alpha\neq(\partial_i\alpha_j-\partial_j\alpha_i)dx_i\wedge dx_j $. It is NOT a sum over all combinations of $ i,j $, but a sum over $ i<j$. Para tener todas las combinaciones posibles, debo añadir un medio delante de todo. Ahora voy a calcular el LHS finalmente demostrar la igualdad. Veamos: \begin{align*} 2d\alpha(X,Y)={}&(\partial_j\alpha_i-\partial_i\alpha_j)(dx_j(X)dx_i(Y)-dx_i(X)dx_j(Y))={} \\ {}={}&X_jY_i\partial_j\alpha_i-X_jY_i\partial_i\alpha_j-X_iY_j\partial_j\alpha_i+X_iY_j\partial_i\alpha_j={} \\ {}={}&Y_iX(\alpha_i)-X_jY(\alpha_j)-X_iY(\alpha_i)+Y_jX(\alpha_j)={} \\ {}={}&2Y_iX(\alpha_i)-2X_iY(\alpha_i), \end{align*} que, a menos que me equivoque mucho, es exactamente el doble de la RHS.
Lo intentamos y fracasamos, lo intentamos y fracasamos, pero el único fracaso verdadero es cuando dejamos de intentarlo.
Lo dice el gitano de la esfera en "La Mansión Embrujada". Bueno, suerte que no dejé de intentarlo :).