5 votos

Comprender una prueba sobre las métricas riemannianas en tres dimensiones siempre diagonalizables

Recientemente he estado trabajando a través de Deturck y el Yang de la Existencia de deformaciones elásticas con lo prescrito principales cepas. En primer lugar, que me interesa es la prueba de que Riemann métricas pueden en tres dimensiones siempre diagonalized, que es, siempre podemos encontrar un atlas de coordinar funciones con el fin de que la métrica de los componentes se vuelven $g_{i j} = 0$ $i \neq j$ cuando se representan con respecto a este indicador, pero tengo algunos problemas para comprender plenamente.

Ahora la idea general de la prueba es elegir algunos ortonormales fotogramas $\{\overline{e_1}, \overline{e_2}, \overline{e_3}\}$ de los campos vectoriales en $M$, correspondiente base dual $\{\overline{\omega}^1, \overline{\omega}^2, \overline{\omega}^3\}$ de las formas (que él llama el marco de referencia), y la solución de ellos por un conjunto de coordinar las funciones de $\{x^1, x^2, x^3\}$ en el que la métrica se convierte en diagonal, con el doble coframe $\{\omega^1, \omega^2, \omega^3\}$.

Ahora una gran parte de la prueba se reduce a algunos tedioso pero simples cálculos que involucran el teorema de Frobenius, la estructura de las ecuaciones y algunas otras construcciones fundamentales, pero es el paso final de la prueba de que no puedo envolver mi cabeza alrededor de tan lejos y que estoy esperando que alguien puede explicar para mí. Espero que basta sólo reproducir la parte final de la prueba, así como un esquema de los pasos preliminares de la prueba aquí; si alguien se requieren más de la prueba, no dude en hacérmelo saber.

Ahora vamos, como se mencionó anteriormente, $\omega^i, i = 1, 2, 3$ ser el ortonormales coframe a la deseada coordinar las funciones de $(x^1, x^2, x^3)$ a que nuestra métrica se convierte en diagonal de la cual queremos mostrar la existencia. El primer paso importante en la prueba de ello es que se muestra que es un equivalente condición para la existencia de un coframe $\omega^i$ con la propiedad de que el frame correspondiente diagonalizes la métrica es que

$$\omega^1 \wedge \omega^2 \wedge \omega_2^1 = 0, \omega^1 \wedge \omega^3 \wedge \omega_3^1 = 0, \omega^2 \wedge \omega^3 \wedge \omega_3^2 = 0 \tag{1} $$

donde $\omega_i^j$ es la forma de conexión.

Dada la existencia de un coframe, uno sería capaz de representar con respecto al marco de referencia $\omega^j$ través $\omega^i = \sum_{j=1}^n b_j^i \overline{\omega}^j$ para algunos coeficientes de $b_i^j$ donde $(b_i^j) = b \in C^\infty(M, SO(3))$. En otras palabras, es suficiente para encontrar una matriz de valores de la función $b$ con esta propiedad.

El uso de algunos cálculos más, que, a continuación, vuelva a escribir la ecuación $(1)$ sin dependencia de la deseada coframe $\omega^i$, pero en lugar de con los componentes de la matriz $b_i^j$; es decir, que muestran que la existencia de $\omega^i$ que satisfacen la ecuación de $(1)$ es equivalente a la existencia de una $b \in C^\infty(M, SO(3))$ que cumplan:

$$0 = \sum_{p, q, j, k} b_p^i b_q^l \overline{\omega}^p \wedge \overline{\omega}^q \wedge \left( \frac 12 \left( b_k^l \overline{e}_k (b_j^i) - b_k^i \overline{e}_k (b_j^l) \right) \overline{\omega}^j + b_k^l b_j^i \overline{\omega}_k^j \right) \tag{2}$$

Lo siento por este largo plomo; ahora mi pregunta comienza aquí, ya que es donde yo no puedo seguir más.

Sólo voy a citar el resto de la prueba paso a paso:

La proposición 4.8. La linealización de [$(2)$] es la diagonal hiperbólica.

Este es uno de mis temas principales: Deturck y el Yang ir a la prueba de esta afirmación, pero no perder una sola palabra acerca de cómo la existencia de tales funciones $b_i^j$ puede ser visto a partir de este hecho. ¿Por qué el hecho de que la linealización de $(2)$ es la diagonal hiperbólico garantizar la existencia de una solución? ¿Cuáles son nuestras $b_i^j$'s, ¿por qué existen a causa de ella?

Prueba. Basta con alinear [(2)] alrededor de todo el marco donde $b_j^i(x) \equiv \delta_j^i$, ya que podemos elegir el marco de referencia $\{\overline{\omega}^i\}$ a ser igual a la de marco $\{\omega^i\}$ alrededor de la cual estamos alineando.

Ahora... ¿qué está pasando aquí? ¿Por qué elegir la imagen deseada de $\overline{\omega}^i$ a (a nivel local, ¿supongo?) igual que el marco de referencia? Uno de ellos es (se supone) en diagonal, mientras que el otro no está, así que ¿por qué pueden ser igual aquí?

Deje $\beta_j^i = (d b)_j^i$ ser la variación en $b - \beta_j^i$ es un sesgo de simetría de la matriz de valores de la función.

Mi siguiente problema aquí es: que la varianza exactamente estamos hablando aquí? ¿Cómo es esto de la varianza se define? Lo siento, pero no estoy familiarizado con cualquier definición de la varianza en este contexto, y no podía encontrar una definición que tiene sentido hasta ahora. Qué significan algo así como el (exterior), derivado de $b$ desde que escribir $d b$? O es algo completamente distinto? De lo contrario sólo sé una variación de un punto de vista estocástico contexto y dudo mucho que es lo que quieren decir aquí.

La linealización de [(2)] es así:

$$\frac 12 \left( \overline{e}_i \left(\beta_j^i\right) - \overline{e}_i \left(\beta_j^l\right) \right) \overline{\omega}^i \wedge \overline{\omega}^l \wedge \overline{\omega}^j + \text{ lower order terms in } \beta = 0$$

para $(j, j, l ) = (1, 2, 3), (2, 3, 1),$ $(3, 1, 2)$

Supongo que se podría entender por qué esta es la linealización si yo supiera qué es exactamente la varianza aquí está.

Escribimos las tres ecuaciones para la linealización:

$$\frac 12 \left( \overline{e}_1 \left( \beta_3^2 \right) - \overline{e}_2 \left(\beta_3^1 \right) \right) = \text{lower order terms in } \beta = 0 $$

$$\frac 12 \left( \overline{e}_2 \left( \beta_1^3 \right) - \overline{e}_3 \left(\beta_1^2 \right) \right) = \text{lower order terms in } \beta = 0 $$ $$\frac 12 \left( \overline{e}_3 \left( \beta_2^1 \right) - \overline{e}_1 \left(\beta_2^3 \right) \right) = \text{lower order terms in } \beta = 0 $$

Por alternadamente la adición de dos de las ecuaciones y restando el otro, obtenemos un sistema de la forma:

$$\overline{e}_1(\beta_3^2) = \text{inferior términos de orden en } \beta = 0 $$

$$\overline{e}_2(\beta_1^3) = \text{lower order terms in } \beta = 0$$

$$\overline{e}_3(\beta_2^1) = \text{lower order terms in } \beta = 0$$

Esta es, obviamente, de forma diagonal. q.e.d.

Esta parte final puedo seguir de nuevo: dada la linealización de él deriva, creo que puedo ver que la linealización aquí es diagonal. Pero, como se mencionó anteriormente, ¿cómo el hecho de que esta linealización es la diagonal de probar que una función $b \in C^\infty(M, SO(3))$ existe para que $(3)$ está satisfecho? ¿Cuál es la conexión aquí que me estoy perdiendo?

Me doy cuenta de que esta es una larga pregunta, y espero que sea su enunciado de una manera que deja en claro lo que puede y lo que no puedo entender, y qué respuesta(s) busco aquí. Para resumir, mi problema principal es la comprensión de cómo la linealización de sistema de $(2)$ diagonal es suficiente para la existencia de una matriz de función $b$ que satisface $(2)$, ¿por qué el deseado coframe y la referencia coframe puede ser elegido igual a nivel local, y qué es exactamente esta varianza "$\beta_j^i = (d b)_j^i$" es y cómo se juega en la linealización del sistema de $(2)$. Cualquier ayuda sería muy apreciada. Si alguien desea más detalles sobre el papel o los pasos preliminares de la prueba, estoy feliz de proveer para ellos.

3voto

Sim Puntos 26

Cuando nos linealizar la ecuación de $F(b)=0$, la ecuación obtenemos no es más para la variable $b$, sino más bien por su variación, que puede ser pensado como un cambio infinitesimal en $b$. Para decirlo con precisión, la linealización acerca de un conocido de la solución de $b$ es la ecuación $$DF|_b (\beta) := \left.\frac{d}{dt}\right|_{t=0} F(b+t\beta) = 0$$ for the unknown $\beta$. In the finite-dimensional case, e.g. where we are trying to solve the equation $$F(x,y) = x^2+y^2-1=0,$$ you should be familiar with $DF$ as the directional derivative of $F$, which acts on tangent vectors (variations!) based at $b$. The linearized equation at $(x,y) = (1,0)$ in this toy example is $$DF|_{(1,0)}(u,v) = (2x dx + 2y dy)(u,v) = 2u = 0;$$ so any vertical tangent vector based at $(1,0)$ is a linearized solution, corresponding to the fact that the solution space of $F=0$ tiene una tangente vertical de la línea en este momento.

Puesto que el $F$ en el papel (la RHS de $(2)$ considera como una función de la $b^i_j$) actúa en $SO(3)$valores de las funciones, las correspondientes variaciones $\beta^i_j$ $b^i_j$ $\mathfrak{so}(3)$valores (es decir, sesgo de simetría de la matriz de valores de funciones.

Este es uno de mis temas principales: Deturck y el Yang ir a la prueba de esta afirmación, pero no perder una sola palabra acerca de cómo la existencia de tales funciones $b^i_j$ puede ser visto a partir de este hecho. ¿Por qué el hecho de que la linealización de (2) es la diagonal hiperbólico garantizar la existencia de una solución? ¿Cuáles son nuestras $b^i_j$, ¿por qué existen a causa de ella?

De hecho, inmediatamente después de la prueba de rayado hyperbolicity que describen cómo esto implica la existencia de una solución de $b.$ Teorema 1.4 nos dice que para que una relación no lineal simétrica hiperbólico sistema (es decir, un PDE sistema cuya linealización es simétrica hiperbólico), cualquier noncharacteristic inicial de los datos puede ser seguido de una solución local. Así, una vez que los autores han demostrado que el sistema es hiperbólica, la prueba puede ser completado por mostrar que noncharacteristic inicial de datos se pueden encontrar, que es lo que se describe en al final de la prueba. No hay nada como una fórmula explícita para $\beta$: para los fines de este documento, la existencia de la PDE teoría es tratada como una caja negra. Los autores de verificar los supuestos (hyperbolicity y noncharacteristic de datos) y por lo tanto a la conclusión de la existencia de una solución.

¿Por qué elegir la imagen deseada de $\bar\omega$ a (a nivel local, ¿supongo?) igual que el marco de referencia?

Hay un poco de handwaving pasando aquí, pero creo que el punto es que mientras que la ecuación que estamos resolviendo es formulada en términos de un marco de referencia $\bar \omega$, es realmente describir un objeto geométrico que es independiente del marco de referencia elegido. Esto puede probabably ser rigurosamente formulada de la $SO(3)$invariancia de $(2),$ a pesar de que no voy a tratar de resolver esto ahora. La consecuencia de esto sería que nosotros podemos calcular la linealización acerca de cualquier $b$ por la rotación de nuestro marco para hacer $b$ la identidad de todas las partes y luego de computación de la linealización, como los autores.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X