4 votos

¿Cómo entender las restricciones en alta derivadas de orden de Gauss Mapa?

Estoy tratando de comprender las limitaciones resultantes de la diferenciación de una unidad de campo normal $N$ sobre una superficie $S$$\mathbb{R}^3$. Si escribo la unidad de longitud de restricción en un punto de $p \in S$, Tengo: $$\langle N(p), N(p) \rangle = 1$$

Aquí, el ángulo entre paréntesis corresponden a la norma dot producto en $\mathbb{R}^3$. (Por simplicidad de notación, voy a dejar fuera de las $p$ a partir de ahora.) Yo puedo tomar una direccional de la derivada de esta ecuación en la dirección $\vec{v} \in T_p S$ para obtener:

$$ \langle D_\vec{v} N, N \rangle + \langle N, D_{\vec{v}} N \rangle = 0 $$

Esto demuestra que la imagen de la diferencial de Gauss Mapa se encuentra en $T_p (S)$.

Puedo continuar a lo largo de este análisis, tomando más y más derivadas direccionales para obtener las restricciones en el mayor de los derivados, e.g si $\vec{u} \in T_p (S)$

$$ \langle D_{\vec{u}} (D_\vec{v} N), N \rangle + \langle D_\vec{v} N, D_\vec{u} N \rangle + \langle D_\vec{u} N, D_\vec{v} N \rangle + \langle N, D_{\vec{u}}(D_{\vec{v}} N)\rangle = 0 $$

Me gustaría pensar que de este proceso en tensorial términos, es decir, términos como " $D_{\vec{u}} (D_\vec{v} N)$ puede ser considerado como un $(1, 2)$ tensor. Por lo tanto, permítanme escribir $D_{\vec{u}} (D_\vec{v} N)$ $D^2 N$ y así sucesivamente. Por ejemplo, si yo tome $m$ derivados, voy a llegar a términos tales como T = $\langle D^i N, D^j N \rangle$ donde $i + j = m$. Creo que puedo pensar de $T$ $(0, m)$ tensor, donde pongo el primer $i$ entradas en el $D^i N$ y la próxima $j$ entradas en el $D^j N$. Para ser más precisos, creo que debo tener en cuenta el $D^i N$ a (1, i) tensor y $D^j N$ a (1, j) tensor y, a continuación, el producto escalar de los formularios de algún tipo de contracción.

Mi pregunta consiste en cómo se representan estos términos a través de matrices y el cálculo. ¿Cómo puedo representar a un único término como $T$ como una m-matriz bidimensional que puede tomar en $m$ vectores? Por ahora, me gustaría comprobar (a través de código y una superficie dada, por lo que puedo calcular derivados del campo normal de cualquier orden) que si puedo resumir la L. H. S de cada ecuación, voy a llegar a 0. Pero, ¿cómo puedo expresar estos tensores correctamente? No quiero elegir mi las direcciones (como $\vec{v}, \vec{u}$) de forma explícita, pero en lugar de escribir el tensor de formulaciones como las matrices de números en un plano tangente. Por eso, cuando me suma de todos los términos, debo conseguir una m-matriz bidimensional de ceros.

Creo que tengo que tener cuidado, ya que hay un pedido de insumos que la notación como $D^i N$ oculta. Es decir, habrá varios términos que participan en el mismo orden de derivados, pero la participación de los diferentes vectores de entrada. Por ejemplo, si mis tres primeras entradas se $\{\vec{v}, \vec{u}, \vec{w}\}$, no creo que puedo considerar el tensor $\langle D_\vec{u} (D_\vec{v} N), D_\vec{w} N \rangle$ igual que el tensor $\langle D_\vec{w} (D_\vec{v} N), D_\vec{u} N \rangle$. Por lo tanto, creo que voy a necesitar para reorganizar las dimensiones de estas matrices en una manera apropiada. Pero no sé qué "adecuada".

Me disculpo si esta valoración crítica está claro, por favor, pedir aclaraciones cuando sea necesario. Y muchas gracias por cualquier iluminación que me puedan dar! Incluso una referencia adecuada sería muy apreciada!

EDITAR:

Para ser más precisos acerca de mi confusión: Supongamos que yo tome $n$ derivados. Voy a tener términos como $D^i N$,$i < n$. Aunque un individuo $D^i N$ $2 \times 2 \cdots \times 2 \times 3$ matriz, con $i + 1$ total dimensiones, necesito para "incrustar" como un $n + 1$ dimensiones de la matriz con el fin de dot producto o suma con la de otros varios términos en la ecuación. Esto es debido a que los diferentes $D^i N$ términos son los tensores, actuando en diferentes conjuntos de vectores de entrada. Así, al combinar estos diferentes tensores, necesito colocar todos ellos en el mismo espacio, el espacio de $(1, n)$ tensores.

Si sé que mi campo normal y de la superficie por completo, esto debe ser sólo una cuestión de contabilidad. Creo que acabo de almohadilla de ciertas dimensiones (correspondiente a las entradas no utilizadas) de las matrices con las copias de las filas de las dimensiones de las entradas. De esta manera, estos tensores será independiente de la serie de $n - i$ las entradas no utilizadas. Es esto correcto?

2voto

Natrium Puntos 171

Es útil ver a esta situación de una forma más general de la configuración.

Supongamos que tenemos una hipersuperficie $S$ $(n+1)$- dimensiones de Riemann colector $M$. (En el caso de $M = \mathbb{R}^3$ con el estándar (Euclidiana) métrica). Por una hipersuperficie nos referimos a un sumbanifold de codimension $1$, lo $\dim S = n$.

La unidad vector normal $N$ en cada punto de $p \in S$ está definido (hasta el signo!) por las condiciones $$ \begin{array}[c]{1} g(N,N)=1\\ g(N,X)=0 \end{array} $$ para cualquier $X \in T_p S$.

(Para fijar el signo de la ambigüedad usted también tendrá que considerar las orientaciones).

En particular, esto significa que la unidad normal no está bien definida fuera de la hipersuperficie, y con el fin de ser capaz de diferenciar, mediante la derivada covariante $D$ disponible en $M$, tenemos que tomar una ampliación arbitraria $\widetilde{N}$ $N$ en un barrio de $S$, y, a continuación, restringir el resultado de la diferenciación de nuevo a la (hiper)de la superficie de $S$. Uno, a continuación, demuestra que este resultado es independiente de las extensiones, cuando restringida a $S$.

Técnicamente, esto se expresa como el hecho de que la unidad normal es una sección de la retirada de paquete a lo largo de la hipersuperficie, y está diferenciada con respecto a la retirada de conexión. Si su hipersuperficie está incrustado, entonces usted puede identificar la retirada de un paquete con la restricción $T M|_S$ de la tangente bundle $TM$ a $S$. Cada fibra en el punto de $p \in S$ de la retirada de paquete es sólo $T_p M$, por lo que su dimensión es $n+1$. El retroceso de la conexión de $\underline{D}$ es un mapa $$ \underline{D} \colon \Gamma (TM|_S) \a \Gamma (\Lambda^1 (S) \otimes T M|_S) $$ donde por $\Gamma(E)$ se denota el espacio de secciones de un vector paquete de $E$.

Observe que, en lugar de $D$, que es la de Levi-Civita de conexión asociado a la métrica de $g$$M$, ahora se usa el (subrayado símbolo) $\underline{D}$, lo que yo uso para denotar el pullback de la conexión. Al diferenciar la unidad normales, usted conseguir un pullback-bundle-valores de $1$forma $\underline{D}N$, que se define a lo largo de (=en todos los puntos) de $S$, pero no está bien definido. $S$ nuevo. Para obtener un vector $\underline{D}_{v}N$ actuar en $v$$\underline{D}_{v}N := \underline{D}N(v)$.

Si queremos diferenciar esta $\underline{D}N$ nuevo, ahora necesitamos una conexión en el paquete de $\Lambda^1 (S) \otimes T M|_S$, lo que tradicionalmente se entiende como el tensor de productos de conexión, y de nuevo se denota por a $\underline{D}$. Efectivamente, $\underline{D} \underline{D} N$ es una sección de $\Lambda^1(S) \otimes \Lambda^1 (S) \otimes T M|_S$.

Si usted introducir coordenadas (que ya están disponibles en su configuración como el estándar de coordenadas en $\mathbb{R}^n$), entonces usted puede escribir un $n \times (n+1)$-matriz de componentes de $\underline{D} N$. Los componentes de $\underline{D} \underline{D} N$ formar una matriz con dimensiones de $n \times n \times (n+1)$, y así sucesivamente.

Bueno, en realidad, me he saltado el hecho de que usted menciona en su pregunta, a saber, que el $\underline{D} N$ puede ser identificado (debido a $\underline{D}_v N \in T S$) con una sección de $\Lambda^1(S) \otimes T S$, pero esto requiere tomar la proyección con respecto a la proyección del operador $\Pi \colon T M|_S \to T M|_S$, el cual es definido por $$ \Pi := \mathrm{id}_{TM|_S} - N^{\plana} \otimes N $$ y su imagen se encuentra en $T S$ (Ejercicio!).

Se puede decir que las componentes normales de $\underline{D} N$ son cero, pero esto podría ser cierto en algunos especiales (adaptado) las coordenadas, pero no necesariamente en los que se inició con (recuerde, utilice el estándar de coordenadas en $\mathbb{R}^3$ en tu pregunta).

El punto es que $\underline{D} \underline{D} N$ (en general) componentes normales!

Todavía hay mucho que decir, y me temo que mi respuesta podría ser bastante confuso, si tienes poca experiencia en la geometría diferencial, pero puedo dar más explicaciones sobre la petición.


La ACTUALIZACIÓN. Yo debería haber comentado esto antes, pero en realidad hay un poco de confusión con el tratamiento de los tensores. Ver que $D_{\vec{u}} (D_\vec{v} N)$ es en realidad un vector, no $(1,2)$-tensor. Por lo tanto, deduzco que $D^i N$ es tu acceso directo de la notación para la derivada covariante $D_{v_1}\dots D_{v_i} N$ con alguna opción de $v_1,\dots,v_j \in T S$ tener en cuenta. Asimismo, su $T = \langle D^i N, D^j N \rangle$ es un escalar, a menos que se defina como una especie de (parcial, cuando $i \neq j$!) la contracción, en cuyo caso usted tiene que ser más cuidadoso. He intentado contestar a la parte de su pregunta, donde yo podría hacer algo de sentido y dirección de la dimensionalidad de los problemas.

Claramente, en su especial situación, la curvatura en el espacio ambiente $\mathbb{R}^3$ se desvanece, y el colectivo de derivados del viaje, de modo que las secciones (que ahora se piensa como tensores!) $D^i N$ son simétricas, pero los objetos como (bien definida) $\langle D^i N, D^j N \rangle$ sólo son simétricas en los grupos correspondientes de los índices, y la necesidad de no ser totalmente simétrica.

Hay relaciones que han notado. El primero es equivalente a $$ \langle D_v N, N \rangle = 0 $$ y la segunda puede ser establecido como $$ \langle D_u D_v N, N \rangle = - \langle D_u N, D_v N \rangle $$ que es, precisamente, la declaración de la componente normal de la $D D N$ mencionado anteriormente.

De continuar con estos cálculos, se obtiene en la nex paso $$ \langle D_u D_v D_w N, N \rangle = - \langle D_v D_w N, D_u N \rangle - \langle D_u D_v N, D_w N \rangle - \langle D_w D_u N, D_v N \rangle $$ que sugieren una fórmula general para la componente normal de la $\langle D^i N, N \rangle$.

ADVERTENCIA. Debo admitir que no entiendo bien lo que está haciendo, y la última modificación no ayuda demasiado. En particular, su proceso de elaboración de $(1,n)$ tensores de diversos derivados $D^i N$$1 \le i \le n $, se ve completamente arbitraria a mí y no hace sentido geométrico. Aunque puede ser válido desde la perspectiva computacional, no lo entiendo ahora. Como remedio, me gustaría sugerir a usted para volver a pensar acerca de los vectores $D_{v_1} \dots D_{v_i} N$ al contrato y añadirlos a tu problema, y para mantener a los tensores $D \dots D N$ virgen.

1voto

Natrium Puntos 171

Después de algún pensamiento que me decidí a añadir otra respuesta a esta pregunta. La razón para esto es que quiero mantener mi respuesta anterior para la referencia, mientras que la adición de un comentario o de ampliación de la respuesta anterior haría que los textos ilegibles.

Comencemos con la refinación de la declaración del problema original. Supongamos que tenemos un conjunto abierto $U \subseteq \mathbb{R}^2$ y una función suave $f \colon U \to \mathbb{R}^3$ de manera tal que la matriz de Jacobi $\left( \tfrac{\partial f^{a}}{\partial x^{j}} \right)_{1 \le i \le 2}^{1 \le a \le 3}$ tiene el máximo rango, o, de manera equivalente, vectores $ f_1 := \pmatrix{\tfrac{\partial f^1}{\partial x^1}\\ \tfrac{\partial f^2}{\partial x^1} \\ \tfrac{\partial f^3}{\partial x^1}} \text{ y } f_2 := \pmatrix{\tfrac{\partial f^1}{\partial x^2}\\ \tfrac{\partial f^2}{\partial x^2} \\ \tfrac{\partial f^3}{\partial x^2}} $ son linealmente independientes en todos los puntos de $p=(p^1,p^2) \in U$. La imagen de $S := f(U)$ a continuación, se llama una superficie en $\mathbb{R}^3$. La unidad vector normal $N$ puede ser calculada por $N = \frac{f_1 \times f_2}{| f_1 \times f_2 |}$.

Desde la perspectiva computacional, se pueden almacenar los siguientes datos: $$ f = \pmatrix{f^1\\f^2\\f^3}\text{, }f_1 = \pmatrix{f^1_1\\f^2_1\\f^3_1}\text{, }f_2 = \pmatrix{f^1_2\\f^2_2\\f^3_2}\text{, }N = \pmatrix{N^1 \\ N^2 \\N^3} $$

Por algunas razones, vamos a calcular los operadores de $T^{(i,j)} \colon \odot^j T S \otimes \odot^j TS \to \mathbb{R}$ definido por la igualdad $$ T^{(i,j)}(u_1,\dots,u_j,v_1\dots,v_j) := \langle D_{u_1}\dots D_{u_i} N,\,D_{v_1}\dots D_{v_j} N \rangle $$ para cualquier elección de $u_1,\dots,u_i,v_1,\dots,v_j \in TS$. Por $\odot$ aquí se denota el producto tensor simétrico. Las simetrías de aquí se deben al hecho de que la métrica Euclidiana en $\mathbb{R}^n$ plano (tiene la fuga de curvatura). De hecho, $D$ es solo el operador de la toma de derivadas parciales de las componentes (sin embargo, no olvides que trabajamos en el pullback paquete!). Observe que $\langle \cdot, \cdot \rangle$ es el estándar dot producto en $\mathbb{R}^3$, no una contracción completa!

Los operadores de $T^{(i,j)}$ pueden ser almacenados en matrices de dimensión $\underbrace{2 \times \dots \times 2}_{i+j \text{ times}}$.

Aparte de la evidente simetrías, mencionó anteriormente, los operadores de $T^(i,j)$ puede tener otras relaciones, como uno de los avisos tomando sucesivas de la derivada covariante de la unidad normal, y el cálculo de las contracciones en el ambiente de la ranura. Esto puede ser usado para optimizar los requisitos de almacenamiento, pero me gustaría dejar este trabajo a los lectores interesados.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X