3 votos

Invariantes tensoriales bajo isometrías

UPD Formulación Equivalente --- ¿Cómo encontrar todos los invariantes isométricos independientes de un tensor?

En lo que sigue $V$ es un espacio de producto interno real.

Quiero entender cómo se encuentran todos los invariantes (escalares) de los tensores bajo isometrías. Wikipedia tiene una artículo relevante, pero se limita sólo a los tensores de tipo $V^* \otimes V$ o equivalente.

Lo que quiero decir con un invariante de un tensor bajo la isometría. Invariante de un $V \otimes V^*$ es una función $I : V \otimes V^* \to \mathbb R$ si

$$I\left( Q(A) \right) = I(A)$$

para cualquier isometría $Q$ (transformación) debidamente elevada para que actúe sobre los tensores.

He hizo una pregunta sobre los invariantes del tensor de tipo $V$ pero no pude conseguir la intuición para extender el razonamiento a los tensores de mayor rango

Por lo que entiendo los vectores tienen invariantes de la forma

$$f(\langle v, v \rangle)$$

mientras que los tensores en $V^* \otimes V$ tienen

$$f(\operatorname{Tr} A, \operatorname{Tr} A^2, \operatorname{Tr} A^3)$$

$f$ es una función arbitraria para $\mathbb R$ del tipo adecuado.

Ni siquiera veo por qué hay tres invariantes independientes para los tensores de rango dos.

Uno podría extrañarse de la importancia de la pregunta y de por qué la hago. El mencionado artículo de la wikipedia ofrece un buen ejemplo. La energía potencial (escalar) en un material elástico es una función del tensor de deformación. El acoplamiento entre ambos debería ser natural en el sentido de que no debería involucrar tensores o vectores arbitrarios (porque simplemente no los hay), hay que construir un escalar sólo a partir del tensor de deformación. Las teorías de la mecánica del continuo abundan en docenas de campos tensoriales de diferentes rangos y hay que buscar las formas de acoplamiento natural entre ellos.

2voto

Edmund Tay Puntos 712

Esto parece demasiado grande para un comentario, así que lo publicaré como respuesta.

En primer lugar, para las matrices (también conocidas como tensores de tipo $V\otimes V^*$ ). Si el tensor/matriz es simétrico, entonces es diagonalizable por una isometría (esto es teorema espectral), por lo que cualquier invariante isométrico es una función de los valores propios. Además, como las permutaciones son isometrías, tiene que ser una función simétrica de los valores propios. Si además se restringe a las funciones simétricas polinómicas, entonces todas ellas se entienden bien: todas son expresables en términos de $a_1+a_2+\ldots a_n$ , $a_1^2+a_2^2+\ldots a_n^2$ , $\ldots$ , $a_1^n+a_2^n+\ldots a_n^n$ - son las trazas en su pregunta - o en términos de coeficientes de $(x-a_1)(x-a_2)\cdots (x-a_n)$ - esas son las invariantes en el artículo de wikipedia (ver también http://en.wikipedia.org/wiki/Elementary_symmetric_polynomial ). Cuando se escriben no en términos de valores propios, sino como trazas o coeficientes del polinomio característico se convierten en invariantes de las entradas de la matriz.

Para las matrices no necesariamente simétricas podría haber otros invariantes -de hecho debe haberlos, ya que el espacio de todas las matrices es de dimensión $n^2$ y el espacio de isometrías es de dimensión $n(n-1)/2$ por lo que el cociente es de dimensión $n(n+1)/2>n$ . En particular en 3-D uno espera 6 invariantes). No sé la respuesta, pero lo que se hace es tomar el espacio (variedad) de todas las matrices y cocitarlo por la acción del grupo de isometrías, y luego preguntar cuáles son las funciones sobre el espacio resultante. En el caso simétrico, el cociente es en realidad $\mathbb{R}^n$ coodinado de esta forma tan divertida. En el caso general no estoy seguro, pero sospecho que la gente que hace teoría de invariantes o teoría de la representación lo sabe.

Nota: En el caso escalar el cociente $V$ dividido por isometrías es $\mathbb{R}_+$ coordinado por la longitud del cuadrado.

Nota 2: En el caso de las matrices simétricas a la inclinación se pueden llevar a la forma canónica de bloque mediante transformaciones isométricas. http://en.wikipedia.org/wiki/Skew-symmetric_matrix por lo que los invariantes están dados en términos de cuadrados de los valores propios, bien expresados como invariantes de la $A^2$ - por lo que uno vuelve a tener restos de $A^2$ , $A^4$ y así sucesivamente o coeficientes del polinomio característico de $A^2$ . Por supuesto, cuando $n=3$ sólo hay un invariante: la traza $A^2$ .

En el caso de los tensores "superiores", las cosas parecen aún menos evidentes. De nuevo se toma un espacio vectorial (de tensores) y se hace un cociente por la acción del grupo de isometrías y se pregunta por las funciones en el cociente resultante.

Otro comentario: si he entendido bien, en algunas teorías se obtienen escalares que dependen no sólo del propio tensor, sino también de sus derivadas de varios órdenes. Si se permite esta generalización el problema se complica.

1voto

Muphrid Puntos 12245

Mi formación es en álgebra de Clifford aplicada a la física. Haré todo lo posible para tratar de formular esta respuesta de manera que sea ampliamente comprensible.

En el álgebra de Clifford, se distingue entre los tensores que representan multivectores y los que representan operadores lineales sobre multivectores. Un multivector puede ser un escalar o un vector, pero también puede ser un bivector --un objeto orientado que representa un subespacio plano a través del origen, al igual que un vector es un objeto orientado que representa un subespacio unidimensional a través del origen--o algo de mayor dimensión aún. Sin embargo, los operadores lineales son los mismos que se esperan de los enfoques más convencionales del álgebra lineal.

La razón para distinguir los dos tipos es que las invariantes provienen de diferentes líneas de razonamiento.

Ahora bien, ¿qué es un operador lineal isométrico? Admito que no estoy del todo seguro, pero debería ser un operador $\underline M$ tal que $\underline M(a) \cdot \underline M(b) = a \cdot b$ para dos vectores $a, b$ . Si mi interpretación es incorrecta, por favor, hágamelo saber. Sin embargo, creo que esto es correcto, ya que implica que, si el operador adjunto (o, en el espacio euclidiano, el operador de transposición) se denota $\overline M$ entonces $\underline M \overline M = \underline I$ la identidad por lo tanto $\overline M = \underline M^{-1}$ y el operador es unitario (ortogonal) y corresponde a una isometría del espacio.

Ahora que hemos hablado de multivectores y transformaciones isométricas, consideremos un multivector general $A$ . Este multivector puede ser actuado por alguna transformación isométrica $\underline M$ formando $\underline M(A)$ . Todo multivector tiene un producto escalar (que podemos denotar por $\cdot$ al igual que con los vectores), y así podemos formar $\underline M(A) \cdot \underline M(A) = A \cdot A$ . En notación de índices, esto se denotaría por una contracción sobre todos los índices. El producto escalar de un multivector consigo mismo es siempre invariante con respecto a una transformación unitaria, por lo que cualquier función de sólo los productos escalares de multivectores es también invariante.

¿Pero qué pasa con los invariantes de los operadores lineales? Una vez más, éstos se derivan de algún tipo de producto escalar. Consideremos un operador lineal $\underline F$ . El producto escalar natural a formar es $\nabla_a \cdot \underline F(a)$ . Esta es la rastrear . Por la misma lógica que con los multivectores, se consigue finalmente que la transformación isométrica se anule haciendo que el operador actúe sobre su propio adjunto/inverso. Esto se aplica a cualquier operador lineal sobre un vector que devuelva un vector. Si las dimensiones de la entrada y la salida ya no coinciden -por ejemplo, una función de un vector que devuelve un escalar- entonces la traza ya no es un escalar y ya no es un invariante (uno podría preguntarse con razón si tiene algún significado, incluso). Sin embargo, para cualquier operador "cuadrado", existe una traza escalar bien definida, y las transformaciones isométricas la mantendrán invariante. Cualquier función de sólo la traza es entonces invariante bajo transformaciones unitarias.

Cabe señalar que cuando se considera un conjunto más estricto de transformaciones lineales, el espacio de invariantes puede ser diferente. Cuando se considera sólo el espacio de los operadores de rotación, por ejemplo, surgen más invariantes -en particular, el pseudoescalar del espacio -el elemento de volumen, si se quiere- no cambia ni en tamaño ni en orientación. Esto significa que los operadores de rotación tienen el determinante 1, en lugar de -1 como los operadores de reflexión. Algunos multivectores pueden combinarse entre sí para formar invariantes que son múltiplos del pseudoescalar bajo el conjunto de operadores de rotación.

Edito: Creo que me he olvidado de que podemos tomar la traza del operador extendido a sus homólogos mediante el outermorphism. Voy a ilustrar.

Dejemos que $\underline A(a) = (a \cdot e^1) f_1 + (a \cdot e^2) f_2 + (a \cdot e^3) f_3$ representan un operador lineal sobre un vector en un espacio vectorial 3d. Los vectores $f_i$ serían columnas de la representación matricial correspondiente.

El rastro es $\nabla_a \cdot \underline A(a) = e^1 \cdot f_1 + e^2 \cdot f_2 + e^3 \cdot f_3 = {A^1}_1 + {A^2}_2 + {A^3}_3$ . Esta es la primera invariante.

Ahora, ampliamos este operador mediante productos de cuña (externos). $\underline A(a \wedge b) = \underline A(a) \wedge \underline A(b)$ . Basta con saber que los pro son anticonmutativos para evaluar esto, aunque algunas identidades ayudan. Sea $e^1 \wedge e^2 \equiv e^{12}$ para la compacidad de la nota, y definir $B = a \wedge b$ para dos vectores $a, b$ para conseguir

$$\underline A(B) = (B \cdot e^{21}) f_{12} + (B \cdot e^{32}) f_{23} + (B \cdot e^{13}) f_{31}$$

Tomando la traza de este operador se obtiene $e^{21} \cdot f_{12} + e^{32} \cdot f_{23} + e^{13} \cdot f_{31}$ . En términos de los coeficientes de la matriz original, esta i s ${A^1}_1 {A^2}_2 - {A^1}_2 {A^2}_1 + \ldots$ . Esto es esencialmente lo mismo que se discute en el artículo de la wiki, excepto que ellos consideran explícitamente una matriz simétrica simétrica.

Construyendo por outermorfismo de nuevo se obtiene un operador sobre el pseudoescalar 3d del espacio que simplemente devuelve un múltiplo del mismo---ese múltiplo es el determinante, y así la traza es trivial.

Me doy cuenta de que la maquinaria matemática que he utilizado para discutir estos invariantes puede ser extraña, pero aquí hay una descripción cualitativa: todo operador lineal sobre vectores puede extenderse para actuar sobre planos, volúmenes, etc. Cada una de estas extensiones tiene su propia traza, que es un invariante. Por tanto, un operador lineal invertible tiene $N$ invariantes en un $N$ -espacio dimensional.

-1voto

Un tensor de segundo rango en 3 dimensiones sólo tiene tres valores propios lambda1, lambda2 y lambda3, su polinomio característico tiene 3 coeficientes diferentes J1, J2 y J3 y sólo tiene 3 trazas independientes de sus potencias Tr(A), Tr(A^2) y Tr(A^3). Todo esto se reduce a decir que sólo tiene tres invariantes independientes, que se pueden dar en diferentes formatos valores propios, invariantes principales o trazas. La relación entre valores propios e invariantes principales es muy directa porque los primeros son las raíces del polinomio característico y los segundos son sus coeficientes. La tercera relación es mucho más difícil de ver y su demostración se llama Teorema de Cayley Hamilton. En pocas palabras dice que "un tensor de segundo rango satisface su propia ecuación característica". Así que tienes J0*A^3+J1*A^2+J2*A^1+J3*A^0=0 (con J0=1), tomando trazas encuentras el último conjunto de invariantes independientes. El teorema de Cayley Hamilton es válido en n-dimensiones, es decir J0*A^n+J1*A^(n-1)+...+Jn=0. La demostración es realmente asombrosa y sorprendente. Nótese que la independencia de las trazas parece natural porque sólo tenemos una ecuación: el polinomio característico. Por otro lado, el teorema de Cayley Hamilton es sorprendente porque a partir de esta única ecuación da n^2 ecuaciones entre las componentes del tensor.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X