7 votos

Notación matricial en transformaciones tensoriales.

En la relatividad especial uno mira a transformaciones de coordenadas que consisten en combinaciones de Lorentz aumenta, rotaciones y reflexiones - los miembros del grupo de Lorentz. En virtud de un arbitrario de la transformación de esa manera, un 4-vector $\vec{x}$ transforma:

$$x'^\alpha = \Lambda^\alpha{}_\beta x^\beta$$

Donde $\Lambda^\alpha{}_\beta$ se representa esta transformación (es este un $(1,1)$ tensor de sí mismo?). Esto se puede escribir en forma de matriz

$$x' = \Lambda x$$

Ahora, la base de vectores de transformación en otra forma:

$$\vec{e'_\alpha} = (\Lambda^{-1})^\beta{}_\alpha\vec{e_\beta}$$

1-formulario de $\tilde{p}$ transforma como este:

$$p'_\alpha = (\Lambda^{-1})^\beta{}_\alpha p_\beta$$

mientras que la base de 1-formas obedecer

$$\omega'^\alpha = \Lambda^\alpha{}_\beta \omega^\beta$$

De todos modos, para un tensor puede representarse por una matriz, que es un $(0,2)$, $(2,0)$ o $(1,1)$ tensor, hay diferentes propiedades de transformación:

$$T'^{\alpha\beta} = \Lambda^\alpha{}_\gamma \Lambda^\beta{}_\delta T^{\gamma \delta}$$ $$T'_{\alpha\beta} = (\Lambda^{-1})^\gamma{}_\alpha (\Lambda^{-1})^\delta{}_\beta T_{\gamma \delta}$$ $$T'^{\alpha}{}_\beta = \Lambda^\alpha{}_\gamma (\Lambda^{-1})^\delta{}_\beta T^\gamma{} _\delta$$

Mi pregunta es: cómo traducir estas normas en la matriz de ecuaciones? He visto las fórmulas que implican la transpuesta (ni idea de lo que podría incluso venir) de $\Lambda$, pero nunca con una explicación de donde vino esto. Entonces, ¿cómo puedo llegar con el orden correcto y transpone/inversas de las matrices?

3voto

amcalde Puntos 2925

Mi viejo profesor tiene un libro que empieza a ir a través de esto en detalle. Ver páginas 20 - 22 o así que para empezar. Aquí está el borrador de su libro

Mi Respuesta: Si usted pregunta "Mi pregunta es: cómo traducir estas normas en la matriz de ecuaciones?" Tengo que decir que ya son de la matriz de ecuaciones. Me explico un poco.

En un curso sobre la teoría Especial de la relatividad en realidad, usted podría escribir las Transformaciones de Lorenz como una matriz-vector columna de la operación:

$$\tilde{x} = \Lambda x$$

Esto se vuelve tedioso rápidamente como usted considere la posibilidad de situaciones de carácter más general, como aumenta con rotaciones, o más en general la geometría como cuando hay curvatura. Por lo que no suele escribir lo que los componentes de $\Lambda$, excepto en la facilidad de los casos.

Cuando la multiplicación de los vectores con una matriz de obtener un vector. Pero a menudo es útil pensar acerca de los componentes de una en una. Esto es lo que los índices de hacer. Hacen más también, porque ha elegido alguna base para escribir en. Cuando usted escribe $$\tilde{x}^\alpha = \Lambda^{\alpha}_{\phantom{\alpha}\beta} x^\beta$$

A veces ayuda a pensar en esto igual $$ y = Ax \Rightarrow y_i = \sum_j A_{i j} x_j$$

Es esencialmente la misma cosa. Viendo esta ecuación no debe hacer pensar que no es una ecuación de matriz. Es! $A_{ i j}$ son los componentes de la matriz (uno a la vez!). Es una expresión algebraica con índices que representa la vida real de la matriz de la multiplicación de la vida real del vector.

Ahora una gran diferencia con los tensores es que, con el rango más alto, usted necesita más multiplica de la $\Lambda$ matriz. Esto se vuelve confuso, porque con cosas como

$$\tilde{R}^{\mu \nu \epsilon \phi} = \Lambda^{\mu}_{\phantom{\mu} \alpha} \Lambda^{\nu}_{\phantom{\nu} \beta} \Lambda^{\epsilon}_{\phantom{\epsilon} \gamma} \Lambda^{\phi}_{\phantom{\phi} \delta } R^{\alpha \beta \gamma \delta}$$

Usted es una especie de, todavía se hablaba de la matriz de multiplicar, pero no con un vector. Con un rango de 4 tensor. Por lo que el álgebra obras que usted tiene que hacer 4 sumas. Hay muy poco en la escuela secundaria o de la licenciatura de matemáticas, donde este es el caso de parte de SR o GR. De hecho, la única cosa que he visto que viene incluso cerca es donde se hable acerca de la transformación de una matriz por la derecha y a la izquierda de la multiplicación de algunos otros de la matriz: $$\tilde{M} = U.M.V $$ $$ \tilde{M}_{i l} = \sum_j \sum_k U_{i j} V_{k l} M_{j k}$$

Dejando de lado las sumas realmente sólo simplifica las cosas cuando ya sabes de lo que estás hablando.

Si usted está tratando de escribir esto en una forma familiar utilizando la notación de matriz con entradas y todo eso: BUENA SUERTE. Esto es problemático por muchas razones, pero no menos importante de todos, porque por lo general de alto rango de los tensores no son realmente 2D cosas! Por lo escrito en el papel, es duro porque tienes que de alguna manera representan a ellos y la tradicional con forma de caja de la matriz no funciona (los componentes son múltiples dimensiones de las matrices).

Lo siento si mi explicación fue la práctica del senderismo. Puedo elaborado, pero siento que quizás ha hecho cosas peores. Déjame saber lo que era más confuso acerca de mi respuesta, y voy a intentar solucionarlo.

La mejor de las suertes en un asunto confuso.

3voto

janmarqz Puntos 4027

Permítanos reorganizar su$$T'^{\alpha\beta} = \Lambda^\alpha{}_\gamma \Lambda^\beta{}_\delta T^{\gamma \delta},$ $ en$$T'^{\alpha\beta} = \Lambda^\alpha{}_\gamma T^{\gamma \delta}\Lambda^\beta{}_\delta,$ $ y un paso más$$T'^{\alpha\beta} = \Lambda^\alpha{}_\gamma T^{\gamma \delta}(\Lambda^{\top})_\delta{}^\beta{}.$ $

En esta última ecuación, cualquiera puede ver claramente que para obtener los componentes de$T'$ uno se debe multiplicar en consecuencia a$$T'=\Lambda T\Lambda^{\top}.$ $

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X