9 votos

Problema de métrica de perturbación

Sé que este es un ya respondió a la pregunta, pero no podía hacer que la cabeza o la cola, y me molesta. Sé que probablemente estoy pidiendo una pregunta tonta, pero por favor tengan paciencia conmigo que soy 14 y este es mi primer post.

Vi esta perturbación, mientras estudiaba un poco de linearised gravedad:

$$g_{\mu\nu} = \eta_{\mu\nu} + h_{\mu\nu} \tag{1}$$

y, a continuación, la siguiente línea dice: "elevar los índices para obtener":

$$g^{\mu\nu} = \eta^{\mu\nu} - h^{\mu\nu}. \tag{2}$$

He hecho un poco de tensor de cálculo, pero yo todavía no podía entender cómo el hecho obvio de $g_{\mu\nu}\, g^{\mu\rho} = \delta^{\rho}_{\nu}$ nos lleva a la segunda ecuación. He intentado todo lo que pude, pero todo lo que veo es la primera ecuación, planteadas con índices diferentes de los dados, y un persistente signo+. Por favor, explicar y obtener la segunda ecuación paso por paso, como si a un idiota.

11voto

PaxCoffee Puntos 11

Tenga en cuenta que: $$ h^{\mu \nu} = \eta^{\mu \rho}\eta^{\nu \lambda} h_{\rho \lambda} $$ Por lo tanto, a la primera orden, tenemos: \begin{equation} \begin{aligned} g^{\mu \nu}g_{\nu \sigma} & = (\eta^{\mu \nu} - h^{\mu \nu})(\eta_{\nu \sigma} + h_{\nu \sigma}) \\& =\eta^{\mu \nu}\eta_{\nu \sigma} + \eta^{\mu \nu}h_{\nu \sigma} - \eta_{\nu \sigma} h^{\mu \nu} + \mathcal{O}(h^2) \\& = \delta^\mu_\sigma + \eta^{\mu \nu}h_{\nu \sigma} - \eta_{\nu \sigma} \eta^{\mu \rho}\eta^{\nu \lambda} h_{\rho \lambda} + \mathcal{O}(h^2) \\& = \delta^\mu_\sigma + \eta^{\mu \nu}h_{\nu \sigma} - \delta_\sigma^\lambda \eta^{\mu \rho} h_{\rho \lambda} + \mathcal{O}(h^2) \\& = \delta^\mu_\sigma + \eta^{\mu \nu}h_{\nu \sigma} - \eta^{\mu \rho} h_{\rho \sigma} + \mathcal{O}(h^2) \\& = \delta^\mu_\sigma + \eta^{\mu \nu}h_{\nu \sigma} - \eta^{\mu \nu} h_{\nu \sigma} + \mathcal{O}(h^2) \\& = \delta^\mu_\sigma + \mathcal{O}(h^2) \end{aligned} \end{equation} que es lo que requieren.

Edición en respuesta a los comentarios. La inversa de a $g_{\nu \sigma}$, que se denota por a $g^{\mu \nu}$, es definido para satisfacer la siguiente ecuación: $$ g^{\mu \nu}g_{\nu \sigma} = \delta^\mu_\sigma $$ En otras palabras, necesitamos encontrar una expresión para $g^{\mu \nu}$ de manera tal que las ecuaciones siguientes se cumple: $$ g^{\mu \nu}(\eta_{\nu \sigma} + h_{\nu \sigma}) = \delta^\mu_\sigma $$ Como he mostrado anteriormente, la función que obedece a la ecuación anterior hasta primer orden en $h_{\mu \nu}$ es: \begin{equation} g^{\mu \nu} = \eta^{\mu \nu} - h^{\mu \nu} \end{equation} Eso es realmente todo lo que está pasando.

2voto

auxsvr Puntos 1262

Si tiene$g_{\mu\nu} = \eta_{\mu\nu} + h_{\mu\nu}$, con$|h_{\mu\nu}|\ll 1$ una perturbación,$\eta_{\mu\nu} = \text{diag}(-1,1,1,1)$, entonces simplemente puede realizar una expansión de Taylor para obtener la inversa,$$g^{\mu\nu} = \eta^{\mu\nu} - h^{\mu\nu}+ \mathcal{O}(h^2),$$ where the indices of $ h ^ { \ mu \ nu}$ are raised by $ \ eta ^ {\ mu \ nu}$. This is easy to see if you take the diagonal elements first, the off-diagonal ones are of second order, negligible. You don't need to solve a matrix equation for this, because the inverse is linearly dependent on $ \ eta _ {\ mu \ nu} = \ eta ^ {\ mu \ nu}$, $ h _ {\ mu \ nu}$ and their products, hence it must be of the form $ g ^ {\ mu \ nu} = a \ eta ^ {\ mu \ nu} + bh ^ {\ mu \ nu} + \ ldots$, where the ellipses imply linear dependencies of higher order and the coefficients are constants. Also, note that $ h _ {\ mu \ nu} \ eta ^ {\ mu \ mu} \ eta ^ {\ nu \ nu} = h ^ {\ mu \ nu}$, no summation implied, namely $ h ^ {\ mu \ nu} \ propto h _ {\ mu \ nu ps

Además, una forma directa de calcular$\delta g^{\mu\nu}$ es mediante el uso de$\delta g^{\mu\nu} = - g^{\mu\rho} g^{\nu\sigma} \delta g_{\rho\sigma}$ con$\delta g_{\mu\nu} = h_{\mu\nu}$.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X