3 votos

Representación geométrica de los vectores contravariantes y covariantes

Después de revisar un montón de material en línea, y las respuestas por aquí, mi comprensión de los vectores contravariantes y covariantes son, en un espacio vectorial de dimensión finita, supongamos que tenemos un vector, que es contravariante a su base . Sin embargo, utilizando el tensor métrico, podemos mapear este vector a una forma en el espacio dual, que actúa como un espacio vectorial para este ejemplo. Esta forma única, o covactor, varía de forma similar a la base en nuestro espacio vectorial original .

Sin embargo, el Los covectores tienen una base diferente que es la base dual, y se expanden en términos de éstas. Aquí es donde surge mi confusión :

Muchos diagramas en Internet dan una imagen geométrica del escenario, afirmando que las componentes contravariantes de un "flecha se encuentran trazando líneas paralelas a lo largo de los ejes y comprobando dónde se cruzan. Las componentes covariantes se pueden encontrar trazando las líneas perpendiculares a estos ejes. Por lo tanto, estos materiales están tratando covariante y contravariante como representaciones diferentes de la misma flecha, mientras que yo me inclino a creer que son completamente diferentes. Sin embargo, si dejamos de lado el rigor, a cambio de una comprensión "más" geométrica, creo que se nos permite hacerlo.

Los diagramas suelen ser de la forma :

enter image description here

Sin embargo, incluso si asumimos que la contravariante y la covariante son representaciones diferentes del mismo objeto, este diagrama en particular me sigue pareciendo erróneo. En particular, los lugares de $x_1,x_2$ . En este diagrama, se encuentran en el vano del base original . ¿Los componentes del covector no deberían estar situados en el vano del doble base ? Este diagrama me sugiere que los componentes covariantes tienen la misma base que los contravariantes.

¿No debería el diagrama parecerse más a esto?

enter image description here

Este segundo diagrama parece ajustarse mejor al concepto, según yo. Esto se debe a que el vector dual debe ser "contravariante" con respecto a la "base dual . Esto significa que sus componentes deben ser encontrados trazando líneas paralelas a lo largo de la extensión de la base dual. Estas líneas se cruzan con el eje original en un ángulo recto, lo que es de esperar, como bases duales son ortogonales a las bases originales.

Además, esta segunda imagen también puede mostrar de una manera mucho mejor, cómo al aumentar la escala de la base original, se reducen las "componentes contravariantes" y la "base dual", que a su vez aumenta las componentes "covariantes". Esto es algo que no se ve fácilmente en el primer diagrama. Entonces, ¿tengo razón al suponer que esta segunda representación "geométrica" es correcta?

Sé que esto no tiene mucho sentido, porque como decían los matemáticos, que los vectores son completamente diferentes de las formas de uno, y las formas de uno deben representarse utilizando el número de hiperplanos interceptados por nuestra flecha. Sin embargo, he visto que la mayoría del material del curso se refiere a esto de esta manera, y francamente es más fácil de visualizar. Sin embargo, la mayoría de este material utiliza la primera imagen. ¿Alguien puede señalar mis errores, si los hay, y decirme si la primera foto es correcta, o la segunda? O, en este caso, "menos defectuoso".

1 votos

Quiero decir, visualiza la cosa como quieras, pero notaré que todas tus fotos parecen estar pensando en $\mathbb{R}^n$ con coordenadas cartesianas...este es el caso muy especial en el que la distinción entre vectores y vectores duales puede esencialmente ignorarse. En cualquier otro múltiple, y en la mayoría de las demás coordenadas, es mejor mantenerlos diferenciados.

0 votos

@Richard Myers : Existen componentes contravariantes y covariantes distintas en $\mathbb R^2$ como en nuestro caso, en $\mathbb R^3$ y más en general en $\mathbb R^n$ con representaciones pictóricas como las publicadas por el OP. Son idénticas si la base original es ortonormal, en cuyo caso la base dual es idéntica a la original. Esto último es válido porque la propiedad (1) en mi respuesta.

1 votos

@Frobenius El término "componentes covariantes de un vector" es erróneo en primer lugar. Un vector sólo tiene un conjunto de componentes. Es una forma anticuada de decir "componentes covariantes correspondientes". Los covectores son los objetos apropiados en este caso, que se representan mejor como pilas de hipersuperficies. La representación que da el OP es completamente engañosa. Puedes ver por qué si intentas usarla, por ejemplo, en coordenadas esféricas euclidianas.

4voto

Doodles Puntos 11

Gran parte de la (interminable) confusión sobre este tema puede atribuirse al hecho de que la geometría diferencial puede formularse de varias maneras diferentes.


Un enfoque es el siguiente. Consideramos un espacio vectorial $V$ con un producto interno proporcionado por un tensor métrico $g:V\times V \rightarrow \mathbb R$ . Dada una base $\{\hat e_\mu\}$ para $V$ podemos expandir cualquier vector como $\mathbf X = X^\mu \hat e_\mu$ . El producto interior de dos vectores es entonces $g(\mathbf X,\mathbf Y) = X^\mu Y^\nu g(\hat e_\mu,\hat e_\nu) \equiv X^\mu Y^\nu g_{\mu\nu}$ .

Observando que $\{\hat e_\mu\}$ no es genéricamente ortonormal, podemos definir una base dual $\{\hat \epsilon^\mu\}$ para $V$ que se define por la condición de que $g(\hat e_\mu, \hat \epsilon^\nu) = \delta_\mu^\nu$ . Tenga en cuenta que la colocación del índice arriba/abajo está diseñada para distinguir entre la base original y la base recíproca.

Ambos $\{\hat e_\mu\}$ y $\{\hat \epsilon^\mu\}$ son bases para $V$ . Así, un vector puede expandirse en cualquiera de las dos bases: $$\mathbf X = X^\mu \hat e_\mu = \tilde X_\mu \epsilon^\mu$$ donde $\tilde X_\mu$ son los componentes de $\mathbf X$ en la base dual. Normalmente, dejamos de lado la tilde y simplemente distinguimos estos componentes de los componentes $X^\mu$ puramente a través de la colocación del índice. Después de tomar el producto interno con $\hat e_\nu$ se encuentra $$\tilde X_\mu = g_{\mu\nu} X^\nu$$ Un rango $r$ es un mapa multilineal $T:\underbrace{V\times \ldots\times V}_{r\text{ times}} \rightarrow \mathbb R$ que se come $r$ vectores y escupe un número. Sus componentes tienen $r$ índices; se puede ampliar en términos de la base o de la base dual: $$T(\hat e_{\mu_1},\ldots,\hat e_{\mu_r}) \equiv T_{\mu_1 \ldots \mu_r} \qquad T(\hat \epsilon^{\mu_1},\ldots,\hat\epsilon^{\mu_r}) \equiv T^{\mu_1 \ldots \mu_r}$$ o en una combinación de ambos: $$T(\underbrace{\hat\epsilon^{\mu_1},\ldots,\hat\epsilon^{\mu_p}}_{p\text{ times}},\underbrace{\hat e_{\nu_1},\ldots,\hat e_{\nu_q}}_{q\text{ times}}) = T^{\mu_1 \ldots \mu_p}_{\ \ \ \ \qquad \nu_1\ldots \nu_q}, \qquad p+q=r$$

Todas estas posibilidades reflejan simplemente la expansión del rango- $r$ tensor $T$ en diferentes opciones posibles de base.


En el enfoque anterior, no mencionamos en absoluto el espacio dual, y consideramos que los tensores son mapas multilineales que comen vectores y escupen números. Como enfoque alternativo, en lugar de introducir una base dual para $V$ consideramos el espacio dual algebraico $V^*$ que consiste en mapas lineales $V\rightarrow \mathbb R$ .

Es fácil ver que $V^*$ es un espacio vectorial con la misma dimensionalidad que $V$ . Además, dada cualquier base $\{\hat e_\mu\}$ para $V$ hay una base única $\{\xi^\mu\}$ de $V^*$ tal que $\xi^\mu(\hat e_\nu) = \delta^\mu_\nu$ . Llamamos elementos de $V^*$ covectores, vectores duales o formas únicas según el contexto y la convención del autor.

$V^*$ se puede dotar de una métrica canónica $\Gamma :V^* \times V^* \rightarrow \mathbb R$ cuyos componentes $\Gamma^{\mu\nu}$ en la base $\{\xi^\mu\}$ son la matriz inversa de los componentes $g_{\mu\nu}$ en la base $\{\hat e_\mu\}$ (normalmente, escribimos simplemente $\Gamma^{\mu\nu}\equiv g^{\mu\nu}$ y diferenciar estos componentes de $g_{\mu\nu}$ mediante la colocación de índices).

A cada vector $\mathbf X$ , corresponde un covector $\tilde{\mathbf X}:= g(\cdot, \mathbf X)$ donde el $\cdot$ denota una ranura vacía; porque $g$ es no degenerada, esta correspondencia es inyectiva, y en dimensiones finitas es también suryectiva, lo que significa que $g$ define una biyección entre $V$ y $V^*$ (aunque hay que decir que cualquier mapa bilineal no degenerado serviría para el mismo propósito).

Por último, un $(p,q)$ -tensor es un mapa multilineal $$T:\underbrace{V^*\times\ldots\times V^*}_{p\text{ times}}\times\underbrace{V\times\ldots\times V}_{q\text{ times}} \rightarrow \mathbb R$$

que se come $p$ covectores y $q$ vectores y escupe un número. Tiene componentes

$$T(\underbrace{\xi^{\mu_1},\ldots,\xi^{\mu_p}}_{p\text{ times}},\underbrace{\hat e_{\nu_1},\ldots,\hat e_{\nu_q}}_{q\text{ times}}) = T^{\mu_1 \ldots \mu_p}_{\ \ \ \ \qquad \nu_1\ldots \nu_q}$$

La biyección entre $V$ y $V^*$ proporcionado por $g$ nos permite "subir" y "bajar" índices a voluntad, definiendo tensores distintos pero íntimamente relacionados. Por ejemplo, si $T:V\times V\rightarrow \mathbb R$ es un $(0,2)$ tensor, entonces podemos definir $T':V^* \times V \rightarrow \mathbb R$ y $T'':V^* \times V^* \rightarrow \mathbb R$ a través de $$T'(\tilde{\mathbf X},\mathbf Y) := T(\mathbf X,\mathbf Y) \qquad T''(\tilde{\mathbf X},\tilde{\mathbf Y}):=T(\mathbf X,\mathbf Y)$$ lo que significa que $(T')^\mu_{\ \ \nu} = g^{\mu\alpha}T_{\alpha\nu}$ y $(T'')^{\mu\nu}=g^{\mu\alpha}g^{\nu\beta} T_{\alpha\beta}$ .


Ninguno de los dos enfoques descritos anteriormente es equivocado . Sin embargo, este último es más moderno y, en mi opinión, en última instancia mucho más limpio (aunque para ser justos, esto puede no ser obvio al principio).

2voto

Trademark Puntos 67

Lo correcto es la segunda representación "geométrica".

Tenga en cuenta las propiedades : (1) los vectores de la base dual son paralelos a las alturas del paralelogramo formado por los vectores de la base original con magnitudes inversamente proporcionales a estas alturas y (2) aumentando la magnitud de un vector de la base original la componente correspondiente disminuye absolutamente (ese es el término "contravariante") mientras que la componente correspondiente con respecto a la base dual aumenta absolutamente (ese es el término "covariante").

La primera imagen no funciona de acuerdo con las propiedades anteriores.

$=\!=\!=\!=\!=\!=\!=\!=\!=\!=\!=\!=\!=\!=\!=\!=\!=\!=\!=\!=\!=\!=\!=\!=\!=\!=\!=\!=\!=\!=\!=\!=\!=\!=\!=\!=\!=\!=\!=\!=\!=\!=\!=\!=\!=\!=\!=\!=\!=\!=\!=\!=\!=\!$

$\boldsymbol{\S}\:$ A. Base recíproca o doble en $\,\mathbb R^2\,$ - Componentes contravariantes y covariantes

Considere una base $\,\{\mathbf u_1,\mathbf u_2\}\,$ en $\,\mathbb R^2\,$ no necesariamente ortonormal. Dados dos vectores $\,\mathbf x,\mathbf y\,$ expresado por componentes con respecto a esta base \begin{align} \mathbf x & \boldsymbol{=} \mathrm x^1 \mathbf u_1 \boldsymbol{+} \mathrm x^2\mathbf u_2 \tag{01a}\label{01a}\\ \mathbf y & \boldsymbol{=} \mathrm y^1 \mathbf u_1 \boldsymbol{+} \mathrm y^2\mathbf u_2 \tag{01b}\label{01b} \end{align} para el producto interior habitual tenemos \begin{align} \langle\mathbf x,\mathbf y\rangle & \boldsymbol{=}\langle\mathrm x^1 \mathbf u_1 \boldsymbol{+} \mathrm x^2\mathbf u_2,\mathrm y^1 \mathbf u_1 \boldsymbol{+} \mathrm y^2\mathbf u_2\rangle \nonumber\\ & \boldsymbol{=} \mathrm x^1\mathrm y^1\langle\mathbf u_1,\mathbf u_1\rangle\boldsymbol{+}\mathrm x^1\mathrm y^2\langle\mathbf u_1,\mathbf u_2\rangle\boldsymbol{+}\mathrm x^2\mathrm y^1\langle\mathbf u_2,\mathbf u_1\rangle\boldsymbol{+}\mathrm x^2\mathrm y^2\langle\mathbf u_2,\mathbf u_2\rangle \nonumber\\ & \boldsymbol{=} \Vert\mathbf u_1\Vert^2\mathrm x^1\mathrm y^1\boldsymbol{+}\langle\mathbf u_1,\mathbf u_2\rangle\mathrm x^1\mathrm y^2\boldsymbol{+}\langle\mathbf u_2,\mathbf u_1\rangle\mathrm x^2\mathrm y^1\boldsymbol{+}\Vert\mathbf u_2\Vert^2\mathrm x^2\mathrm y^2 \nonumber\\ & \boldsymbol{=} g_{11}\mathrm x^1\mathrm y^1\boldsymbol{+}g_{12}\mathrm x^1\mathrm y^2\boldsymbol{+}g_{21}\mathrm x^2\mathrm y^1\boldsymbol{+}g_{22}\mathrm x^2\mathrm y^2 \tag{02}\label{02} \end{align} es decir, utilizando la convención de suma de Einstein \begin{equation} \langle\mathbf x,\mathbf y\rangle \boldsymbol{=}g_{ij}\mathrm x^i\mathrm y^j \qquad \left(i,j \boldsymbol{=}1,2\right) \tag{03}\label{03} \end{equation} donde \begin{equation} \mathfrak g \boldsymbol{=}\{g_{ij}\}\boldsymbol{=} \begin{bmatrix} g_{11} & g_{12}\vphantom{\dfrac{a}{b}}\\ g_{21} & g_{22}\vphantom{\dfrac{a}{b}} \end{bmatrix}\boldsymbol{=} \begin{bmatrix} \:\Vert\mathbf u_1\Vert^2 & \langle\mathbf u_1,\mathbf u_2\rangle\vphantom{\dfrac{a}{b}}\\ \langle\mathbf u_2,\mathbf u_1\rangle & \:\Vert\mathbf u_2\Vert^2\vphantom{\dfrac{a}{b}} \end{bmatrix} |etiqueta{04} {etiqueta{04} \N - fin {equipamiento} el matriz métrica (tensor) .

Sabemos que una matriz no es una transformación lineal por sí misma. Para representar correctamente una transformación lineal de un espacio lineal $\,V\,$ sobre sí mismo por una matriz, el espacio del dominio y el espacio de la imagen deben estar equipados cada uno con su base. Por ejemplo, en nuestro caso, supongamos que tenemos una transformación lineal $\,F\,$ de $\,\mathbb R^2\,$ sobre sí mismo, el espacio dotado de base $\,\{\mathbf u_1,\mathbf u_2\}\,$ \begin{equation} \bigg(\mathbb R^2\boldsymbol{,}\{\mathbf u_1,\mathbf u_2\}\bigg) \stackrel{F}{\boldsymbol{-\!\!\!-\!\!\!-\!\!\!-\!\!\!-\!\!\!-\!\!\!-\!\!\!-\!\!\!-\!\!\!\rightarrow}}\bigg(\mathbb R^2\boldsymbol{,}\{\mathbf u_1,\mathbf u_2\}\bigg) \tag{05}\label{05} \end{equation} entonces $\,F\,$ estaría representada por una matriz bien definida \begin{equation} \mathfrak f \left(F\right)\boldsymbol{=}\{f_{ij}\}\boldsymbol{=} \begin{bmatrix} f_{11} & f_{12}\vphantom{\dfrac{a}{b}}\\ f_{21} & f_{22}\vphantom{\dfrac{a}{b}} \end{bmatrix} |etiqueta{06} {etiqueta{06} \N - fin {equipamiento} pero si el espacio de la imagen está dotado de una base diferente \begin{equation} \bigg(\mathbb R^2\boldsymbol{,}\{\mathbf u_1,\mathbf u_2\}\bigg) \stackrel{F}{\boldsymbol{-\!\!\!-\!\!\!-\!\!\!-\!\!\!-\!\!\!-\!\!\!-\!\!\!-\!\!\!-\!\!\!\rightarrow}}\bigg(\mathbb R^2\boldsymbol{,}\{\mathbf w_1,\mathbf w_2\}\bigg) \tag{07}\label{07} \end{equation} la representación matricial de $\,F\,$ sería diferente \begin{equation} \mathfrak f' \left(F\right)\boldsymbol{=}\{f'_{ij}\}\boldsymbol{=} \begin{bmatrix} f'_{11} & f'_{12}\vphantom{\dfrac{a}{b}}\\ f'_{21} & f'_{22}\vphantom{\dfrac{a}{b}} \end{bmatrix} \símbolo en negrita {ne} {mathfrak f \\ ~ izquierda (F\right) |etiqueta{08} {etiqueta{08} \fin {equation} Obsérvese también que si la transformación en la ecuación \eqref {05} es la transformación de identidad, $\,F\boldsymbol{=}I\,$ entonces estará representada por la matriz de identidad \begin{equation} \mathfrak f \left(F\right)\boldsymbol{=}\mathcal I\boldsymbol{=} \begin{bmatrix} \:\: 1\:\: & \:\: 0\:\:\vphantom{\dfrac{a}{b}}\\ \:\: 0\:\: & \:\: 1\:\:\vphantom{\dfrac{a}{b}} \end{bmatrix} \N - Etiqueta 09 \N - fin {equipamiento} mientras que esto no es válido si $\,F\boldsymbol{=}I\,$ en la ecuación \eqref {07}.

Damos ahora la siguiente definición :

Definición : Una base $\,\{\mathbf u^1,\mathbf u^2\}\,$ en $\,\mathbb R^2\,$ se llama recíproco a o doble de una base original dada $\,\{\mathbf u_1,\mathbf u_2\}\,$ en $\,\mathbb R^2\,$ si la transformación de identidad \begin{equation} \bigg(\mathbb R^2\boldsymbol{,}\{\mathbf u_1,\mathbf u_2\}\bigg) \stackrel{I}{\boldsymbol{-\!\!\!-\!\!\!-\!\!\!-\!\!\!-\!\!\!-\!\!\!-\!\!\!-\!\!\!-\!\!\!\rightarrow}}\bigg(\mathbb R^2\boldsymbol{,}\{\mathbf u^1,\mathbf u^2\}\bigg) \tag{10}\label{10} \end{equation} está representada por la matriz métrica $\,\mathfrak g \,$ inducido por la base original \begin{equation} \mathfrak g \boldsymbol{=}\{g_{ij}\}\boldsymbol{=} \begin{bmatrix} g_{11} & g_{12}\vphantom{\dfrac{a}{b}}\\ g_{21} & g_{22}\vphantom{\dfrac{a}{b}} \end{bmatrix}\boldsymbol{=} \begin{bmatrix} \:\Vert\mathbf u_1\Vert^2 & \langle\mathbf u_1,\mathbf u_2\rangle\vphantom{\dfrac{a}{b}}\\ \langle\mathbf u_2,\mathbf u_1\rangle & \:\Vert\mathbf u_2\Vert^2\vphantom{\dfrac{a}{b}} \end{bmatrix} \N - Etiqueta 11. \N - fin {equipamiento}

Un vector $\,\mathbf x\,$ expresado por componentes con respecto a la base original, véase la ecuación \eqref {01a}
\begin{equation} \mathbf x \boldsymbol{=} \mathrm x^1 \mathbf u_1 \boldsymbol{+} \mathrm x^2\mathbf u_2 \tag{12}\label{12} \end{equation} se expresaría con respecto a la base dual como \begin{equation} \mathbf x \boldsymbol{=} \mathrm x_1 \mathbf u^1 \boldsymbol{+} \mathrm x_2\mathbf u^2 \tag{13}\label{13} \end{equation} y como es este mismo vector en $\,\mathbb R^2\,$ \begin{equation} \mathrm x^1 \mathbf u_1 \boldsymbol{+} \mathrm x^2\mathbf u_2\boldsymbol{=} \mathbf x \boldsymbol{=} \mathrm x_1 \mathbf u^1 \boldsymbol{+} \mathrm x_2\mathbf u^2 \tag{14}\label{14} \end{equation}

Esencialmente tenemos aquí una transformación de coordenadas dada por \begin{equation} \begin{bmatrix} \mathrm x_1\vphantom{\dfrac{a}{b}}\\ \mathrm x_2\vphantom{\dfrac{a}{b}} \end{bmatrix} \N - Símbolo de negrita |mathfrak g \begin{bmatrix} \mathrm x^1\vphantom{\dfrac{a}{b}}\\ \mathrm x^2\vphantom{\dfrac{a}{b}} \end{bmatrix} \símbolo en negrita \begin{bmatrix} g_{11} & g_{12}\vphantom{\dfrac{a}{b}}\\ g_{21} & g_{22}\vphantom{\dfrac{a}{b}} \end{bmatrix} \begin{bmatrix} \mathrm x^1\vphantom{\dfrac{a}{b}}\\ \mathrm x^2\vphantom{\dfrac{a}{b}} \end{bmatrix} \N - etiqueta 15 \N - fin {equipamiento} o \begin{equation} \mathrm x_i\boldsymbol{=} g_{ij}\mathrm x^j \tag{16}\label{16} \end{equation} El producto interior de la ecuación \eqref {03} se expresa como \begin{equation} \mathrm x^i\mathrm y_i\boldsymbol{=}\langle\mathbf x,\mathbf y\rangle \boldsymbol{=}\mathrm x_j\mathrm y^j \tag{17}\label{17} \end{equation} ya que por un lado $\,g_{ij}\mathrm y^j\boldsymbol{=}\mathrm y_i\,$ y por otro lado, debido a la simetría de $\,\mathfrak g\,$ tenemos $\,g_{ij}\mathrm x^i\boldsymbol{=}g_{ji}\mathrm x^i\boldsymbol{=}\mathrm x_j\,$ .

Con respecto a la base original $\,\{\mathbf u_1,\mathbf u_2\}\,$ los componentes con índice superior $\,\mathrm x^k\,$ se llaman contravariante mientras que los componentes con el índice más bajo $\,\mathrm x_k\,$ se llaman covariante .

Vamos a determinar ahora la relación de la base dual $\,\{\mathbf u^1,\mathbf u^2\}\,$ al original $\,\{\mathbf u_1,\mathbf u_2\}\,$ y en base a esto proporcionaremos una construcción-representación geométrica.

Formalmente tenemos \begin{equation} \begin{bmatrix} \mathbf u_1\vphantom{\dfrac{a}{b}}\\ \mathbf u_2\vphantom{\dfrac{a}{b}} \end{bmatrix} \N - Símbolo en negrita ^mathfrak g^{\\boldsymbol{\top}} \begin{bmatrix} \mathbf u^1\vphantom{\dfrac{a}{b}}\\ \mathbf u^2\vphantom{\dfrac{a}{b}} \end{bmatrix} \stackrel{\mathfrak g^{\boldsymbol{\top}}\!\boldsymbol{=}\mathfrak g}{\boldsymbol{=\!=\!=}} |mathfrak g \begin{bmatrix} \mathbf u^1\vphantom{\dfrac{a}{b}}\\ \mathbf u^2\vphantom{\dfrac{a}{b}} \end{bmatrix} \N - Etiqueta 18. \N - fin {equipamiento} así que \begin{equation} \begin{bmatrix} \mathbf u^1\vphantom{\dfrac{a}{b}}\\ \mathbf u^2\vphantom{\dfrac{a}{b}} \end{bmatrix} \símbolo en negrita \^mathfrak g^{\boldsymbol{-}1} \begin{bmatrix} \mathbf u_1\vphantom{\dfrac{a}{b}}\\ \mathbf u_2\vphantom{\dfrac{a}{b}} \end{bmatrix} \N - Etiqueta 19. \N - fin {equipamiento} De la ecuación \eqref {11} tenemos \begin{equation} \mathfrak g^{\boldsymbol{-}1} \boldsymbol{=} \dfrac{1}{\vert\mathfrak g\vert} \begin{bmatrix} \hphantom{\boldsymbol{-}}g_{22} & \boldsymbol{-}g_{12}\vphantom{\dfrac{a}{b}}\\ \boldsymbol{-}g_{21} & \hphantom{\boldsymbol{-}}g_{11}\vphantom{\dfrac{a}{b}} \end{bmatrix}\boldsymbol{=} \dfrac{1}{\Vert\mathbf u_1\boldsymbol{\times}\mathbf u_2\Vert^2} \begin{bmatrix} \hphantom{\boldsymbol{-}} \:\Vert\mathbf u_2\Vert^2 & \boldsymbol{-}\langle\mathbf u_1,\mathbf u_2\rangle\vphantom{\dfrac{a}{b}}\\ \boldsymbol{-} \langle\mathbf u_2,\mathbf u_1\rangle & \hphantom{\boldsymbol{-}}\:\Vert\mathbf u_1\Vert^2\vphantom{\dfrac{a}{b}} \end{bmatrix} \{20}etiqueta{20} \N - fin {equipamiento} donde \begin{equation} \vert\mathfrak g\vert\boldsymbol{=}\det{\mathfrak g} \boldsymbol{=}g_{11}g_{22}\boldsymbol{-}g_{21}g_{12}\boldsymbol{=}\Vert\mathbf u_1\Vert^2\Vert\mathbf u_2\Vert^2\boldsymbol{-} \vert\langle\mathbf u_1,\mathbf u_2\rangle\vert^2\boldsymbol{=}\Vert\mathbf u_1\boldsymbol{\times}\mathbf u_2\Vert^2 \tag{21}\label{21} \end{equation} De las ecuaciones \eqref {19}, \eqref {20} \begin{align} \mathbf u^1 & \boldsymbol{=} \hphantom{\boldsymbol{-}}\left(\dfrac{\Vert\mathbf u_2\Vert^2}{\Vert\mathbf u_1\boldsymbol{\times}\mathbf u_2\Vert^2}\right) \mathbf u_1 \boldsymbol{-} \left(\dfrac{\langle\mathbf u_1,\mathbf u_2\rangle}{\Vert\mathbf u_1\boldsymbol{\times}\mathbf u_2\Vert^2}\right)\mathbf u_2 \tag{22a}\label{22a}\\ \mathbf u^2 & \boldsymbol{=} \boldsymbol{-} \left(\dfrac{\langle\mathbf u_2,\mathbf u_1\rangle}{\Vert\mathbf u_1\boldsymbol{\times}\mathbf u_2\Vert^2}\right) \mathbf u_1 \boldsymbol{+} \left(\dfrac{\Vert\mathbf u_1\Vert^2}{\Vert\mathbf u_1\boldsymbol{\times}\mathbf u_2\Vert^2}\right)\mathbf u_2 \tag{22b}\label{22b} \end{align} Estas expresiones tienen la forma \begin{align} \mathbf u^1 & \boldsymbol{=} \dfrac{\Vert\mathbf u_2\Vert^2}{\Vert\mathbf u_1\boldsymbol{\times}\mathbf u_2\Vert^2}\Biggl(\mathbf u_1 \boldsymbol{-}\bigg\langle\mathbf u_1, \dfrac{\mathbf u_2}{\Vert\mathbf u_2\Vert}\bigg\rangle \dfrac{\mathbf u_2}{\Vert\mathbf u_2\Vert}\Biggr) \tag{23a}\label{23a}\\ \mathbf u^2 & \boldsymbol{=} \dfrac{\Vert\mathbf u_1\Vert^2}{\Vert\mathbf u_1\boldsymbol{\times}\mathbf u_2\Vert^2}\Biggl(\mathbf u_2 \boldsymbol{-}\bigg\langle\mathbf u_2, \dfrac{\mathbf u_1}{\Vert\mathbf u_1\Vert}\bigg\rangle \dfrac{\mathbf u_1}{\Vert\mathbf u_1\Vert}\Biggr) \tag{23b}\label{23b} \end{align} Tenga en cuenta que \begin{align} \bigg\langle\mathbf u_1, \dfrac{\mathbf u_2}{\Vert\mathbf u_2\Vert}\bigg\rangle \dfrac{\mathbf u_2}{\Vert\mathbf u_2\Vert} & \boldsymbol{=}\bigl(\mathbf u_{1}\bigr)_{\boldsymbol{||}\mathbf u_2} \boldsymbol{=}\bigl[\texttt{vectorial projection of } \mathbf u_1 \texttt{ on } \mathbf u_2\bigr] \tag{24a}\label{24a}\\ \bigg\langle\mathbf u_2, \dfrac{\mathbf u_1}{\Vert\mathbf u_1\Vert}\bigg\rangle \dfrac{\mathbf u_1}{\Vert\mathbf u_1\Vert}& \boldsymbol{=} \bigl(\mathbf u_{2}\bigr)_{\boldsymbol{||}\mathbf u_1} \boldsymbol{=}\bigl[\texttt{vectorial projection of } \mathbf u_2 \texttt{ on } \mathbf u_1\bigr] \tag{24b}\label{24b} \end{align} así que

\begin{align} \mathbf u_1 & \boldsymbol{-}\bigg\langle\mathbf u_1, \dfrac{\mathbf u_2}{\Vert\mathbf u_2\Vert}\bigg\rangle \dfrac{\mathbf u_2}{\Vert\mathbf u_2\Vert} \boldsymbol{=}\left(\dfrac{\mathbf u_2}{\Vert\mathbf u_2\Vert}\boldsymbol{\times}\mathbf u_1\right) \boldsymbol{\times}\dfrac{\mathbf u_2}{\Vert\mathbf u_2\Vert} \boldsymbol{=}\bigl(\mathbf u_{1}\bigr)_{\boldsymbol{\perp}\mathbf u_2} \nonumber\\ & \boldsymbol{=}\bigl[\texttt{vectorial projection of } \mathbf u_1 \texttt{ on direction normal to } \mathbf u_2 \bigr] \tag{25a}\label{25a}\\ \mathbf u_2 & \boldsymbol{-}\bigg\langle\mathbf u_2, \dfrac{\mathbf u_1}{\Vert\mathbf u_1\Vert}\bigg\rangle \dfrac{\mathbf u_1}{\Vert\mathbf u_1\Vert} \boldsymbol{=}\left(\dfrac{\mathbf u_1}{\Vert\mathbf u_1\Vert}\boldsymbol{\times}\mathbf u_2\right) \boldsymbol{\times}\dfrac{\mathbf u_1}{\Vert\mathbf u_1\Vert}\boldsymbol{=}\bigl(\mathbf u_{2}\bigr)_{\boldsymbol{\perp}\mathbf u_1} \nonumber\\ & \boldsymbol{=}\bigl[\texttt{vectorial projection of } \mathbf u_2 \texttt{ on direction normal to } \mathbf u_1 \bigr] \tag{25b}\label{25b} \end{align} y ecuaciones \eqref {23a}, \eqref {23b} rendimiento \begin{align} \mathbf u^1 & \boldsymbol{=} \dfrac{\Vert\mathbf u_2\Vert^2}{\Vert\mathbf u_1\boldsymbol{\times}\mathbf u_2\Vert^2}\bigl(\mathbf u_{1}\bigr)_{\boldsymbol{\perp}\mathbf u_2} \tag{26a}\label{26a}\\ \mathbf u^2 & \boldsymbol{=} \dfrac{\Vert\mathbf u_1\Vert^2}{\Vert\mathbf u_1\boldsymbol{\times}\mathbf u_2\Vert^2}\bigl(\mathbf u_{2}\bigr)_{\boldsymbol{\perp}\mathbf u_1} \tag{26b}\label{26b} \end{align} Tenga en cuenta que si $\,\phi_{12}\in[0,\pi]\,$ es el ángulo entre los vectores de la base original $\,\{\mathbf u_1,\mathbf u_2\}\,$ entonces \begin{align} \left\Vert\bigl(\mathbf u_{1}\bigr)_{\boldsymbol{\perp}\mathbf u_2} \right\Vert & \boldsymbol{=} \Vert\mathbf u_1\Vert\sin\phi_{12}\boldsymbol{=}h_1\,,\qquad \dfrac{\Vert\mathbf u_2\Vert^2}{\Vert\mathbf u_1\boldsymbol{\times}\mathbf u_2\Vert^2}\boldsymbol{=}\dfrac{1}{ \Vert\mathbf u_1\Vert^2\sin\phi^2_{12}}\boldsymbol{=}\dfrac{1}{h^2_1} \tag{27a}\label{27a}\\ \left\Vert\bigl(\mathbf u_{2}\bigr)_{\boldsymbol{\perp}\mathbf u_1} \right\Vert & \boldsymbol{=} \Vert\mathbf u_2\Vert\sin\phi_{12}\boldsymbol{=}h_2\,,\qquad \dfrac{\Vert\mathbf u_1\Vert^2}{\Vert\mathbf u_1\boldsymbol{\times}\mathbf u_2\Vert^2}\boldsymbol{=}\dfrac{1}{ \Vert\mathbf u_2\Vert^2\sin\phi^2_{12}}\boldsymbol{=}\dfrac{1}{h^2_2} \tag{27b}\label{27b} \end{align} donde $\,h_1,h_2\,$ las alturas del paralelogramo formado por los vectores de la base original $\,\{\mathbf u_1,\mathbf u_2\}$ . Desde \eqref {26a}- \eqref {27a} y \eqref {26b}- \eqref {27b} tenemos respectivamente \begin{equation} \Vert\mathbf u^1 \Vert \boldsymbol{=} \dfrac{1}{h_1}\,,\qquad \Vert\mathbf u^2 \Vert \boldsymbol{=} \dfrac{1}{h_2} \tag{28}\label{28} \end{equation} Finalmente

Los vectores $\,\mathbf u^1,\mathbf u^2\,$ de la base dual son ortogonales a los vectores $\,\mathbf u_2,\mathbf u_1\,$ de la base original respectivamente con magnitudes la inversa de las alturas $\,h_1,h_2\,$ del paralelogramo formado por los vectores de la base original $\,\{\mathbf u_1,\mathbf u_2\}\,$ respectivamente.

enter image description here

A partir del análisis anterior y de la Figura-01

Los vectores $\,\mathbf u_1,\mathbf u_2\,$ de la base original son ortogonales a los vectores $\,\mathbf u^2,\mathbf u^1\,$ de la base dual respectivamente con magnitudes la inversa de las alturas $\,h^1,h^2\,$ del paralelogramo formado por los vectores de la base dual $\,\{\mathbf u^1,\mathbf u^2\}\,$ respectivamente.

La base original $\,\{\mathbf u_1,\mathbf u_2\}\,$ es el dual de su dual $\,\{\mathbf u^1,\mathbf u^2\}$ .

enter image description here

En la Figura-02 vemos la construcción geométrica del vector dual $\,\mathbf u^1\,$ del original $\,\mathbf u_1\,$ uno. Esta figura funciona también a la inversa: como la base original es el dual de su dual, vemos la construcción geométrica del vector original $\,\mathbf u_1\,$ del doble $\,\mathbf u^1\,$ uno.

enter image description here

En la Figura-03 vemos el análisis de un vector $\,\mathbf x\,$ en componentes con respecto a la base original (contravariante) y con respecto a la base dual (covariante).

enter image description here

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X