Contravariante vectores son "estándar" de los vectores. Covariante vectores son aplicaciones lineales en contavariant vectores de la producción de escalares.
Comencemos forma que el caso anterior. Si corrige un par de bases de {ei}i=1,…,n {e′i}i=1,…,n en lo finito dimensional espacio vectorial V con dimensión n, de tal manera que ei=∑jAjie′j para el conjunto de los coeficientes de Aji la formación de un (necesariamente) no singular de la matriz A, usted tiene para un vector dado v∈V:
v=∑iviei=∑jv′je′j
y thuso
∑ivi∑jAjie′j=∑jv′je′j
así que:
∑j(∑iAjivi)e′j=∑jv′je′j.
La singularidad de los componentes de la v respecto al {e′i}i=1,…,n eventualmente conlleva:
v′j=∑iAjiviwhereei=∑jAjie′j
Esto no es nada, pero el estándar de la regla para la transformación de los componentes de un determinado contravariante vector cuando uno de los cambios de la descomposición.
Pasemos a considerar covariante vectores. Como he dicho anteriormente, un vector covariante es nada pero un lineal mapa ω:V→R (R puede ser sustituido por C si se trata de complejos espacios vectoriales o el correspondiente anillo al considerar los módulos). Uno fácilmente se demuestra que el conjunto de bienes valorados aplicaciones lineales como en el anterior forman un espacio vectorial, V∗, el llamado espacio dual de V. Si {ei}i=1,…,n es una base de V, es asociada a una base {e∗i}i=1,…,n of V∗, la doble base, definidos en los requisitos (además de la linealidad):
e∗k(ei)=δki
Por lo tanto, un vector covariante ω∈V∗ todos los días puede descomponerse como sigue:
ω=∑kωke∗k
y, usando la linealidad, (2), y
v=∑iviei uno ve que
ω(v)=∑kωkvk.
El RHS doe no dependen de la elección de la base {ei}i=1,…,n y la correspondiente a{e∗i}i=1,…,n, incluso si los componentes de covariante y contravariante vectores ω v dependen de las bases. Obviamente, el cambio de la base en V y pasando a {e′i}i=1,…,n relacionado a {ei}i=1,…,n a través de (1), {e′i}i=1,…,n resulta corresponden a una base dual {e′∗i}i=1,…,n. Un sencillo cálculo basado en (2) muestra que
e∗i=∑jBjie′∗j
donde B=(AT)−1.
En consecuencia, para un vector covariante
ω=∑iωie∗i=∑jω′je′∗j donde
ω′j=∑jBjiωi.
Esta relación, junto con (3) no es sino la regla estándar para la transformación de los componentes de un determinado covariante vector cuando uno de los cambios de la descomposición.
Esta estructura rara vez aparece el trato con la física clásica, donde por lo general uno trata con ortonormales. La razón es que al cambiar de base y pasando a otro ortonormales base, la matriz de A asociando las bases es ortogonal en la del grupo, de manera que:
B=(AT)−1=A.
y uno no puede distinguir, de trabajo en componentes, entre covariante y contravariante de vectores, ya que la anterior en (1) y (4) son, de hecho, idénticos. Por ejemplo, para un fijo de la fuerza de F que se aplica a un punto con una velocidad de v, la lineal mapa asociando la fuerza con su potencia como una función de v define un vector covariante que nos podría indicar por "F\cdot"
\pi^{(F)}: v \mapsto F\cdot v
donde \cdot denota el producto escalar estándar en la distancia Euclídea resto del espacio de un marco de referencia.
Si el (real finito dimensionales!) espacio vectorial V está equipada con una, por lo general, indefinida, producto escalar, que es un no-degenerada simétrica bi-lineal mapa de g : V \times V \to R, natural de la identificación de V V^* surge. No es nada, pero el lineal y bijective mapa asociando contravariante vectores covariantes vectores:
V \ni v \mapsto g(v, \:\:)\in V^*
Donde, obviamente g(v, \:\:) : V \ni u \mapsto g(v, u)\in R resulta ser lineal y por lo tanto definir un elemento de V^* como se dijo.
En los componentes, si u= \sum_i u^i e_is= \sum_i s^i e_i, uno tiene a la vista de la bilinearity propiedad cumplido por g:
g(u,s) = \sum_{i,j} g_{ij} u^is^j\qquad \mbox{where}\quad g_{ij} := g(e_i,e_j)\:.
La matriz de elementos de g_{ij} es simétrica y no singular (como g es simétrica y no degenerada). Con esta definición, se ve que, si u\in V es un vector contravariante, el asociado covariante una g(u,\:\:)\in V^* componentes:
g(u, \:\:\:)_k= \sum_ig_{ki}u^i
así que, el producto escalar g(u,v) u v también puede ser escrita:
g(u,v)= \sum_{ij} g_{ij}u^iv^j = \sum_i v_i u^i\:.
Finalmente, el cambio de la base de que uno tiene que:
g(u,s) = \sum_{i,j} g'_{lm} u'^ls'^m\qquad \mbox{where}\quad g'_{lm} := g(e'_l,e'_m)\:,
y
g'_{lm} = \sum_{ij}{B_l}^i {B_m}^j g_{il}\:.