Loading [MathJax]/jax/element/mml/optable/BasicLatin.js

8 votos

Entender la diferencia entre vectores co - y contra-variante

Estoy mirando el 4-vector tratamiento de la relatividad especial, pero yo no he tenido ningún entrenamiento formal en el Tensor de álgebra y por lo tanto estoy teniendo dificultades para entender algunos de los conceptos que aparecen.

Uno de dichos conceptos es la noción de contra - y co-variante de vectores. Wikipedia describe un contra-variante de vector como variables con las coordenadas, es decir, la inversa de los ejes de referencia. Se da el ejemplo de una matriz de cambio de base M, y un contra-variante de vectores v y dice que en el nuevo conjunto de coordenadas, tenemos:

v=Mv

Luego se dice que un vector covariante varía con el conjunto de coordenadas de los ejes.

Esto significa que para un vector covariante u y la matriz de cambio de base M tenemos: u=M1u?

También estoy teniendo problemas para entender el concepto de levantar y bajar los índices. Por ejemplo, en Wikipedia se afirma que para dos de cuatro vectores A,B y el uso de sumación de Einstein, tenemos:

A|B=AμBμ=AνBν

Y estoy teniendo dificultades para entender cómo esto se relaciona con la otra definición del producto interior:

A|B=ATηB

Si alguien pudiera ayudar a darme una comprensión más intuitiva de estos conceptos le estaría agradecido.

10voto

Sandeep Puntos 111

Contravariante vectores son "estándar" de los vectores. Covariante vectores son aplicaciones lineales en contavariant vectores de la producción de escalares.

Comencemos forma que el caso anterior. Si corrige un par de bases de {ei}i=1,,n {ei}i=1,,n en lo finito dimensional espacio vectorial V con dimensión n, de tal manera que ei=jAjiej para el conjunto de los coeficientes de Aji la formación de un (necesariamente) no singular de la matriz A, usted tiene para un vector dado vV: v=iviei=jvjej y thuso ivijAjiej=jvjej así que: j(iAjivi)ej=jvjej. La singularidad de los componentes de la v respecto al {ei}i=1,,n eventualmente conlleva: vj=iAjiviwhereei=jAjiej Esto no es nada, pero el estándar de la regla para la transformación de los componentes de un determinado contravariante vector cuando uno de los cambios de la descomposición.

Pasemos a considerar covariante vectores. Como he dicho anteriormente, un vector covariante es nada pero un lineal mapa ω:VR (R puede ser sustituido por C si se trata de complejos espacios vectoriales o el correspondiente anillo al considerar los módulos). Uno fácilmente se demuestra que el conjunto de bienes valorados aplicaciones lineales como en el anterior forman un espacio vectorial, V, el llamado espacio dual de V. Si {ei}i=1,,n es una base de V, es asociada a una base {ei}i=1,,n of V, la doble base, definidos en los requisitos (además de la linealidad): ek(ei)=δki Por lo tanto, un vector covariante ωV todos los días puede descomponerse como sigue: ω=kωkek y, usando la linealidad, (2), y v=iviei uno ve que ω(v)=kωkvk. El RHS doe no dependen de la elección de la base {ei}i=1,,n y la correspondiente a{ei}i=1,,n, incluso si los componentes de covariante y contravariante vectores ω v dependen de las bases. Obviamente, el cambio de la base en V y pasando a {ei}i=1,,n relacionado a {ei}i=1,,n a través de (1), {ei}i=1,,n resulta corresponden a una base dual {ei}i=1,,n. Un sencillo cálculo basado en (2) muestra que ei=jBjiej donde B=(AT)1. En consecuencia, para un vector covariante ω=iωiei=jωjej donde ωj=jBjiωi. Esta relación, junto con (3) no es sino la regla estándar para la transformación de los componentes de un determinado covariante vector cuando uno de los cambios de la descomposición.

Esta estructura rara vez aparece el trato con la física clásica, donde por lo general uno trata con ortonormales. La razón es que al cambiar de base y pasando a otro ortonormales base, la matriz de A asociando las bases es ortogonal en la del grupo, de manera que: B=(AT)1=A. y uno no puede distinguir, de trabajo en componentes, entre covariante y contravariante de vectores, ya que la anterior en (1) y (4) son, de hecho, idénticos. Por ejemplo, para un fijo de la fuerza de F que se aplica a un punto con una velocidad de v, la lineal mapa asociando la fuerza con su potencia como una función de v define un vector covariante que nos podría indicar por "F\cdot" \pi^{(F)}: v \mapsto F\cdot v donde \cdot denota el producto escalar estándar en la distancia Euclídea resto del espacio de un marco de referencia.

Si el (real finito dimensionales!) espacio vectorial V está equipada con una, por lo general, indefinida, producto escalar, que es un no-degenerada simétrica bi-lineal mapa de g : V \times V \to R, natural de la identificación de V V^* surge. No es nada, pero el lineal y bijective mapa asociando contravariante vectores covariantes vectores: V \ni v \mapsto g(v, \:\:)\in V^* Donde, obviamente g(v, \:\:) : V \ni u \mapsto g(v, u)\in R resulta ser lineal y por lo tanto definir un elemento de V^* como se dijo. En los componentes, si u= \sum_i u^i e_is= \sum_i s^i e_i, uno tiene a la vista de la bilinearity propiedad cumplido por g: g(u,s) = \sum_{i,j} g_{ij} u^is^j\qquad \mbox{where}\quad g_{ij} := g(e_i,e_j)\:. La matriz de elementos de g_{ij} es simétrica y no singular (como g es simétrica y no degenerada). Con esta definición, se ve que, si u\in V es un vector contravariante, el asociado covariante una g(u,\:\:)\in V^* componentes: g(u, \:\:\:)_k= \sum_ig_{ki}u^i así que, el producto escalar g(u,v) u v también puede ser escrita: g(u,v)= \sum_{ij} g_{ij}u^iv^j = \sum_i v_i u^i\:.

Finalmente, el cambio de la base de que uno tiene que: g(u,s) = \sum_{i,j} g'_{lm} u'^ls'^m\qquad \mbox{where}\quad g'_{lm} := g(e'_l,e'_m)\:, y g'_{lm} = \sum_{ij}{B_l}^i {B_m}^j g_{il}\:.

0voto

Bill Puntos 11

Covariante y contravariante de los vectores pueden ser considerados como diferentes sabores de los vectores en la física. La mayoría de los vectores que se producen en la costumbre de la física clásica como la posición, la velocidad, etc. son contravariante, mientras que el gradiente de operador(que es sorprendentemente vector; ver que la mayoría de los vectores de identidades) es un vector covariante. Para ser matemáticamente mucho más riguroso, que forma dual espacios de cada uno de los demás, al igual que el sujetador y ket espacios en la Mecánica Cuántica.

Para obtener un entendimiento formal de cómo covarianza y contravarianza diferentes, usted debe ver cómo los correspondientes vectores de cambio cuando se someten a transformaciones. Véase, por ejemplo : http://en.wikipedia.org/wiki/Covariance_and_contravariance_of_vectors Leer la definición de la sección cuidadosamente. Como un ejemplo muy básico, el vector covariante de un vector columna es un vector fila. Para un número complejo, una definición similar de los rendimientos de su conjugado.

Cuando se trata del interior de los productos, que generalmente depende de lo que el espacio que está trabajando. Si es que las matrices, entonces el interior del producto se define de una manera. Si usted está trabajando en un Espacio de Hilbert, el interior del producto se define como una integral de la bra y ket vector en todo el espacio.

En la relatividad especial, el producto interior es generalmente definido en base a la métrica. \left\langle \vec{A} \mid\vec{B} \right\rangle=\eta_{{\mu\nu}}A^{\mu}B^{\nu}

Esto puede ser visto como la multiplicación de la matriz \eta con las matrices A,B.

La métrica también es útil en la subida y bajada de las matrices.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X