Solo quiero señalar que GA se puede usar para hacer multivectores covariantes (o formas diferenciales) en Rn sin forzarle una métrica. En otras palabras, se puede mantener la distinción entre vectores y covectores (o entre Rn y su dual).
Esto se hace con un espacio pseudo-euclidiano Rn,n.
Tomemos un conjunto ortonormal de vectores espaciales {σi} (que cuadran a +1) y vectores temporales {τi} (que cuadran a −1). Definimos los vectores nulos
{νi=σi+τi√2}
$$\Big\{\mu_i=\frac{\sigma_i-\tau_i}{\sqrt2}\Big\};
son nulos porque
νi2=σi2+2σi⋅τi+τi22=(1)+2(0)+(−1)2=0
μi2=σi2−2σi⋅τi+τi22=(1)−2(0)+(−1)2=0.
Más generalmente,
νi⋅νj=σi⋅σj+σi⋅τj+τi⋅σj+τi⋅τj2=(δi,j)+0+0+(−δi,j)2=0
y
$$\mu_i\cdot\mu_j=0.
Entonces, los espacios generados por {νi} o {μi} tienen formas cuadráticas degeneradas. Pero el producto punto entre ellos no es degenerado:
νi⋅μi=σi⋅σi−σi⋅τi+τi⋅σi−τi⋅τi2=(1)−0+0−(−1)2=1
νi⋅μj=σi⋅σj−σi⋅τj+τi⋅σj−τi⋅τj2=(δi,j)−0+0−(−δi,j)2=δi,j
Por supuesto, podríamos haber comenzado directamente con la definición de que μi⋅νj=δi,j=νi⋅μj, y νi⋅νj=0=μi⋅μj, en lugar de pasar por "el espacio tiempo".
El espacio V será generado por {νi}, y su dual V∗ por {μi=νi}. Puedes tomar el producto punto de algo en V∗ con algo en V, lo cual será una forma diferencial 1. Puedes hacer multivectores contravariantes a partir de productos externos de cosas en V, y multivectores covariantes a partir de productos externos de cosas en V∗.
También puedes tomar el producto externo de algo en V∗ con algo en V.
μi∧νi=σi∧σi+σi∧τi−τi∧σi−τi∧τi2=0+σiτi−τiσi−02=σi∧τi
μi∧νj=σiσj+σiτj−τiσj−τiτj2,i≠j
¿Qué significa esto? ¡Supongo que podría ser una matriz (un tensor de varianza mixta)!
Una matriz se puede definir como un bivector:
M=∑i,jMijνi∧μj=∑i,jMijνi∧νj
donde cada Mij es un escalar. Nota que (νi∧μj)≠−(νj∧μi), entonces M no es necesariamente antisimétrica. La función lineal correspondiente f:V→V es (con ⋅ es el "gordo producto punto")
f(x)=M⋅x=Mx−xM2
=∑i,jMij(νi∧μj)⋅∑kxkνk
=∑i,j,kMijxkνiμj−μjνi2⋅νk
=∑i,j,kMijxk(νiμj)νk−νk(νiμj)−(μjνi)νk+νk(μjνi)4
(las ν anticonmutan porque su producto punto es cero:)
=∑i,j,kMijxkνiμjνk+νiνkμj+μjνkνi+νkμjνi4
=∑i,j,kMijxkνi(μjνk+νkμj)+(μjνk+νkμj)νi4
=∑i,j,kMijxkνi(μj⋅νk)+(μj⋅νk)νi2
=∑i,j,kMijxkνi(δj,k)+(δj,k)νi2
=∑i,j,kMijxk(δj,kνi)
=∑i,jMijxjνi
Esto coincide con la definición convencional de la multiplicación de matrices.
De hecho, incluso funciona para matrices no cuadradas; los cálculos anteriores funcionan igual si los νi de la izquierda en M son vectores base para un espacio diferente. Una ventaja es que también funciona para una forma cuadrática no degenerada; los cálculos no se basan en μi2=0, ni en νi2=0, sino solo en νi siendo ortogonal a νk, y μj siendo recíproco a νk. Por lo tanto, en su lugar podrías tener a μj (los factores derechos en M) en el mismo espacio que νk (los generadores de x), y a νi (los factores izquierdos en M) en un espacio diferente. Pero el inconveniente es que no mapeará a un espacio no degenerado a él mismo.
Admito que esto es peor que el álgebra de matrices estándar; el producto punto no es invertible, ni asociativo. Aún así, es bueno tener esta conexión entre las diferentes álgebras. Y es interesante pensar en una matriz como un bivector que "rota" un vector a través del espacio dual y de vuelta a un punto diferente en el espacio original (o un nuevo espacio).
Hablando de transformaciones de matrices, debería discutir el principio subyacente de la "contra/co varianza": que los vectores base pueden variar.
Queremos poder tomar cualquier transformación lineal (invertible) del espacio nulo V, y esperar que la transformación opuesta se aplique a V∗. Las transformaciones lineales arbitrarias del espacio externo Rn,n no preservarán V; los νi transformados pueden no ser nulos. Basta con considerar transformaciones que preserven el producto punto en Rn,n. Un tipo obvio es la rotación hiperbólica
σ1↦σ1coshϕ+τ1sinhϕ=σ1′
τ1↦σ1sinhϕ+τ1coshϕ=τ1′
σ2=σ2′,σ3=σ3′,⋯
τ2=τ2′,τ3=τ3′,⋯
(o, más compactamente, x↦exp(−σ1τ1ϕ/2)xexp(σ1τ1ϕ/2) ).
La transformación inducida de los vectores nulos es
ν1′=σ1′+τ1′√2=exp(ϕ)ν1
μ1′=σ1′−τ1′√2=exp(−ϕ)μ1
ν2′=ν2,ν3′=ν3,⋯
μ2′=μ2,μ3′=μ3,⋯
El vector ν1 es multiplicado por algún número positivo eϕ, y el covector μ1 es dividido por el mismo número. El producto punto todavía es μ1′⋅ν1′=1.
Puedes obtener un multiplicador negativo para ν1 simplemente con la inversión σ1↦−σ1,τ1↦−τ1; esto también negará a μ1. El resultado es que puedes multiplicar ν1 por cualquier número Real no nulo, y μ1 será dividido por el mismo número.
Por supuesto, esto solo varía un vector base en una dirección. Podrías intentar rotar los vectores, pero una rotación simple en un plano σiσj mezclará V y V∗ juntos. Este problema se resuelve mediante una rotación isoclínica en σiσj y τiτj, que causa la misma rotación en νiνj y μiμj (manteniéndolos separados).
Combina estos estiramientos, reflexiones y rotaciones, y puedes generar cualquier transformación lineal invertible en V, todo mientras se mantiene la degeneración νi2=0 y la dualidad μi⋅νj=δi,j. Esto muestra que V y V∗ tienen la "varianza" correcta.
Ver también el Tutorial de Hestenes, página 5 ("Formas cuadráticas vs contracciones").
1 votos
Creo que tu pregunta es difícil de responder porque hay una mezcla de diferentes conceptos. Creo que la idea debería ser que el álgebra exterior se genera sobre un espacio vectorial, pero las formas diferenciales pueden entenderse como mapas de elementos del álgebra exterior (generados en el espacio tangente) al campo base.
1 votos
Técnicamente, la representación de coordenadas de una forma bilineal es una matriz de 1×n2, dividida en bloques de 1×n de dimensión 1×n cada uno. Es simplemente tradicional aplicar el producto interno para transponer un índice y trabajar con la transformación lineal resultante en su lugar.