94 votos

¿Qué es un covector y para qué se utiliza?

Por lo que entiendo, un covector es un objeto que toma un vector y devuelve un número. Así que dado un vector $v \in V$ y un covector $\phi \in V^*$, puedes actuar sobre $v$ con $\phi$ para obtener un número real $\phi(v)$. ¿Es eso todo o hay más acerca de esto?

Encuentro esta simple comprensión difícil de conciliar con un ejemplo dado en mi libro de texto: "Geometric Measure Theory" por Frank Morgan, donde explica que dado $\mathbb{R}^n$, el espacio dual $\mathbb{R}^{n*}$ tiene como base a $dx_1, dx_2 \dots$. Así que digamos que estamos en $\mathbb{R}^2$, entonces $dx$ es una función sobre cualquier vector, ¿que devolverá un escalar? No puedo imaginar qué es $dx([1,2])$. ¿Alguien puede explicarme este concepto de covectores reconciliado con el caso infinitesimal?

Editar: ¿Tiene algo que ver con la biortogonalidad? Estoy realmente desconcertado con estos conceptos, como si estuviera golpeando mi cabeza contra una pared.

32 votos

Lo que siempre me resultó más confuso es el paso entre la situación de álgebra lineal y la situación infinitesimal. Si tenemos una base $\{x_1, \ldots, x_n\}$ para un espacio vectorial $V$, entonces la base dual $\{dx_1, \ldots, dx_n\}$ de $V^*$ se determina por $dx_i(a_1x_1 + \cdots + a_nx_n) = a_i$. Por supuesto, esta notación $dx_i$ es bastante desafortunada. De hecho, más o menos toda mi confusión en geometría diferencial (al menos hasta donde llegué) ha surgido de una mala notación.

5 votos

Sí, creo que la mayoría de mi malentendido surgió del hecho de que estaba interpretando $dx$ como una "longitud" en lugar de una función.

2 votos

Cuando dices que no puedes imaginar qué es $dx([1,2])$ ... ¿estás utilizando la notación $[1,2]$ para referirte a un vector en $\mathbb{R}^2$ con coordenadas $(1, 2)$? Eso sería bastante no estándar, así que pregunto solo para aclarar.

114voto

TVK Puntos 131

Adición : en una nueva respuesta He continuado brevemente la explicación a continuación para definir los tensores generales y no sólo las formas diferenciales (tensores covariantes).

Muchos de nosotros nos confundimos con las nociones de los tensores en la geometría diferencial, no por su estructura algebraica o definición, sino por la confusa notación antigua. La motivación de la notación $dx_i$ está perfectamente justificado una vez que uno se introduce en la diferenciación exterior de las formas diferenciales, que no son más que covectores multilineales antisimétricos (es decir, tomar un número de vectores y dar un número, cambiando de signo si reordenamos sus vectores de entrada). La confusión en tu caso es mayor porque estás usando $x_i$ para su base de vectores, y $x_i$ son en realidad sus funciones de coordenadas locales.

CONSTRUCCIÓN Y NOTACIÓN:

Dejemos que $V$ sea un espacio vectorial finito sobre un campo $\mathbb{k}$ con base $\vec{e}_1,...,\vec{e}_n$ , dejemos que $V^*:=\operatorname{Hom}(V, \mathbb{k})$ sea su espacio vectorial dual es decir, el espacio lineal formado por los funcionales lineales $\tilde\omega: V\rightarrow\mathbb{k}$ que comen vectores y dan escalares. Ahora el producto tensorial $\bigotimes_{i=1}^p V^*=:(V^*)^{\otimes p}$ es sólo el espacio vectorial de las funciones multilineales $\tilde\omega^{(p)}:V^k\rightarrow\mathbb{k}$ Por ejemplo $\tilde\omega (\vec v_1,...,\vec v_k)$ es escalar y lineal en sus vectores de entrada. En alternando esos espacios, se obtienen las funciones multilineales antes mencionadas, que satisfacen $\omega (\vec v_1,...,\vec v_k)=\operatorname{sgn}(\pi)\cdot \omega (\vec v_{\pi(1)},...,\vec v_{\pi(k)})$ para cualquier permutación del $k$ entradas. El ejemplo más sencillo es pensar en vectores fila y matrices: si tus vectores son columnas, piensa que los covectores son vectores fila que por producto matricial te dan un escalar (¡en realidad su típico producto escalar!), se llaman formas únicas; de forma similar cualquier matriz multiplicada por un vector columna a la derecha y por un vector fila a la izquierda te da un escalar. Una matriz antisimétrica funcionaría de forma similar pero con la propiedad de alternancia, y se llama una dos-forma. Esto se generaliza para entradas de cualquier $k$ vectores.

Ahora, curiosamente, sólo hay un número finito de esos espacios alternativos : $$\mathbb{k}\cong V^0, V^*, (V^*)^{\wedge 2}:=V^*\wedge V^*,..., (V^*)^{\wedge \dim V}.$$ Si considera que su $V$ -base para ser $\vec{e}_1,...,\vec{e}_n$ por construcción su espacio dual de covectores tiene una base de la misma dimensión dada por las formas lineales $\tilde e^1,...,\tilde e^n$ que satisfacen $\tilde e^i (\vec e_k)=\delta^i_k$ es decir, son los funcionales que dan $1$ sólo sobre sus vectores duales y $0$ en el resto (los covectores suelen estar indexados por superíndices para utilizar el Convención de suma de Einstein ). Por ello, cualquier covector que actúe sobre un vector $\vec v=\sum_i v^i\vec e_i$ se puede escribir $$\tilde\omega =\sum_{i=1}^n \omega_i\tilde e^i\Rightarrow \tilde\omega(\vec v) =\sum_{i=1}^n \omega_i\tilde e^i(\vec v)=\sum_{i=1}^n \omega_i\cdot v^i.$$

Finalmente, cuando se trabaja en colectores diferenciales, se dota a cada punto $p$ con un espacio tangente $T_p M$ de vectores tangentes y así se obtiene un espacio dual $T_p^* M$ de covectores y su espacio alterno $\Omega_p^1(M)$ de alternancia 1 forma (que en este caso coinciden). De forma análoga, se define el $k$ -sobre los vectores tangentes que definen $\Omega_p^k(M)$ . Como estos espacios dependen de un punto a otro, se empieza a hablar de campos de vectores tangentes y campos de diferencial $k$ -forma que varían en componentes (con respecto a su campo base elegido) de un punto a otro.

Ahora el hecho interesante es que la definición intrínseca constructiva de los vectores tangentes se basa en derivados direccionales en cada punto. Piensa en tu colector $M$ de dimensión $n$ como se da localmente en el gráfico alrededor de un punto $p$ por coordenadas: $x^1,...,x^n$ . Si tiene una curva $\gamma:[0,1]\subset\mathbb R\rightarrow M$ sobre su colector pasando por su punto $p$ de interés, se pueden definir intrínsecamente vectores tangentes a $p$ mirando las derivadas direccionales en $p$ de cualquier función suave $f:M\rightarrow\mathbb R$ que vienen dados por la tasa de cambio de $f$ sobre cualquier curva que pase por $p$ . Es decir, en coordenadas locales su derivada direccional en el punto $p$ a lo largo de (en la dirección tangente de) una curva $\gamma$ que lo atraviesa ( $\gamma(t_0)=p$ ) viene dada por (utilizando la regla de la cadena para la diferenciación con las coordenadas locales para $\gamma (t)$ ): $$\frac{d f(\gamma(t))}{dt}\bigg|_{t_0}= \sum_{i=1}^n\frac{\partial f}{\partial x^i}\bigg|_p\frac{d x^i(\gamma (t))}{d t}\bigg|_{t_0}=\sum_{i=1}^n X^i\vert_p\frac{\partial f}{\partial x^i}\bigg|_p.$$ Así es como debe entenderse esa ecuación: en cada punto $p$ Las diferentes curvas tienen diferentes "vectores tangentes" $X$ con componentes locales $X^i\vert_p\in\mathbb R$ dada por la diferenciación paramétrica de las ecuaciones locales de la curva (por lo que en realidad sólo hay que preocuparse por las clases de equivalencia de las curvas que tienen la misma dirección en cada punto); la derivada direccional en cualquier punto de cualquier función en dirección $X$ es, por tanto, expresable como operador: $$X=\sum_{i=1}^n X^i\frac{\partial}{\partial x^i},$$ para todos los componentes posibles $X^i$ tales que son campos escalares suaves sobre la variedad. De esta manera se ha adjuntado un espacio tangente $T_pM\cong\mathbb R^n$ en cada punto con base canónica $\vec e_i=\frac{\partial}{\partial x^i}=:\partial_i$ para cada gráfico local de coordenadas $x^i$ . Esto parece estar muy lejos de la noción visual de "flecha" de los vectores y vectores tangentes como se ve en las superficies y submanifolds de $\mathbb R^n$ pero se puede demostrar que es equivalente a la definición del espacio geométrico tangente al sumergir su colector en $\mathbb R^n$ (que siempre se puede hacer por Teorema de incrustación de Whitney ) y restringiendo su espacio "flecha" en cada punto al subespacio "flecha" de los vectores tangentes a $M$ como submanifold, del mismo modo que se puede pensar en los planos tangentes de una superficie en el espacio. Además esto se confirma por la transformación de componentes, si dos gráficos $x$ y $y$ contener el punto $p$ entonces sus vectores de coordenadas se transforman con la Jacobiano de la transformación de coordenadas $x\mapsto y$ : $$\frac{\partial}{\partial y^i}=\sum_{j=1}^n\frac{\partial x^j}{\partial y^i}\frac{\partial}{\partial x^j},$$ que da la regla de transformación anticuada para los vectores (y tensores) como se define en la física teórica. Ahora es un ejercicio fácil ver que, si un cambio de base en $V$ de $\vec e_i$ a $\vec e'_j$ viene dada por la matriz invertible $\Lambda^i_{j'}$ (que es siempre el caso), entonces las bases duales correspondientes están relacionadas por la transformación inversa $\Lambda^{j'}_i:=(\Lambda^i_{j'})^{-1}$ : $$\vec e'_j = \sum_{i=1}^n \Lambda^i_{j'}\,\vec e_i\Rightarrow \tilde e'^j = \sum_{i=1}^n (\Lambda^i_{j'})^{-1}\,\tilde e^i=:\sum_{i=1}^n \Lambda^{j'}_i\,\tilde e^i,\;\text{ where }\sum_i \Lambda^{k'}_i\Lambda^i_{j'}=\delta^{k'}_{j'}.$$ Así, en nuestro múltiple, el espacio cotangente se define como $T_p^*M$ con una base de coordenadas dada por los funcionales duales $\omega_{x}^i (\partial/\partial x^j)=\delta^i_j$ , $\omega_{y}^i (\partial/\partial y^j)=\delta^i_j$ . Por la ley de transformación de los vectores tangentes y la discusión anterior sobre la transformación dual, debemos tener que los covectores tangentes se transforman con la inversa del jacobiano anteriormente mencionado: $$\omega_y^i=\sum_{j=1}^n\frac{\partial y^i}{\partial x^j}\omega_x^j.$$ ¡Pero esta es precisamente la regla de transformación de las diferenciales por la regla de la cadena! $$dy^i=\sum_{j=1}^n\frac{\partial y^i}{\partial x^j}dx^j.$$ Por lo tanto, es convencional utilizar la notación $\partial/\partial x^i$ y $dx^i$ para la base de coordenadas del vector tangente y del covector en un gráfico $x:M\rightarrow\mathbb R^n$ .

Ahora, desde el punto de vista anterior $dx^i$ se consideran como los diferenciales clásicos, sólo que con la nueva perspectiva de ser los duales funcionales de los operadores diferenciales $\partial/\partial x^i$ . Para dar más sentido a esto, hay que recurrir a las formas diferenciales, que son nuestro $k$ -forma en $M$ . Una forma 1 $\omega\in T_p^*M=\Omega_p^1(M)$ es entonces sólo $$\omega = \sum_{i=1}^n \omega_i\, dx^i,$$ con $\omega_i(x)$ variando con $p$ campos escalares suaves sobre la variedad. Es habitual considerar $\Omega^0(M)$ el espacio de los campos escalares suaves. Tras definir productos alternativos en cuña obtenemos el $k$ -base del formulario $dx^i\wedge dx^j\in\Omega^2(M), dx^i\wedge dx^j\wedge dx^k\in\Omega^3(M),..., dx^1\wedge\cdots\wedge dx^n\in\Omega^n(M)$ (de hecho, no todas las combinaciones de índices para cada orden son independientes debido a la antisimetría, por lo que las bases tienen menos elementos que el conjunto de productos). Todos estos espacios lineales "cotensores" se juntan muy bien en un anillo con esa cuña $\wedge$ producto alterno, y se puede definir una bonita operación de diferenciación para dichos objetos: la derivada exterior $\mathbf d:\Omega^k(M)\rightarrow\Omega^{k+1}(M)$ dado por $$\mathbf d\omega^{(k)}:=\sum_{i_0<...<i_k}\frac{\partial\omega_{i_1,...,i_k}}{\partial x^{i_0}}dx^{i_0}\wedge dx^{i_1}\wedge\cdots\wedge dx^{i_k}.$$ Esta operación diferencial es una generalización de, y se reduce a, la habitual operadores de cálculo vectorial $\operatorname{grad},\,\operatorname{curl},\,\operatorname{div}$ en $\mathbb R^n$ . Así, podemos aplicar $\mathbf d$ para suavizar los campos escalares $f\in\Omega^0(M)$ para que $\mathbf df=\sum_i\partial_i f dx^i\in\Omega^1(M)$ (tenga en cuenta que no todos los covectores $\omega^{(1)}$ provienen de algunos $\mathbf d f$ una condición necesaria y suficiente para este "exactitud de las formas" es que $\partial_{i}\omega_j=\partial_{j}\omega_i$ para cualquier par de componentes; este es el comienzo de La cohomología de de Rham ). En particular, las funciones de coordenadas $x^i$ de cualquier gráfico satisfacen $$\mathbf d x^i=\sum_{j=1}^n\frac{\partial x^i}{\partial x^j}dx^j=\sum_{j=1}^n\delta^i_jdx^j= dx^i.$$

ESTA última igualdad establece la correspondencia entre las diferenciales infinitesimales $dx^i$ y las derivadas exteriores $\mathbf dx^i$ . Como podríamos haber escrito cualquier otro símbolo para la base de $\Omega_p^1(M)$ es evidente que $\mathbf dx^i$ son una base para el espacio tangente dual. En la práctica, la notación se reduce a $\mathbf d=d$ ya que estamos trabajando con objetos isomórficos a nivel de su álgebra lineal. Todo esto es la razón por la que $\mathbf dx^i(\partial_j)=\delta^i_j$ ya que una vez demostrado que el $\mathbf dx^i$ forman una base de $T_p^*M$ es sencillo sin recurrir a las leyes de transformación de los componentes. Por otro lado, se podría empezar después de la definición de los espacios tangentes como se ha dicho anteriormente, con la base de coordenadas $\partial/\partial x^i$ y dualizar a su base covectorial $\tilde e^i$ tal que $\tilde e^i(\delta_j)=\delta^i_j$ Después, se definen los productos cuña y las derivadas exteriores como es habitual en los espacios cotangentes; entonces es un teorema que para cualquier campo vectorial tangente $X$ y la función $f$ en $M$ $$X(f)=\sum_{i=1}^n X^i\frac{\partial f}{\partial x^i}=\mathbf d f(X),$$ por lo que en particular obtenemos como corolario que nuestra base de coordenadas dual original es de hecho la diferencial exterior de las funciones de coordenadas: $$(\vec e_i)^*=\tilde e^i=\mathbf d x^i\in\Omega^1(M):=T^*(M).$$ (Esto es cierto en cualquier punto para cualquier base de coordenadas de las cartas posibles, por lo que es cierto como campos covectores sobre el colector). En particular, la evaluación de los covectores $\mathbf d x^i$ en vectores infinitesimales $\Delta x^j\partial_j$ es $\mathbf d x^i(\Delta x^j\partial_j)=\sum_{j=1}^n\delta^i_j\Delta x^j$ Así que cuando $\Delta x^i\rightarrow 0$ podemos ver las diferenciales infinitesimales como las evaluaciones de vectores infinitesimales por covectores de coordenadas.

SIGNIFICADO, USO Y APLICACIONES:

Los covectores son la estructura esencial para las formas diferenciales en topología/geometría diferencial y la mayoría de los desarrollos importantes en esos campos están formulados o los utilizan de una manera u otra. Son ingredientes centrales de temas importantes como:

Dependencia lineal de vectores, determinantes e hipervolúmenes, orientación , integración de formularios ( Teorema de Stokes generalizando el teorema fundamental del cálculo), homología singular y grupos de cohomología de Rham ( El lema de Poincaré , Teorema de de Rham , Características de Euler y aplicaciones como invariantes para la topología algebraica), derivada covariante exterior , conexión y curvatura de los haces vectoriales y principales , clases características , Operadores laplacianos , funciones armónicas & Teorema de descomposición de Hodge , los teoremas del índice ( Chern-Gauß-Bonnet , Hirzebruch-Riemann-Roch , Atiyah-Singer ...) y una estrecha relación con los invariantes topológicos modernos (Donaldson-Thomas, Gromow-Witten, Seiberg-Witten, ecuaciones de solitón...).

En particular, desde el punto de vista de la física matemática, las formas diferenciales (covectores y tensores en general) son entidades fundamentales para la formulación de teorías físicas en términos geométricos. Por ejemplo, Ecuaciones de Maxwell del electromagnetismo son sólo dos ecuaciones de formas diferenciales en El espaciotiempo de Minkowski : $$\mathbf d F=0,\;\;\star\mathbf d\star F=J,$$ donde $F$ es un $2$ -(una matriz antisimétrica de 4x4) cuyos componentes son los componentes del campo vectorial eléctrico y magnético $E_i,\,B_j$ , $J$ es un vector espaciotemporal de densidades de carga-corriente y $\star$ es el Operador estrella de Hodge (que depende de la métrica de la variedad, por lo que requiere una estructura adicional). De hecho, la primera ecuación no es más que la formulación diferencial-geométrica de la clásica Ley de Gauß para el campo magnético y el Ley de inducción de Faraday . La otra ecuación es la dinámica Ley de Gauß para el campo eléctrico y Ley del circuito de Ampère . El ley de continuidad de la conservación de la carga se convierte en $\mathbf d\star J=0$ . Además, por El lema de Poincaré , $F$ siempre se puede resolver como $F=\mathbf d A$ con $A$ un covector en el espaciotiempo llamado potencial electromagnético (de hecho, en ingeniería eléctrica y telecomunicaciones siempre resuelven las ecuaciones por estos potenciales); ya que la diferenciación exterior satisface $\mathbf{d\circ d}=0$ los potenciales están subdeterminados por $A'=A+\mathbf d\phi$ , que es precisamente la más sencilla "invariancia gauge" que rodea todo el campo de la física. En la física teórica la fuerza electromagnética proviene de un $U(1)$ paquete principal sobre el espaciotiempo; generalizando esto para los grupos de Lie $SU(2)$ y $SU(3)$ se llega a los modelos matemáticos de las fuerzas nucleares débil y fuerte (teoría electrodébil y cromodinámica). El Faraday $2$ -forma $F$ es en realidad la curvatura local de la conexión gauge para esos haces de fibras, y de forma similar para las otras fuerzas. Este es el marco de Teoría de las galgas trabajando en colectores arbitrarios para su espaciotiempo. La única otra fuerza que queda es la gravedad, y de nuevo la relatividad general puede escribirse en la forma Formalismo de Cartan como una curvatura de un Conexión de espín de Lorentz sobre un $SO(1,3)$ o, de forma equivalente, como la curvatura (riemanniana) del haz espacial tangente.

0 votos

¡Excelente respuesta! Pero tengo algunas dudas que me han estado atormentando desde hace muchos meses. Se trata de la diferencia entre covarianza y contravarianza. Lo entiendo de la siguiente manera, los componentes covariantes del tensor se transforman de la misma manera que la base, y los componentes contravariantes se transforman de manera inversa a la base. Por lo tanto, en tu notación, tu base dual tiene un índice covariante, ¿entonces no debería transformarse por $\Lambda_{ij}$? ¿Cómo obtienes $\vec e'_j = \sum_{i=1}^n \Lambda_{ij}\,\vec e_i \Rightarrow \tilde e'_j = \sum_{i=1}^n (\Lambda_{ij})^{-1}\,\tilde e_i=:\sum_{i=1}^n \Lambda^i_j\,\tilde e_i$?

0 votos

También, dices que los co-vectores tangentes se transforman con el inverso del Jacobiano, pero en tu respuesta lo has tomado con el Jacobiano (perdón si estoy equivocado). $\omega_y^i=\sum_{j=1}^n\frac{\partial y^i}{\partial x^j}\omega_x^j$. En resumen, estoy extremadamente confundido, por cómo se transforman los componentes de cada uno de los tangentes y los co-tangentes (o duales), o los componentes contravariantes y covariantes, esencialmente con respecto a sus bases respectivas.

0 votos

Uno debe tener cuidado porque los jacobianos y sus inversos aparecen en las transformaciones de vectores y covectores en sentido contrario a los componentes covariantes y contravariantes. En primer lugar, se puede llamar "Jacobian" a cualquiera de los dos, ya que hay dos cambios de coordenadas: $x^j(y)$ y $y^i(x)$. Si llamo "el Jacobiano" a la matriz $\partial x^j/\partial y^i$, entonces $\partial y^i/\partial x^j$ es su inversa, pero podría haber llamado "el inverso" al primero y "el Jacobiano" al segundo, pero eso es relativo a lo que considere como sus coordenadas iniciales, ¡ya que ambos son jacobianos!

19voto

Jim Blizard Puntos 3785

Las respuestas aquí son todas excelentes y profundas, pero también debo admitir, un poco abstractas e intimidantes. Me gustaría presentar una razón concreta para que existan los corvectores: hacer que el concepto de producto punto sea invariante a las transformaciones de coordenadas.

Supongamos que tenemos un punto $p$ en una variedad $M$ con un vector $V$ que sale de $p$. Este vector tiene una longitud, que es independiente de cómo lo representes en un sistema de coordenadas local alrededor de $p. Es posible que estemos realizando cálculos sobre esa longitud mientras "transportamos" el vector a lo largo de puntos en la variedad, por lo tanto queremos basar nuestra maquinaria computacional en operaciones que ignoren lo que hacen las coordenadas locales y se centren solamente en cantidades absolutas. Normalmente, para calcular la longitud de un vector, podrías usar un producto punto consigo mismo y después tomar la raíz cuadrada, pero aquí mostraré que el producto punto es vulnerable a los cambios en los sistemas de coordenadas. Esa es la razón por la que introduzco covectores para resolver este problema, aunque la diferencia es muy sutil.

Definición de vector

Sea $\mathbf p$ la posición de un punto $p$. Podemos establecer una base de coordenadas local tomando los vectores que resultan de variar $\mathbf p$ al variar cada coordenada $x_i$ manteniendo las demás constantes, es decir, tomando la derivada parcial $\frac{\partial \mathbf p}{\partial x_i}$. Un vector en $p$ por lo tanto puede escribirse en términos de esa base

$$ V = \sum_i v_i \frac{\partial \mathbf p}{\partial x_i} .$$

Si cambiamos de sistema de coordenadas local a $x_i'$ entonces, a través de la regla de la cadena, obtenemos la relación:

$$ V = \sum_i v_i \frac{d \mathbf p}{d x_i} = \sum_i v_i \sum_j \frac{dx_j'}{dx_i} \frac{d \mathbf p}{d x_j'} = \sum_i \left ( \sum_j v_j\frac{dx_i'} {dx_j}\right) \frac{d \mathbf p}{d x_i'} =\sum_i v_i' \frac{d \mathbf p}{d x_i'} $$

lo que significa que $$v_i' = \sum_j \frac{dx_i'}{dx_j} v_j ,$$ por lo que básicamente hemos multiplicado por la matriz jacobiana $J$ de la transformación. Escribiendo $v$ y $v'$ como vectores columna obtenemos la relación

$$ v' = Jv.$$

Problema con la longitud del vector al cambiar de sistema de coordenadas

Supongamos que tenemos un vector $V = 1 \hat x + 1 \hat y$. La longitud de este vector es $\sqrt{V \cdot V} = \sqrt{1+1} = \sqrt{2}$. Ahora reduzcamos el sistema de coordenadas local a la mitad para que el vector se convierta en $V' = 2 \hat x' + 2 \hat y'$. La nueva longitud es $\sqrt{V' \cdot V'} = \sqrt{4+4} = 2\sqrt{2}$. La longitud ha cambiado, porque estamos midiendo nuestro vector en términos de coordenadas locales, pero no queremos eso. Queremos una forma de calcular la longitud del vector que sea invariante a reespecificaciones del sistema de coordenadas local.

Introducción al covector

Un covector es simplemente una función lineal de vectores a números reales, $\alpha : V \to \mathbb R$. Como ejemplo de un covector, tenemos estas funciones $dx_i$. Como se ha mencionado en las respuestas anteriores, $dx_i$ no es una longitud, sino una función que toma vectores y selecciona el componente de coordenada $i$, por ejemplo en $ \mathbb R^3 $:

$$ dx_1( A\hat e_1 + B\hat e_2 + C \hat e_3) = A.$$ $$ dx_2( A\hat e_1 + B\hat e_2 + C \hat e_3) = B.$$ $$ dx_3( A\hat e_1 + B\hat e_2 + C \hat e_3) = C.$$

Estas funciones forman una base en el espacio de covectores. Cada función lineal de vectores a los números reales se puede escribir como una combinación lineal de estas funciones:

$$ \alpha(v) = \sum_i a_i dx_i(v).$$

Ahora, si hacemos un cambio de coordenadas a $x_i'$ debemos tomar contribuciones de todos los diferentes

$$ \alpha(v) = \sum_i a_i dx_i(v) = \sum_i \sum_j a_i \frac{dx_i}{dx_j'} dx_j'(v) = \sum_i \left ( \sum_j a_j \frac{dx_j}{dx_i'} \right ) dx_i'(v) = \sum_i a_i' dx_i'(v) .$$

Ahora vemos que

$$ a_i' = \sum_j a_j \left ( \frac{dx_j}{dx_i'} \right )$$

Ahora viene la parte importante. Se tomamos un covector y lo aplicamos a un vector, básicamente obtenemos un producto punto:

$$ \alpha(v) = \sum_i a_i v^i = av .$$

Sin embargo, cuando realizamos un cambio de coordenadas a $x_i'$ entonces:

$$ \alpha(v)' = a'v' = a \frac{dx}{dx'} \frac{dx'}{dx} v = av.$$

La respuesta sigue siendo la misma. Así que hemos encontrado una forma de calcular un "producto punto" que es invariante a transformaciones de coordenadas locales.

Revisitando el problema

Cuando escalamos el sistema de coordenadas para $V$ como en el problema anterior, ahora tratamos esto como un covector aplicado a un vector. Por lo tanto, al transformar, los componentes del covector en realidad se dividen a la mitad, de modo que la respuesta sigue siendo la misma:

$$ |V| = \sqrt{\alpha(V)} = \sqrt{1/2*2 + 1/2 *2} = \sqrt{2} $$.

tldr los covectores implementan una "solución" al producto punto en geometría diferencial de modo que el resultado sea invariante a cambios del sistema de coordenadas local.

14voto

Muphrid Puntos 12245

Siempre me ha resultado más fácil pensar en "covecotres" (vectores duales, vectores cotangentes, etc.) como una base diferente de vectores (potencialmente para un espacio diferente que los vectores "normales") porque las propiedades del álgebra lineal siguen siendo básicamente las mismas. Sí, un covector es un objeto que "toma" un vector y devuelve un número, ¡pero podrías definir un vector como un objeto que "toma" un covector y devuelve un número! (Y decir que todo lo que los vectores y los covectores pueden hacer, es devolver números a través del producto interno, parece ser una subestimación de para qué se pueden usar.)

Además, en un espacio con una métrica, los covectores se pueden construir fácilmente utilizando los vectores de base tangente.

Deja que $e_1, e_2, e_3$ sean una base de espacio tangente para un espacio vectorial real de 3 dimensiones. Los covectores de la base son entonces

$$\begin{align*} e^1 &= \frac{e_2 \wedge e_3}{e_1 \wedge e_2 \wedge e_3} \\ e^2 &= \frac{e_3 \wedge e_1}{e_1 \wedge e_2 \wedge e_3} \\ e^3 &= \frac{e_1 \wedge e_2}{e_1 \wedge e_2 \wedge e_3} \end{align*}$$

(Estas operaciones de producto exterior simplemente forman objetos de dimensiones superiores a los vectores pero que están construidos a partir de vectores. $e_2 \wedge e_3$, por ejemplo, es un objeto planar orientado que corresponde al paralelogramo formado por $e_2, e_3$. Por lo tanto, está relacionado con el producto cruz en 3 dimensiones, pero el producto exterior también es útil en otras dimensiones, mientras que el producto cruz no se generaliza fuera de las 3 y 7 dimensiones.)

Básicamente, los covectores de la base se forman encontrando los vectores ortogonales a las hipersuperficies generadas por todos los demás vectores de la base.

Los covectores son útiles en gran parte porque entran en expresiones a través de la derivada de vectores $\nabla$. Generalmente definimos $\nabla = e^i \partial_i$ para todos los $i$ que abarcan el espacio.

La notación de que los covectores en la base son $dx_1, dx_2,\ldots$ es algo confusa para mí también; ¡en cálculo geométrico, podrían significar escalares o vectores! Pero creo que entiendo que eso significa que $\nabla x^1$ extrae el covector de la base $e^1$ de la derivada del vector, y simplemente están usando $d$ para significar algo que de otra manera podría denotarse como $\nabla$ (lo cual no es inusual, como se ha señalado, en formas diferenciales).

$$\nabla x^1 = e^1 \frac{\partial}{\partial x^1} x^1 = e^1$$

si eso hace que sea más claro.

0 votos

¿Estoy viendo la división de un bivector por un trivector? ¿Cómo se define?

0 votos

Usando el producto geométrico del álgebra de Clifford. Cualquier $k$-vector simple tiene un inverso multiplicativo bien definido en ese contexto.

0 votos

¿Entonces no tenemos: $e^3\frac{e_1 \wedge e_2}{e_1 \wedge e_2 \wedge e_3} = (e_1 \wedge e_2)(e_3 \wedge e_2 \wedge e_1) = e_3$? ¿O hay alguna sutileza?

10voto

Nathan Long Puntos 6704

Los covectores son promedios ponderados.

Mantén los mismos datos $\vec{x}$, el mismo estilo de producto interno, $$\alpha_1 \cdot x_1 + \alpha_2 \cdot x_2 + \alpha_3 \cdot x_3 \ldots$$ pero cambia los $\alpha_i$ en la expresión anterior. Esto es "ajustar pesos" en el lenguaje cotidiano o "mover el covector" en términos matemáticos. La gente realmente hace esto todo el tiempo, por lo que no es esotérico o meramente académico. (Observa que después de sumar los pares de productos tendré una respuesta escalar. He "reducido" la dimensión a 1 en un sentido de "map-reduce". Así es como funcionan los productos internos.)

También puedes usar la visualización de una función de pérdida función de pérdida elipsoidal para centrarte en el "espacio de parámetros". Piensa en que tienes un modelo con una forma dada $$\alpha_1 \cdot \phi_1(\vec{x}) + \alpha_2 \cdot \phi_2(\vec{x}) + \alpha_3 \cdot \phi_3(\vec{x}) + \ldots$$ por ejemplo los $\phi_i$ podrían ser funciones de base. Ajustar los pesos $\alpha_i$ es el objetivo del modelado estadístico. Por ejemplo, la solución OLS elige un covector "óptimo" (en algún sentido de la palabra "óptimo"). problema estándar de regresión, en el espacio de y ~ x pero podría ser un espacio funcional lineal Y el descenso del gradiente en algún tipo de modelo que puede ser parametrizado por "sumas de ponderaciones de [cosas]" también apunta al mismo objetivo explorando el espacio de covectores.


Respecto a tu pregunta sobre $dx_i$ (funciones de proyección en la $i$-ésima dimensión: olvidando todas las demás coordenadas excepto la $i$-ésima). Regresa a la ecuación inicial que escribí $\sum \alpha_i \cdot x_i$. Pon todas las $\alpha_i$ a cero excepto $\alpha_1$. Ahora, ¿qué sucede al incrementar algebraicamente $\alpha_1$? Obtienes $$\{\alpha_1=1\} \implies \sum=x_1; \quad \{ \alpha_1=2\} \implies \sum=2x_1; \quad \cdots $$ (¿Qué es eso geométricamente? Son pendientes que aumentan de la misma manera que en cálculo 101. Excepto que podremos combinar eso con los resultados de los otros $\alpha_{j\neq 1}$ en un segundo paso). Si configuras cualquiera de los $\alpha_{j \neq i}$ a cero y subes un "control deslizante" $\alpha_i$ a la vez, encontrarás lo mismo. Y debido al álgebra lineal, sé que puedo, excepto en algunos casos malos, "enderezar" la base para que sea ortonormal (sin esforzarte, rotar, lo que sea... Gram-Schmidt lo arregla automáticamente), lo que significa que los $\alpha_i$ operarán independientemente (linealmente independientes, estilo suma de productos) uno del otro y de hecho puedes inferir cada número en el campo escalar inducido en todo el espacio, desde los ejes (incluso desde solo la primera salida en cualquier eje dado).

Encontré útil dibujar un plano y resolverlo a mano (estoy de acuerdo contigo, @Mike, en que $\mathbb{R}^2$ es la forma de comenzar) con un ejemplo realmente simple.

sudoku de funcionales lineales

En el ejemplo que dibujé, elegí $\alpha_1=4$ y $\alpha_2=1$ pero el punto es que, de cualquier manera que hagas esto,

sudoku de funcionales lineales lfsu lsfu sflu usfl sufl

Eventualmente, al desenrollar la definición más y más, con números realmente simples en algo dibujable, encontré los familiares "conjuntos de nivel" - así que la estructura lineal está apareciendo de nuevo en el campo escalar (espacio dual). ¡Hurra!

conjuntos de nivel

Y al pensar en las formas en que este campo escalar podría cambiar (qué habría pasado si cambiaras algunos de los $\alpha_1 \text{ o } \alpha_2$), podrías empezar a ver por qué Wikipedia usó la visualización de la pila de hiperplanos para su entrada...

hiperplanos

Espero que esto ayude

9voto

Drealmer Puntos 2284

Hay al menos dos capas de ideas aquí. Primero, como dices, el "espacio dual" $V^*$ a un espacio vectorial real es (por definición) la colección de mapas/funcionales lineales $V\rightarrow \mathbb R$, con o sin elegir una base. Hoy en día, $V^*$ sería más a menudo llamado simplemente el "espacio dual", en lugar de "covectores".

Luego, la noción de "espacio tangente" a una variedad suave, como $\mathbb R^n$ en sí mismo, en un punto, es (intuitivamente) el espacio vectorial de operadores de derivadas direccionales (de funciones suaves) en ese punto. Así, en $\mathbb R^n$, en $0$ (o en cualquier punto, en realidad), $\{\partial/\partial x_1, \ldots, \partial/\partial x_n\}$ forma una base para ese espacio vectorial de operadores de derivadas direccionales.

Una notación (¡un artefacto histórico extravagante, como observas!) para el espacio dual al espacio tangente, en este ejemplo, es $dx_1,\ldots, dx_n$. Es decir, literalmente, $dx_i(\partial/\partial x_j)$ es $1$ si $i=j$ y $0$ en caso contrario.

Una forma de ayudar a evitar algunas confusiones es no apresurarse a identificar todos los espacios vectoriales reales $n$-dimensionales con $\mathbb R^n$, para que no sientas la obligación de evaluar $dx_1(a,b)... aunque, si consideras $(a,b)$ como $a\cdot \partial/\partial x_1 + b\cdot \partial/\partial x_2$, entonces $dx_1$ evaluado en eso da $a$.

En gran medida, esto es solo una preparación notacional para el cálculo en variedades que incluye varios artefactos históricos que son algo incompatibles con otras convenciones notacionales, ¡estoy de acuerdo! Por ejemplo, justo cuando te acostumbras a la idea de que en $dy/dx$ el $dy$ y el $dx$ no pueden separarse, eso parece haberse hecho al escribir una forma diferencial $f(x,y)dx+g(x,y)dy. Y, de hecho, la notación descendiente de una tradición que no se preocupaba por si había o no había infinitesimales y realizaría tales manipulaciones simbólicas, entre otras cosas. Es decir, en mi opinión, incluso en $\mathbb R^n$, la notación se entiende mejor, por lo que se pretende sugerir, no en un contexto contemporáneo, sino imaginándonos en 1890 aproximadamente. Este es un problema separado de aquellos sobre probar cosas, por supuesto, pero puede ser útil para interpretar la intención de la notación.

0 votos

Si $v=(a,b)^{\top}$ entonces $dx(v)=a$ y $dy(v)=b$, ¿así que deberíamos llamarlos también proyectores?

0 votos

Creo que no del todo, pero sí en ciertos aspectos. Pero es más que los $ dx $ y $ dy $ mapean los vectores tangentes a escalares, no a vectores más pequeños.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X