Para probar la relación, comience notando que la dimensión del espacio de las formas bilineales asimétricas inclinadas (también conocidas como $2$ -en un formulario $2$ -El espacio vectorial dimensional es unidimensional. Este es un caso especial de la regla general de que el espacio de $p$ -formas en un $n$ -El espacio vectorial dimensional es $n \choose p$ pero podemos ver eso también de manera bastante directa:
Se $u,v \in V$ y $ \alpha , \beta $ $2$ -formas sobre $V$ . Asumamos que ninguno de los vectores o $2$ -formas es $0$ . Primero note que si $u$ y $v$ son linealmente dependientes, cualquier $2$ -la forma de un ellos se desvanece porque entonces $u= \lambda v$ y $ \alpha (u,v) = \alpha ( \lambda v,v) = \lambda\ , \alpha (v,v)=0$ . Por lo tanto, asumamos que el trabajo que $u$ y $v$ son linealmente independientes. Dado que el espacio vectorial tiene dimensiones $2$ , $u$ y $v$ forman así una base de $V$ . Cualquier vector $x$ puede por lo tanto escribirse como $x= \lambda u+ \mu v$ con números reales $ \lambda $ , $ \mu $ .
Ahora aplicando los dos $2$ -formas en los vectores $x_1= \lambda_1 u + \mu_1 v$ y $x_2= \lambda_2 u + \mu_2 v$ se debe a la linealidad y a la simetría sesgada:
$$ \alpha (x_1,x_2) = \lambda_1\lambda_2\ , \underbrace { \alpha (u,u)}_{=0} + \lambda_1\mu_2\ , \alpha (u,v) + \mu_1\lambda_2\ , \underbrace { \alpha_v ,u}_={- \alpha (u,v)} + \mu_1\mu_2\underbrace { \alpha (v,v)}_{=0} = ( \lambda_1\mu_2 - \lambda_2\mu_1 )\, \alpha (u,v)$$ $$ \beta (x_1,x_2) = \lambda_1\lambda_2\ , \beta (u,u) + \lambda_1\mu_2\ , \alpha (u,v) + \mu_1\lambda_2\ , \beta_v ,u + \mu_1\mu_2\beta (v,v) = ( \lambda_1\mu_2 - \lambda_2\mu_1 )\, \beta (u,v)$$
Desde $x_1$ y $x_2$ son vectores arbitrarios, y $ \alpha (u,v)$ y $ \beta (u,v)$ son sólo números independientes de $x_1$ y $x_2$ esto significa que $ \alpha $ y $ \beta $ sólo difieren por un factor.
Ahora, ya que el espacio de $2$ -las formas tiene dimensión $1$ basta con mostrar que hay dos $2$ -formas $g_1$ y $g_2$ para que $f(x,y,z,w)=g_1(x,z)g_2(y,w)$ .
Ahora $f$ es bastante obviamente lineal en cada uno de sus argumentos. Por lo tanto, puede ser escrito en la forma $$f(x,y,z,w) = \sum_k c_k \alpha_k (x) \beta_k (y) \gamma_k (z) \delta_k (w)$$ donde $c_k$ son constantes reales y $ \alpha_k $ , $ \beta_k $ , $ \gamma_k $ , $ \delta_k $ son funciones lineales (también conocidas como $1$ -formas).
Ahora podemos escribir el producto $ \alpha_k (x) \gamma_k (z)$ como la suma de su parte simétrica y asimétrica, y lo mismo para $ \beta_k (y) \delta_k (w)$ : $$ \begin {align} \alpha_k (x) \gamma_k (z) &= s_{ \alpha_k , \gamma_k }(x,z) + a_{ \alpha_k , \gamma_k }(x,z) \\ \beta_k (y) \delta_k (w) &= s_{ \beta_k , \delta_k }(x,z) + a_{ \beta_k , \delta_k }(x,z) \\ s_{ \eta , \zeta }(u,v) &= \frac { \eta (u) \zeta (v)+ \zeta (u) \eta (v)}{2} \\ a_{ \eta , \zeta }(u,v) &= \frac { \eta (u) \zeta (v)- \zeta (u) \eta (v)}{2} \end {align} $$ Tenga en cuenta que para $a_{ \eta , \zeta }$ existe una notación estándar: $$( \eta\wedge\zeta )(u,v) = \eta (u) \zeta (v)- \zeta (u) \eta (v)$$ para que $$a_{ \eta , \zeta } = \frac12\eta \wedge \zeta $$ El producto $ \eta\wedge\zeta $ se llama producto de la cuña de $ \eta $ y $ \zeta $ .
Usando esa relación, podemos escribir $f$ como $$f(x,y,z,w) = \sum_k c_k (s_{ \alpha_k\gamma_k }(x,z) + a_{ \alpha_k\gamma_k }(x,z)) (s_{ \beta_k\delta_k }(y,w) - a_{ \beta_k\delta_k }(y,w))$$ o se dividen en cuatro términos: $$f(x,y,z,w) = \sum_k c_k\,s_{ \alpha_k\gamma_k }(x,z)s_{ \beta_k\delta_k }(y,w) + \sum_k c_k\,s_{ \alpha_k\gamma_k }(x,z)a_{ \beta_k\delta_k }(y,w) + \sum_k c_k\,a_{ \alpha_k\gamma_k }(x,z)s_{ \beta_k\delta_k }(y,w) + \sum_k c_k\,a_{ \alpha_k\gamma_k }(x,z)a_{ \beta_k\delta_k }(y,w)$$ Obsérvese que el primer término es simétrico bajo el intercambio de $x$ con $z$ y también bajo $y$ con $z$ el segundo término es simétrico a cambio de $x$ y $z$ pero simétricos bajo el intercambio de $y$ y $w$ y así sucesivamente.
Se comprueba fácilmente que $f$ es asimétrico en el intercambio de $x$ con $z$ y también de $y$ con $w$ . Por lo tanto, los tres primeros términos de arriba deben desaparecer porque son simétricos en al menos uno de esos pares. Por lo tanto tenemos (ahora usando la notación estándar para los productos antisimétricos) $$f(x,y,z,w) = \sum_k \frac {c_k}{4} ( \alpha_k \wedge \gamma_k )(x,z) ( \beta_k \wedge \delta_k )(y,w)$$ Sin embargo, como hemos visto, desde $V$ tiene una dimensión $2$ , todos $2$ -Las formas son múltiples entre sí, por lo tanto para un arbitrario no-cero $2$ -formulario $ \omega $ hay números reales $ \lambda_k $ y $ \mu_k $ para que $$ \begin {align} \alpha_k \wedge \gamma_k &= \lambda_k \omega\\ \beta_k \wedge \delta_k &= \mu_k \omega \end {align} $$ Por lo tanto, podemos escribir $f$ como $$f(x,y,z,w) = \sum_k c_k ( \lambda_k \omega (x,z) + \mu_k \omega (y,w) \left ( \sum_k c_k( \lambda_k + \mu_k\right ) \omega (x,z) \omega (y,w)$$ Obsérvese que el pre-factor de $ \omega $ es un número puro que no depende de los argumentos de $x$ .
Ahora definimos $g(u,v) = \sqrt { \left | \sum_k c_k( \lambda_k + \mu_k\right |}$ . Entonces, obviamente, o bien $f(x,y,z,w) = g(x,z)g(y,w)$ o $f(x,y,z,w)=-g(x,y)g(z,w)$ .
Para determinar cuál de las dos ecuaciones es válida, considere el caso $x=y$ y $z=w$ . El lado izquierdo entonces lee $ \langle x,x \rangle\langle z,z \rangle - \langle x,z \rangle ^2$ que según el Caucus-Schwarz la desigualdad es siempre $ \ge 0$ . En el lado derecho, tenemos $g(x,z)^2$ que como cuadrado de un número real es también $ \ge 0$ . Por lo tanto, hemos demostrado que sí, $f(x,y,z,w) = g(x,z)g(y,w)$ para algunos $g(x,y)$ .
Ahora para escribir explícitamente el $g$ introducir una base orthonormal $\{e_1,e_2\}$ de $V$ . Entonces podemos definir la base dual $\{e^1,e^2\}$ de $V^*$ el conjunto de $1$ -formas (funciones lineales) en $V$ a través de la relación $e^i(e_j)= \delta ^i_j$ (donde $ \delta ^i_j$ es el delta de Kronecker, que es $1$ para $i=j$ y $0$ de lo contrario). Tenga en cuenta que $e^i$ sólo mapea un vector a su $i$ -el componente cuando se escribe en la base $e_i$ .
Ahora podemos escribir $g$ como $ \lambda e^1 \wedge e^2$ para que $$f(x,y,z,w)= \lambda ^2(e^1 \wedge e^2)(x,z)(e^1 \wedge e_2)(y,w)$$ Para determinar $ \lambda $ sólo usamos $x=y=e_1$ y $z=w=e_2$ . Se comprueba fácilmente que $f(e_1,e_1,e_2,e_2) = 1$ . Por otro lado, $(e^1 \wedge e^2)(e_1,e_2) = e^1(e_1)e^2(e_2) - e^1(e_2)e^2(e_1) = 1$ . Por lo tanto, tenemos $ \lambda =1$ y por lo tanto $$g = e^1 \wedge e^2$$
Algunas observaciones al final:
Si escribes vectores $u$ y $v$ en la base estándar, $(e^1 \wedge e^2)(u,v)$ da el determinante de la $2 \times2 $ matriz cuyas columnas son los coeficientes de $u$ y $v$ . Como es bien sabido, este determinante da el área del paralelogramo abarcado por $u$ y $v$ .
Esto puede generalizarse a dimensiones más altas. En $n$ -espacios vectoriales dimensionales, necesitas $n$ vectores para abarcar un paralelotopo (el $n$ -generalización dimensional del paralelogramo y del paralelepípedo). En más de dos dimensiones, se pueden definir productos de cuña de más de dos funciones lineales (bueno, formalmente también se podría hacer eso en $2$ dimensiones, pero allí todos esos productos superiores son cero). Esas son funciones completamente simétricas de $k$ vectores.
Resulta que para $n$ -espacios vectoriales dimensionales, el espacio de $n$ -formas (productos de cuña de $n$ vectores) tiene siempre una dimensión $1$ así que el $n$ -las formas pueden ser escritas de nuevo como $ \lambda\omega $ donde $ \omega = e^1 \wedge e^2 \wedge\ldots\wedge e^n$ . Ahora se aplica $ \omega $ a $n$ vectores, de nuevo obtienes el determinante de la $n \times n$ matriz cuyas columnas están formadas por los componentes de los vectores en las bases $e_i$ . Ese determinante le da al $n$ -volumen dimensional del paralelotopo abarcado por el $n$ vectores. Por lo tanto $ \omega $ también se llama la forma de volumen.