Ambas construcciones son de la forma $\det(D)$ para
$$ D = \begin{pmatrix} \varphi_1(v_1) & \varphi_1(v_2) & \dots & \varphi_1(v_n) \\ \vdots & \vdots & \ddots & \vdots \\ \varphi_n(v_1) & \varphi_n(v_2) & \dots & \varphi_n(v_n) \end{pmatrix}. $$
donde $v_1,\dots,v_n \in V$ son vectores y $\varphi_i \in V^{*}$ son funcionales lineales sobre $V$ . Para el primer caso, tenemos $\varphi_i(v) = \left< v, v_i \right>$ mientras que en el segundo caso tenemos $\varphi_i(f) = f^{(i-1)}(x)$ . Otro ejemplo de esta construcción es la (transposición de la) Determinante de Vandermonde para lo cual $v_1 = 1, v_2 = x, \dots, v_n = x^{n-1}$ y $\varphi_i(f) = f(\alpha_i)$ .
Set $U = \operatorname{span} \{ v_1, \dots, v_n \}$ . Esta construcción es útil por varias razones:
- Si $v_1, \dots, v_n$ son linealmente dependientes, entonces $\det D = 0$ . Esto nos da una condición suficiente (pero en general no necesaria) para comprobar la independencia lineal entre vectores. La razón de que si tenemos una relación no trivial $\sum_{i=1}^n a_i v_i = 0$ podemos aplicar los funcionales $\varphi_j$ a ella y obtener $n$ relaciones lineales $$ \varphi_j \left( \sum_{i=1}^n a_i v_i \right) = \sum_{i=1}^n a_i \varphi_j(v_i) = 0 $$ para todos $1 \leq j \leq n$ . En notación matricial, tenemos $$ a_1 \begin{pmatrix} \varphi_1(v_1) \\ \vdots \\ \varphi_n(v_1) \end{pmatrix} + \dots + a_n \begin{pmatrix} \varphi_1(v_n) \\ \vdots \\ \varphi_n(v_n) \end{pmatrix} = \begin{pmatrix} 0 \\ \vdots \\ 0 \end{pmatrix} $$ lo que implica que las columnas de $D$ son linealmente dependientes por lo que $\det D = 0$ . Por lo tanto, si $\det D \neq 0$ los vectores $v_1,\dots,v_n$ son linealmente independientes. Por ejemplo, se puede utilizar esto y el cálculo del determinante de Vandermonde o del Wronskiano para demostrar que las funciones $1,x,\dots,x^{n-1}$ son linealmente independientes.
- Si $\det D \neq 0$ el espacio vectorial $U$ es $n$ -y dado $y_1,\dots,y_n \in \mathbb{F}$ podemos encontrar un único $v \in U$ tal que $\varphi_i(v) = y_i$ . Para el determinante de Vandermonde, esto demuestra que si $\alpha_i \neq \alpha_j$ para $i \neq j$ podemos encontrar un único polinomio de grado $\leq n$ que pasa por los puntos $(\alpha_1, y_1), \dots, (\alpha_n, y_n)$ . Para el Wronskian, esto significa que podemos encontrar una función única $f$ que es una combinación lineal de $f_1,\dots,f_n$ que satisface $f(x) = y_1, f'(x) = y_2, \dots, f^{(n-1)}(x) = y_n$ que es importante para establecer las condiciones iniciales de una EDO lineal. Para la matriz de Gram, esto significa que podemos especificar un vector en $U$ especificando sus proyecciones en $v_1,\dots,v_n$ .
- Por dualidad, si $\det D \neq 0$ entonces no sólo el $v_i$ son linealmente independientes, pero también los funcionales lineales $\varphi_i$ . Para la matriz de Vandermonde, esto demuestra que las funciones de evaluación en puntos distintos son linealmente independientes. Esto también demuestra que $\varphi_1|_{U}, \dots, \varphi_n|_{U}$ forman una base para $U^{*}$ . Esto se utiliza, por ejemplo, en la construcción de esquemas de integración numérica que son exactos para los polinomios hasta un cierto grado.
Más allá de esta similitud, existen importantes diferencias entre los distintos casos:
- Para la matriz de Gram, tenemos $\det D = 0$ si y sólo si los vectores $v_1,\dots,v_n$ son linealmente dependientes. La matriz $D$ es siempre hermitiana (incluso semidefinida positiva).
- Para el Wronskian, podríamos tener $\det D = 0$ y sin embargo $v_1,\dots,v_n$ son linealmente independientes. Además, la matriz $D$ no es en general hermitiana.