Ambas construcciones son de la forma det(D) para
D=(φ1(v1)φ1(v2)…φ1(vn)⋮⋮⋱⋮φn(v1)φn(v2)…φn(vn)).
donde v1,…,vn∈V son vectores y φi∈V∗ son funcionales lineales sobre V . Para el primer caso, tenemos φi(v)=⟨v,vi⟩ mientras que en el segundo caso tenemos φi(f)=f(i−1)(x) . Otro ejemplo de esta construcción es la (transposición de la) Determinante de Vandermonde para lo cual v1=1,v2=x,…,vn=xn−1 y φi(f)=f(αi) .
Set U=span{v1,…,vn} . Esta construcción es útil por varias razones:
- Si v1,…,vn son linealmente dependientes, entonces detD=0 . Esto nos da una condición suficiente (pero en general no necesaria) para comprobar la independencia lineal entre vectores. La razón de que si tenemos una relación no trivial ∑ni=1aivi=0 podemos aplicar los funcionales φj a ella y obtener n relaciones lineales φj(n∑i=1aivi)=n∑i=1aiφj(vi)=0 para todos 1≤j≤n . En notación matricial, tenemos a1(φ1(v1)⋮φn(v1))+⋯+an(φ1(vn)⋮φn(vn))=(0⋮0) lo que implica que las columnas de D son linealmente dependientes por lo que detD=0 . Por lo tanto, si detD≠0 los vectores v1,…,vn son linealmente independientes. Por ejemplo, se puede utilizar esto y el cálculo del determinante de Vandermonde o del Wronskiano para demostrar que las funciones 1,x,…,xn−1 son linealmente independientes.
- Si detD≠0 el espacio vectorial U es n -y dado y1,…,yn∈F podemos encontrar un único v∈U tal que φi(v)=yi . Para el determinante de Vandermonde, esto demuestra que si αi≠αj para i≠j podemos encontrar un único polinomio de grado ≤n que pasa por los puntos (α1,y1),…,(αn,yn) . Para el Wronskian, esto significa que podemos encontrar una función única f que es una combinación lineal de f1,…,fn que satisface f(x)=y1,f′(x)=y2,…,f(n−1)(x)=yn que es importante para establecer las condiciones iniciales de una EDO lineal. Para la matriz de Gram, esto significa que podemos especificar un vector en U especificando sus proyecciones en v1,…,vn .
- Por dualidad, si detD≠0 entonces no sólo el vi son linealmente independientes, pero también los funcionales lineales φi . Para la matriz de Vandermonde, esto demuestra que las funciones de evaluación en puntos distintos son linealmente independientes. Esto también demuestra que φ1|U,…,φn|U forman una base para U∗ . Esto se utiliza, por ejemplo, en la construcción de esquemas de integración numérica que son exactos para los polinomios hasta un cierto grado.
Más allá de esta similitud, existen importantes diferencias entre los distintos casos:
- Para la matriz de Gram, tenemos detD=0 si y sólo si los vectores v1,…,vn son linealmente dependientes. La matriz D es siempre hermitiana (incluso semidefinida positiva).
- Para el Wronskian, podríamos tener detD=0 y sin embargo v1,…,vn son linealmente independientes. Además, la matriz D no es en general hermitiana.