25 votos

¿Por qué las matrices de Vandermonde son invertibles?

Una matriz de Vandermonde es una matriz de esta forma:

$$\begin{pmatrix} x_0^0 & \cdots & x_0^n \\ \vdots & \ddots & \vdots \\ x_n^0 & \cdots & x_n^n \end{pmatrix} \in \mathbb{R}^{(n+1) \times (n+1)}$$ .

condición : $\forall i, j\in \{0, \dots, n\}: i\neq j \Rightarrow x_i \neq x_j$

¿Por qué las matrices de Vandermonde son siempre invertibles?

He tratado de encontrar un breve argumento para ello. Conozco algunas formas de demostrarlo en principio:

  • rango es igual a la dimensión
  • todas las líneas / filas son de independencia lineal
  • el determinante no es cero
  • encontrar el inverso

Según proofwiki el determinante es

$$\displaystyle V_n = \prod_{1 \le i < j \le n} \left({x_j - x_i}\right)$$

Hay dos pruebas para este determinante, pero me he preguntado si hay una forma más sencilla de demostrar que tales matrices son invertibles.

1 votos

¿Más sencillo que conocer su determinante y comprobar muy fácilmente que no puede ser cero por los datos dados? Lo dudo...

2 votos

Primero tienes que demostrar el determinante. Estoy contigo en que comprobarlo con el determinante es fácil, pero supongo que hay formas más fáciles que las dos pruebas de proofwiki para demostrar que es invertible.

1 votos

El determinante de Vandermonde es distinto de cero $\implies$ la matriz de Vandermonde es invertible

40voto

freespace Puntos 9024

Esto no es totalmente diferente a la respuesta ya publicada por Chris Godsil, pero voy a publicar esto de todos modos, tal vez puede proporcionar un ángulo ligeramente diferente para alguien que trata de entender esto.

Queremos demostrar que la matriz
$$\begin{pmatrix} x_0^0 & \cdots & x_0^n \\ \vdots & \ddots & \vdots \\ x_n^0 & \cdots & x_n^n \end{pmatrix}$$
es invertible.

Basta con demostrar que el filas las columnas de esta matriz son linealmente independientes.

Así que supongamos que $c_0v_0+c_1v_1+\dots+c_nv_n=\vec 0=(0,0,\dots,0)$ , donde $v_j=(x_0^j,x_1^j,\dots,x_n^j)$ es el $j$ -el fila columna escrita como un vector y $c_0,\dots,c_n\in\mathbb R$ .

Luego nos subimos a la $k$ -ésima coordenada
$$c_0+c_1x_k+c_2x_k^2+\dots+c_nx_k^n=0,$$ lo que significa que $x_k$ es una raíz del polinomio $p(x)=c_0+c_1x+c_2x^2+\dots+c_nx^n$ .

Ahora bien, si el polinomio $p(x)$ de grado como máximo $n$ tiene $(n+1)$ diferentes raíces $x_0,x_1,\dots,x_n$ debe ser el polinomio cero y obtenemos que $c_0=c_1=\dots=c_n=0$ .

Esto demuestra que los vectores $v_0,v_1,\dots,v_n$ son linealmente independientes. (Y, a su vez, obtenemos que la matriz dada es invertible).

0 votos

Siento molestar, pero estoy un poco confundido. Por lo que ha escrito para el $k$ -Coordenada. ¿No sería la $v_i$ ¿tienen que ser las columnas de la matriz escritas como vectores? En cuyo caso, has demostrado que las columnas son LID, lo que también demuestra que la matriz es invertible, pero sólo quería aclararlo. Gracias.

0 votos

Gracias por tu comentario @TerrenceJ he intentado corregir mi respuesta.

16voto

Keltia Puntos 8104

Dejemos que $V$ ser su matriz de Vandermonde. Si $p(t)=a_0+a_1t+\cdots+a_nt^n$ y $\alpha$ es el vector de coeficientes de $p$ entonces las entradas de $V\alpha$ son los valores de $p$ en los puntos $x_0,\ldots,x_n$ .

Ahora para $r=0,\ldots,n$ elegir polinomios $p_r$ de grado $n$ para que $p(x_r)=1$ y $p(x_s)=0$ si $s\ne r$ . Entonces la matriz con los coeficientes de los polinomios $p_r$ ya que sus columnas son la inversa de $V$ .

Esto es, por supuesto, sólo una forma de ver la interpolación de Lagrange.

0 votos

¿Por qué la matriz con los coeficientes de los polinomios $p_r$ como sus columnas la inversa de $V$ ?

0 votos

Porque cuando se multiplica por $V$ se obtiene la identidad. La cuestión es que $V$ aplicado a los coeficientes de $p_r$ devuelve el $r$ -ésimo vector de base estándar.

0 votos

De acuerdo, pero cuando escribes "ahora [...] elige polinomios [...] para que $p(x_r)=1$ y $p(x_s) = 0$ si $s \neq r$ "¿acaso no usas ya eso $V$ es invertible? ¿Por qué se pueden elegir polinomios así?

3voto

Joe Gauterin Puntos 9526

Para cualquier $n+1$ números distintos $x_0, \ldots, x_n \in \mathbb{R}$ , dejemos que $V(x_0,\ldots,x_n)$ y $D(x_0,\ldots,x_n)$ sea una matriz de Vandermonde y su determinante:

$$V(x_0,\ldots,x_n) = \begin{pmatrix} x_0^0 & \cdots & x_0^n \\ \vdots & \ddots & \vdots \\ x_n^0 & \cdots & x_n^n \end{pmatrix}\quad\text{ and }\quad D(x_0,\ldots,x_n) = \det V(x_0,\ldots,x_n) $$

Está claro que $D(x_0) = 1 \ne 0$ . Supongamos que $D(x_0,\ldots,x_{m}) \ne 0$ para algunos $m < n$ y considerar lo que ocurre con $D(x_0,\ldots,x_{m+1})$ .

Visto en función de su último argumento $x_{m+1}$ , $D(x_0,\ldots,x_m,x)$ es un polinomio en $x$ con grado como máximo $m+1$ . Como este polinomio desaparece en $m+1$ valores diferentes $x_0, \ldots, x_{m}$ ya, no puede desaparecer en ningún otro $x$ (en particular en $x_{m+1}$ ). Por lo demás, $D(x_0,\ldots,x_m,x)$ será idéntico a cero.

Sabemos que $D(x_0,\ldots,x_m,x)$ no es el polinomio cero. El coeficiente principal de $x^{m+1}$ en $D(x_0,\ldots,x_m,x)$ es proporcional a $D(x_0,\ldots,x_m)$ que es distinto de cero por la hipótesis de la inducción.

Por inducción, podemos concluir $D(x_0,\ldots,x_n) \ne 0$ y por lo tanto $V(x_0,\ldots,x_n)$ es invertible.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X