1 votos

Formas más sencillas de demostrar que una lista de polinomios es linealmente independiente

¿Cuáles son las formas más fáciles y metódicas de demostrar la independencia lineal de $1,x,x^2,...,x^n$ en $\mathcal{P}(\textbf{F})$ para cada entero no negativo $n$ .

He visto este método. ¿Es una forma adecuada?

Supongamos que la lista es linealmente dependiente.

Dejemos que $j$ sea el mayor índice de $\{0,...,n\}$ tal que $a_j \neq 0$

Entonces $a_0+a_1x+\dots+a_nx^n=0\implies$ , $x^j=\frac{1}{a_j}(-a_0-\dots-a_{j-1}x^{j-1})$ expresando $x^j$ como un polinomio de grado $j-1$ una contradicción.

Otros métodos:

Desde $a_0+a_1x+\dots+a_nx^n=0$ es válida para todos los $n$ ,

se obtiene el sistema de ecuaciones

$a_0=0$

$a_0+a_1+\dots+ a_n=0$

$a_0+2a_1+\dots+a_n(2)^n=0$

$\dots$

$a_0+a_1(n+1)+\dots+a_n(n+1)^n=0$

El determinante de la matriz de coeficientes de este sistema de ecuaciones es distinto de cero, lo que implica $a_1=\dots=a_n=0$

¿Es adecuado este método sin utilizar la inducción?

También este método:

$a_0+a_1x+\dots+a_nx^n=0$

Enchufar $0$ rinde $a_0=0$

diferenciando ambos lados,

$2a_2+\dots+na_nx^{n-1}=0$

conectando $0$ rinde $a_n=0$ y así sucesivamente.

¿Es apropiado este método sin el uso de la inducción?

Si estos métodos deben ser probados usando la inducción (los dos últimos) puede alguien mostrarme cómo hacerlo. Tengo problemas para demostrar los dos últimos resultados por inducción. Gracias

5voto

icc97 Puntos 242

Hay dos formas de definir los polinomios sobre $\mathbb F$ .

  1. Usted lo define como combinaciones formales $$\sum_{i=0}^n a_ix^i$$ y definir las operaciones de la forma habitual.
  2. Un polinomio es una función $f: \mathbb F \to \mathbb F$ dado por $$f(x)=\sum_{i=0}^n a_ix^i.$$

La primera definición es la que utilizamos cuando trabajamos con el campo general. Estas definiciones no son equivalentes en general. Por ejemplo, para $\mathbb F = \mathbb Z/2\mathbb Z$ tenemos el polinomio no trivial $f(x)=x^2+x$ pero $f(0)=f(1)=0$ . Por lo tanto, este $f$ es un polinomio no trivial, pero es la función cero si pensamos en $f$ como función.

Sin embargo, si $\mathbb F$ es infinito, entonces las dos definiciones coinciden, como es el caso de $\mathbb F=\mathbb Q,\mathbb R,\mathbb C$ por ejemplo. Para demostrar que mostramos las funciones $x^i:\mathbb F \to \mathbb F$ son linealmente independientes. Consideremos una combinación lineal de las funciones $x^i$ : $$ f(x)=\sum_{i=0}^n a_i x^i = 0. $$ Tenemos que demostrar los coeficientes $a_i$ son cero. Toma $n+1$ puntos distintos por pares $x_0, \ldots,x_n$ de $\mathbb F$ que existen porque este campo es infinito. Entonces tenemos el sistema \begin{align*} f(x_0)&=0 \\ f(x_1)&=0 \\ \vdots& \\ f(x_n)&=0 \end{align*} que se puede escribir en forma de matriz como $$\begin{pmatrix} 1 & x_0 & x_0^2 & \cdots & x_0^n\\ 1 & x_1 & x_1^2 & \cdots & x_1^n\\ \vdots & & \vdots & \ddots & \vdots\\ 1 & x_n & x_n^2 & \cdots & x_n^n\\ \end{pmatrix}\begin{pmatrix} a_0\\ a_1\\ \vdots\\ a_n \end{pmatrix}=0. $$

La matriz $\begin{pmatrix} 1 & x_0 & x_0^2 & \cdots & x_0^n\\ 1 & x_1 & x_1^2 & \cdots & x_1^n\\ \vdots & & \vdots & \ddots & \vdots\\ 1 & x_n & x_n^2 & \cdots & x_n^n\\ \end{pmatrix}$ se llama Matriz de Vandermonde y su determinante es $\Pi_{j<i}(x_i-x_j)$ que es distinto de cero, porque los puntos $x_j$ son todos distintos por pares. Por lo tanto, del sistema lineal anterior concluimos que $a_i$ son cero y, por tanto, las funciones $x^i$ son linealmente independientes.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X