7 votos

Demostrando que $\{ 1, \cos t, \cos^2 t, \dots, \cos^6 t \}$ es un conjunto linealmente independiente

El problema es:

Demuestra que $\{ 1, \cos t, \cos^2 t, \dots, \cos^6 t \}$ es un conjunto de funciones linealmente independientes definidas en $\mathbb{R}$ .

El problema espera que el alumno utilice un programa informático como Matlab.

Para resolver el problema he creado una matriz en Matlab con $t$ que van desde $1$ a $7$ y luego la reduje en filas y obtuve la matriz identidad como resultado. Es decir, las columnas de la matriz son linealmente independientes.

¿Es suficiente con presentarse para $t=1\to 7$ ¿no podría romperse en algún otro número? ¿Y hay una manera más elegante de resolver esto sin el uso de la "fuerza bruta"?

Aquí está el código de Matlab si es necesario:

for t = 1:7
A(t,:) = [1 cos(t) (cos(t))^2 (cos(t))^3 (cos(t))^4 (cos(t))^5 (cos(t))^6];
end

22voto

Oli Puntos 89

El enfoque computacional que has utilizado funciona bien. Para nuestra colección particular de funciones, o más generalmente para el poderes de una sola función $f(t)$ Hay un enfoque directo no computacional. Además, el argumento que se expone a continuación funciona igualmente bien para $666$ como lo hace para $6$ .

Supongamos por el contrario que nuestra colección $\{1,\cos t, \cos^2 t, \dots, \cos^6 t\}$ de funciones no es linealmente independiente. Entonces hay constantes $a_0, a_1, \dots, a_6$ no todos $0$ , de tal manera que $$a_0+a_1 \cos t +a_2 \cos^2 t +\cdots +a_6 \cos^6 t=0 \quad\text{ for all $ t $}.$$

Dejemos que $P(x)=a_0+a_1x+a_2x^2+\cdots +a_6x^6$ . No todos los coeficientes $a_i$ son $0$ por lo que la ecuación $P(x)=0$ tiene como máximo $6$ soluciones. (Un polinomio no nulo de grado $\le n$ tiene como máximo $n$ raíces). Por lo tanto, si podemos demostrar que la función $\cos t$ puede asumir más de $6$ diferentes valores, obtenemos la contradicción deseada.

Pero $\cos t$ toma un número infinito de valores diferentes como $t$ se extiende sobre los reales, o incluso sobre cualquier intervalo de longitud no nula. Esto completa la prueba.

6voto

Lorin Hochstein Puntos 11816

Dos comentarios:

  1. Suponga que tiene funciones $f_1(t)$ , $f_2(t),\ldots,f_k(t)$ y que son linealmente dependiente en el espacio vectorial de todas las funciones de valor real. Esto significa que se pueden encontrar números reales $\alpha_1,\ldots,\alpha_k$ tal que $$\alpha_1 f_1(t)+\cdots + \alpha_k f_k(t) = 0.$$ Esto significa que para cualquier valor $a$ de $t$ Tendrá $$\alpha_1f_1(a) + \cdots + \alpha_k f_k(a) = 0.$$ En particular, si elige $k$ diferentes valores para $t$ , $a_1,\ldots,a_k$ Entonces lo has hecho: $$\begin{align*} \alpha_1f_1(a_1) + \cdots + \alpha_k f_k(a_1) &= 0\\ \alpha_1f_1(a_2) + \cdots + \alpha_k f_k(a_2) &= 0\\ &\cdots\\ \alpha_1f_1(a_k) + \cdots + \alpha_k f_k(a_k) &= 0 \end{align*}$$ lo que a su vez significa que: $$\alpha_1 \left(\begin{array}{c}f_1(a_1)\\f_1(a_2)\\ \vdots \\ f_1(a_k)\end{array}\right) +\alpha_2\left(\begin{array}{c}f_2(a_1)\\f_2(a_2)\\\vdots\\f_2(a_k)\end{array}\right) + \cdots + \alpha_k\left(\begin{array}{c}f_k(a_1)\\f_k(a_2)\\\vdots\\f_k(a_k)\end{array}\right) = \left(\begin{array}{c}0\\0\\\vdots\\0\end{array}\right),$$ por lo que las columnas de la matriz correspondiente son linealmente dependientes, por lo que la matriz correspondiente es singular.

    Por contraposición, si la matriz que se obtiene evaluando las funciones en $k$ diferentes puntos como usted lo hizo es nonsingular entonces las funciones tienen que ser lineales independiente como usted concluye.

    Sin embargo, Pero lo contrario no es cierto: puede ser que tengas "mala suerte" y evalúes en puntos donde la matriz es singular, aunque las funciones no lo sean. Si en lugar de utilizar $t=1,2,\ldots,7$ que había utilizado $t=\pi,2\pi,\ldots,7\pi$ tu matriz habría sido singular, a pesar de que las funciones son, como concluiste, linealmente independientes. Así que la matriz que no es singular es suficiente pero no es necesario para que las funciones sean linealmente independientes.

  2. En cuanto a otros métodos para hacer esto... (comentario dos): la manera estándar cuando tus funciones pueden ser diferenciadas suficientes veces (como pueden serlo aquí), es usar el Wronskian .

3voto

codemac Puntos 689

La igualdad $$ \cos x=\frac{e^{ix}+e^{-ix}}{2} $$ muestra que $(\cos x)^n$ siendo un polinomio de grado $n$ en $e^{ix}$ y $e^{-ix}$ es no una combinación lineal de potencias inferiores de $\cos x$ .

El hecho (implícitamente utilizado) de que las funciones $e^{inx}$ son linealmente independientes se deduce de la igualdad $$ \frac{d}{dx}\ e^{inx}=in\ e^{inx}. $$

1voto

Grant Puntos 116

El sistema de funciones $f_i,i=1,2,...,n$ es linealmente independiente en algún conjunto $A$ si la condición

$\qquad\qquad\qquad\qquad\qquad\qquad\qquad\qquad\qquad \displaystyle \sum\limits_{i}\alpha_i f_i(x) = 0$ para todos $x\in A$

se satisface sólo para $\alpha_i = 0$ para todos $i=1,...,n$ . Por lo tanto, debes resolver tantas ecuaciones como elementos haya en $A$ . Por otro lado, basta con tomar sólo algunos elementos de $A$ para demostrar que $$ \sum\limits_{i}\alpha_i f_i(x_j) = 0 $$ para todos $j=1,...,m$ implica que $\alpha_i = 0$ para todos $i$ .

Yo diría que en tu caso es suficiente con considerar $8$ puntos $x_j$ para obtener el sistema de ecuaciones lineales sobredeterminado en $\alpha_i$ desde $n=7$ en su caso y obtener el sistema sobredeterminado normalmente es suficiente con tener $n+1$ ecuación.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X