6 votos

Demostrar que estas funciones son linealmente independientes

Dado $ \alpha_1 > \alpha_2 > \cdots > \alpha_n \geq 0$, $f_1(x)= e^{-\alpha_1x},..., f_n(x)=e^{-\alpha_nx}$, demostrar que son linealmente independientes . Sugerencia: no olvide el límite de $ x \rightarrow \infty $.

Ya he visto las pruebas sobre las mismas preguntas. Lo que tienes que hacer es establecer la combinación de estas funciones (o polinomios) igual a 0 y mostrar que todos los coeficientes tienen que ser 0. Pero aquí, los coeficientes son en el exponente, que no pueden ser iguales entre sí, y el exponente negativo me descoloca un poco.

Gracias por tu ayuda.

7voto

Dachi Imedadze Puntos 6

Usted puede utilizar el determinante de Vandermonde.

Deje $$\beta_1e^{-\alpha_1x} + \cdots + \beta_ne^{-\alpha_1x} = 0$$

Conectar $x = 0, 1, \ldots, n-1$ rendimientos:

$$\beta_1 + \cdots + \beta_n = 0$$ $$\beta_1e^{-\alpha_1} + \cdots + \beta_ne^{-\alpha_n} = 0$$ $$\beta_1e^{-2\alpha_1} + \cdots + \beta_ne^{-2\alpha_n} = 0$$ $$\vdots$$ $$\beta_1e^{-(n-1)\alpha_1} + \cdots + \beta_ne^{-(n-1)\alpha_n} = 0$$ El determinante de este sistema lineal es el determinante de Vandermonde:

$$\begin{vmatrix} 1 & 1 & \cdots & 1\\ e^{-\alpha_1} & e^{-\alpha_2} & \cdots & e^{-\alpha_n}\\ e^{-2\alpha_1} & e^{-2\alpha_2} & \cdots & e^{-2\alpha_n}\\ \vdots & \vdots & \ddots & \vdots\\ e^{-(n-1)\alpha_1} & e^{-(n-1)\alpha_2} & \cdots & e^{-(n-1)\alpha_n}\\ \end{vmatrix} = \prod_{1 \le i < j \le n} e^{-\alpha_j} - e^{-\alpha_i}) \ne 0$$

debido a $e^{-\alpha_i} \ne e^{-\alpha_j}$ todos los $i \ne j$. Por lo tanto, el sistema tiene solución única $\beta_1= \beta_2 = \cdots = \beta_n = 0$, lo que implica independencia lineal.


Otra solución con el uso de Vandermonde.

Asumir

$$\beta_1e^{-\alpha_1x} + \cdots + \beta_ne^{-\alpha_1x} = 0$$

Tomando la derivada $n-1$ los tiempos de los rendimientos:

$$\beta_1e^{-\alpha_1x} + \cdots + \beta_ne^{-\alpha_nx} = 0$$ $$-\alpha_1\beta_1e^{-\alpha_1x} - \cdots - \alpha_n\beta_ne^{-\alpha_nx} = 0$$ $$\alpha_1^2\beta_1e^{-\alpha_1x} + \cdots + \alpha_n^2\beta_ne^{-\alpha_nx} = 0$$ $$\vdots$$ $$\alpha_1^{n-1}(-1)^{n-1}\beta_1e^{-\alpha_1x} + \cdots - \alpha_n^{n-1}(-1)^{n-1}\beta_ne^{-\alpha_nx} = 0$$

El determinante de este sistema lineal es de nuevo el determinante de Vandermonde:

$$\begin{vmatrix} e^{-\alpha_1x} & e^{-\alpha_2x} & \cdots & e^{-\alpha_nx}\\ (-\alpha_1)e^{-\alpha_1} & (-\alpha_2)e^{-\alpha_2} & \cdots & (-\alpha_n)e^{-\alpha_n}\\ (-\alpha_1)^2e^{-2\alpha_1} & (-\alpha_2)^2e^{-2\alpha_2} & \cdots & e^{-2\alpha_n}\\ \vdots & \vdots & \ddots & \vdots\\ (-\alpha_1)^{n-1}e^{-(n-1)\alpha_1} & (-\alpha_2)^{n-1}e^{-(n-1)\alpha_2} & \cdots & (-\alpha_n)^{n-1}e^{-(n-1)\alpha_n}\\ \end{vmatrix}$$ $$ = e^{-\alpha_1x}\cdots e^{-\alpha_nx} \begin{vmatrix} 1 & 1 & \cdots & 1\\ -\alpha_1 & -\alpha_2 & \cdots & -\alpha_n\\ (-\alpha_1)^2 & (-\alpha_2)^2 & \cdots & (-\alpha_n)^2\\ \vdots & \vdots & \ddots & \vdots\\ (-\alpha_1)^{n-1} & (-\alpha_2)^{n-1} & \cdots & (-\alpha_n)^{n-1}\\ \end{vmatrix} =e^{-\alpha_1x}\cdots e^{-\alpha_nx} \prod_{1 \le i < j \le n} (\alpha_i - \alpha_j) \ne 0$$

debido a $\alpha_i \ne \alpha_j$ todos los $i \ne j$. Por lo tanto, el sistema tiene solución única $\beta_1= \beta_2 = \cdots = \beta_n = 0$, lo que implica independencia lineal.

5voto

user299698 Puntos 96

Sugerencia. Si son linealmente dependientes entonces no existe $c_1,\dots,c_n$ no todos cero, tales que para $x\in \mathbb{R}$, $$c_1e^{-\alpha_1 x}+\dots +c_ne^{-\alpha_n x}=0.$$ Podemos suponer que la $0\not=c_i=c_{i+1}=\dots =c_n=0$, luego $$c_1e^{-\alpha_1 x}+\dots+c_{i-1}e^{-\alpha_{i-1} x}+c_ie^{-\alpha_{i} x}=0,$$ y después de multiplicar ambos lados por $e^{\alpha_{i} x}$ tenemos $$c_1e^{(\alpha_i-\alpha_1) x}+\dots+c_{i-1}e^{(\alpha_i-\alpha_{i-1}) x}+c_i=0.$$ Ahora tenga en cuenta que$\alpha_i-\alpha_k<0$$k=1,\dots, i-1$, y tomar el límite cuando $x\to +\infty$. ¿Qué podemos concluir acerca de la $c_i$?

P. S. tenga en cuenta que la sugerencia funciona también sin la condición de $\alpha_n\geq 0$.

2voto

rae306 Puntos 4523

Como de costumbre, vamos a considerar $$\beta_1 e^{-\alpha_1 x}+\beta_2 e^{-\alpha_2 x}=0$$

Dividiendo por $e^{-\alpha_2 x}$ da $$\beta_1 e^{-(\alpha_1-\alpha_2)x}+\beta_2=0$$ Dejando $x\to\infty$ vemos que $e^{-(\alpha_1-\alpha_2)x}\to 0$ desde $\alpha_1>\alpha_2\geqslant 0$. Por lo tanto,$\beta_2=0$. Desde $e^{-\alpha_1x}>0$ todos los $x$, también tenemos $\beta_1=0$. Por lo tanto, $\{e^{-\alpha_1 x}, e^{-\alpha_2 x}\}$ es linealmente independiente.

Estoy seguro de que usted puede probar ahora para el caso más general.

1voto

Acccumulation Puntos 13

Lo que tienes que hacer es establecer la combinación de estas funciones (o polinomios) igual a 0 y mostrar que todos los coeficientes tienen que ser 0.

Usted puede tomar la Serie de Taylor y hacer la misma cosa. Otra táctica es tener en cuenta que son ortogonales cuando restringidas para el eje imaginario.

1voto

Emmanuel Amiot Puntos 66

Tenga en cuenta que el Vandermonde pruebas, aunque más largo, también funciona cuando el $\alpha$'s son complejos no necesariamente los números reales.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X