15 votos

Álgebra lineal con funciones

Básicamente mi pregunta es - ¿Cómo comprobar la independencia lineal entre funciones?

Que el grupo $\mathcal{F}(\mathbb{R},\mathbb{R})$ Ser un grupo de fnciones de valor real.

Es decir $\mathcal{F}(\mathbb{R},\mathbb{R})=\left\{ f:\mathbb{R}\rightarrow\mathbb{R}\right\} $

Sean 3 funciones $f_{1},f_{2},f_{3}$ sea tal que

$\forall x\in\mathbb{R}\,\,\,f_{1}=e^{x},\,\,f_{2}=e^{2x},\,\,f_{3}=e^{3x}$

$W=sp(f_{1},f_{2},f_{3})$ qué es $dim(W)$ ?

¿Cómo abordar esta cuestión? (desde la perspectiva del álgebra lineal)

Sé que $\forall x\in\mathbb{R}\,\,\,W=\alpha e^{x}+\beta e^{2x}+\gamma e^{3x}$

Y para obtener la dimensión necesito encontrar la base de $W$

por lo que necesito comprobar si lo siguiente es cierto :

$\forall x\in\mathbb{R}\,\,\alpha e^{x}+\beta e^{2x}+\gamma e^{3x}=0\,\Leftrightarrow\,\alpha,\beta,\gamma=0$

Sin embargo, cuando $x=0$ Recibo $\alpha+\beta+\gamma=0$ lo que conduce a una cantidad infinita de soluciones.

¿Cómo abordar esta cuestión?

1 votos

Pista: Quieres que sea cero para CADA $x$ no sólo para $x = 0$ .

0 votos

Sé que lo quiero, no sé si puedo alcanzarlo, o cómo comprobar que nunca podré alcanzarlo

0 votos

Me gusta utilizar este método: math.stackexchange.com/a/269694/8157 pero las preguntas y respuestas enlazadas contienen muchas otras.

14voto

Jherico Puntos 12554

Tienes que comprobar si las funciones son independientes, como has dicho.

Una forma de hacerlo, que lo relaciona con cosas que probablemente ya sabes, es evaluarlo en varios puntos, como hiciste para $x=0$ .

Se obtiene una condición para $x=0$ . Se obtiene otra condición para $x=1$ y otro para $x=2$ .

Cada uno permitirá más de una solución, pero sólo tendrán una solución común, que es lo que usted busca.

0 votos

$$\begin{array}{cc} x=0 & \alpha+\beta+\gamma=0\\ x=1 & \alpha e+\beta e^{2}+\gamma e^{3}=0\\ x=2 & \alpha e^{2}+\beta e^{4}+\gamma e^{6}=0 \end{array}$$ $\rightarrow\begin{bmatrix}1 & 1 & 1\\ e & e^{2} & e^{3}\\ e^{2} & e^{4} & e^{6} \end{bmatrix}\rightarrow$ He encontrado esta matriz, el determinante no es cero por lo tanto sólo hay 1 solución lo que significa que $\alpha,\beta,\gamma=0$ para $x=1,2,3$ ¿Cómo ayuda eso?

3 votos

Tenga en cuenta que necesita $\alpha, \beta, \gamma$ que funcionen para todos $x$ al mismo tiempo (no deben depender de $x$ ). Acaba de demostrar que para $\alpha, \beta, \gamma$ trabajar para $x=0,1,2$ ya sólo tienes la opción única todos $0$ . Así que ya está.

12voto

amcalde Puntos 2925

Escriba a $$\alpha e^x + \beta e^{2x} + \gamma e^{3x} = 0$$ Puedes seguir adelante y cancelar un número positivo como $e^x$ Así que..: $$\alpha + \beta e^{x} + \gamma e^{2x} = 0$$ Supongamos que tiene alguna solución para esto con $\alpha$ , $\beta$ , $\gamma$ no todo cero. Entonces, como usted dice $$ \alpha + \beta + \gamma = 0\qquad \qquad (1)$$ Porque esto debe ser cierto en $x = 0$ pero también debe ser cierto en $x = \ln n$ que da: $$ \alpha + \beta n + \gamma n^2= 0\qquad \qquad (2)$$ para cada $n > 1$ . Debería estar claro que esto es irresoluble excepto cuando todos son cero. Pero para insistir en el punto voy a continuar. Sustituyendo en $(1)$ da $\alpha = -\beta - \gamma$ que podemos introducir en $(2)$ para obtener $$ \beta (n-1) + \gamma (n^2 - 1)= 0$$ que debe ser cierto para todos $n > 1$ . Ahora pon, digamos, $n = 2$ y $n = 3$ para obtener el par de ecuaciones: $$ \beta + 3 \gamma = 0 \qquad 2\beta + 8\gamma = 0 $$ Esto resuelve $\beta = \gamma = 0$ .

Así que se demuestra que sus funciones son linealmente independientes.

7voto

Emilio Novati Puntos 15832

Pista:

deje $e^x=y$ , $e^{2x}=y^2$ , $e^{3x}=y^3$ que tienes:

$\alpha y +\beta y^2+ \gamma y^3=0$

donde el $0$ en RHS es el polinomio cero .

Ahora bien: ¿cuándo un polinomio es el polinomio cero?

En general:

En $0$ en el RHS es el elemento neutro para la suma de funciones en el espacio vectorial, no simplemente el número $0$ y esto significa que es la función $f(x)=0\quad \forall x \in \mathbb{R}$ .

0 votos

$$\begin{array}{cc} x=0 & \alpha+\beta+\gamma=0\\ x=1 & \alpha e+\beta e^{2}+\gamma e^{3}=0\\ x=2 & \alpha e^{2}+\beta e^{4}+\gamma e^{6}=0 \end{array}$$ $\rightarrow\begin{bmatrix}1 & 1 & 1\\ e & e^{2} & e^{3}\\ e^{2} & e^{4} & e^{6} \end{bmatrix}\rightarrow$ He encontrado esta matriz, el determinante no es cero por lo tanto sólo hay 1 solución lo que significa que $\alpha,\beta,\gamma=0$ para $x=1,2,3$ ¿como ayuda eso? ¿que es RHS? buscar en google no ayuda :(

0 votos

El hecho clave es que en $\alpha f_1+\beta f_2+\gamma f_3=0$ En $0$ es el función cero es decir, una función que es nula para todos los valores de $x$ en el dominio. Su sistema lineal muestra que puede encontrar valores para $\alpha, \beta, \gamma$ tal que $\alpha f_1+\beta f_2+\gamma f_3=0$ es cierto para algún valor de $x$ pero no para todos los valores posibles.

5voto

MrYouMath Puntos 1809

Sugerencia: Utilice Wronskian y demostrar que el Wronskian-Determinante no vansish.

5voto

David K Puntos 19172

Tiene que demostrar $$ \forall x\in\mathbb{R}:\alpha e^{x}+\beta e^{2x}+\gamma e^{3x}=0\Leftrightarrow\alpha,\beta,\gamma=0, $$

pero creo que el cuantificador sólo se aplica a la parte de la izquierda de la $\Leftrightarrow$ así: $$ \left(\forall x\in\mathbb{R}:\alpha e^{x}+\beta e^{2x}+\gamma e^{3x}=0\right) \Leftrightarrow\,\alpha,\beta,\gamma=0. $$

Así, por ejemplo $\alpha = -1, \beta = 1, \gamma = 0$ satisface $\alpha e^{x}+\beta e^{2x}+\gamma e^{3x}=0$ cuando $x=0$ , pero no satisface la ecuación para todos valores de $x$ .

Si tuvieras que demostrar $$ \forall x\in\mathbb{R}:\left(\alpha e^{x}+\beta e^{2x}+\gamma e^{3x}=0 \Leftrightarrow\,\alpha,\beta,\gamma=0\right) $$ entonces tendrías problemas, porque esa afirmación no es cierta; pero no es así como probamos la independencia de las funciones, así que no necesitas preocuparte por eso.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X