Tengo un sistema lineal de ecuaciones diferenciales:
$$ \dot{x}(t) = Ax(t) + Bu(t), \quad x(0) = x_0, \quad \forall t \geq 0. $$
Tenemos $x(t) \in \mathbb{R}^n$ , $A \in \mathbb{R}^{n\times n}$ , $B \in \mathbb{R}^{n\times m}$ . La notación de puntos denota una derivada con respecto al tiempo $t$ .
Dejemos que $\{v_1, v_2, \dots, v_n\}$ sea un conjunto de vectores propios linealmente independientes correspondientes a los valores propios $\{\lambda_1, \lambda_2, \dots, \lambda_n\}$ de $A$ .
Quiero demostrar que existen funciones $\alpha_i(t)$ et $\beta_i(t)$ para $i = 1, 2, \dots, n$ tal que
$$ x(t) = \alpha_1(t)v_1 + \dots + \alpha_n(t)v_n, \qquad \qquad Bu(t) = \beta_1(t)v_1 + \dots + \beta_n(t)v_n. $$
Intento:
Desde $x(t) \in \mathbb{R}^n$ y el conjunto de $n$ los vectores propios son linealmente independientes, abarcan $\mathbb{R}^n$ y así formar una base.
Así, para cualquier $t$ , incluyendo $t = 0$ se puede representar como una combinación lineal $x(t) = \alpha_1(t)v_1 + \dots + \alpha_n(t)v_n$ . ( ¿Puedo decir esto? )
Si tomamos la derivada con respecto al tiempo, tenemos:
$$ \dot{x}(t) = \dot{\alpha}_1(t)v_1 + \dots + \dot{\alpha}_n(t)v_n $$
Además, como son vectores propios, tenemos: $$ \begin{aligned} Ax(t) &= A[\alpha_1(t)v_1 + \dots + \alpha_n(t)v_n] \\ &= \alpha_1(t)\lambda_1v_1 + \dots + \alpha_n(t)\lambda_2v_n \end{aligned} $$
Pero $\dot{x}(t)$ también satisface la ecuación: $$ \dot{x}(t) = Ax + Bu $$
Así, restando la segunda ecuación $Ax$ de la primera ecuación $\dot{x}(t)$ tenemos: $$ Bu(t) = \dot{x}(t) - Ax(t) = [\dot{\alpha}_1(t) - \lambda_1\alpha_1(t)]v_1 + \dots + [\dot{\alpha}_n(t) - \lambda_n\alpha_n(t)]v_n, $$ donde $\beta_1(t) = \dot{\alpha}_1(t) - \lambda_1\alpha_1(t), \dots, \beta_n(t) = \dot{\alpha}_n(t) - \lambda_n\alpha_n(t)$ .
No estoy seguro de que la prueba anterior intentada sea correcta, ¿alguien puede comprobarlo y señalar cualquier lógica falsa?