También podemos usar Álgebra Lineal para resolver
Ecuaciones Diferenciales Ordinarias
Una EDO tiene la forma
$$\underline{u}'(t) = A \underline{u}(t) + \underline{b}(t)$$
con $A \in \mathbb{C}^{n \times n}$ y $\underline{b}(t) \in \mathbb{C}^{n \times 1}$. Si tenemos una condición inicial
$$\underline{u}(t_0) = \underline{u_0}$$
esto es un problema de valor inicial. Suponiendo que las entradas de $\underline{b}(t)$ son continuas en $[t_0,T]$ para algún $T > t_0$, Picard-Lindelöf proporciona una solución única en ese intervalo. Si $A$ es diagonalizable, la solución del problema de valor inicial homogéneo es fácil de calcular.
Sea
$$P^{-1} A P = \Lambda = \operatorname{diag}(\lambda_1, \dots, \lambda_n),$$
donde $P = \begin{pmatrix} x_1 & \dots & x_n \end{pmatrix}$. Definiendo $\tilde{\underline{u}}:= P^{-1} \underline{u}(t)$ y $\tilde{\underline{u_0}} = P^{-1} \underline{u_0}$, el problema de valor inicial se lee
$$\tilde{\underline{u}}'(t) = \Lambda \tilde{\underline{u}}(t), \; \tilde{\underline{u}}(t_0) = \tilde{\underline{u_0}} =: \begin{pmatrix} c_1 & \dots & c_n \end{pmatrix}^T.$$
Estas son simplemente $n$ ecuaciones diferenciales ordinarias, lineales
$$\tilde{u_j}'(t) = \lambda_j \tilde{u_j}(t), \; \tilde{u_j}(t_0) = c_j$$
para $j = 1, \dots, n$ con soluciones $\tilde{u_j}(t) = c_j e^{\lambda_j(t-t_0)}$. Eventualmente recuperamos $\underline{u}(t) = P \tilde{\underline{u}}(t)$.
Ejemplo: Podemos escribir
$$x''(t) = -\omega^2 x(t), \; x(0) = x_0, \; x'(0) = v_0$$
como $\underline{u}'(t) = A \underline{u}(t), \; \underline{u}(0) = \underline{u_0}$, donde $\underline{u}(t) = \begin{pmatrix} x(t)&x'(t) \end{pmatrix}^T$ y
$$A = \begin{pmatrix} 0&1\\ -\omega^2&0 \end{pmatrix} \text{ y } \underline{u_0} = \begin{pmatrix} x_0\\ v_0 \end{pmatrix}.$$
Calculando los valores propios y los vectores propios, obtenemos
$$\underline{u}(t) = c_1 e^{i \omega t} \begin{pmatrix} 1\\ i \omega \end{pmatrix} + c_2 e^{-i \omega t} \begin{pmatrix} 1 \\ -i \omega \end{pmatrix}.$$
Usando la condición inicial, encontramos $x(t) = x_0 \cos(\omega t) + \frac{v_0}{\omega} \sin(\omega t)$.
Exponencial de matrices: No sé si tus estudiantes ya están familiarizados con la exponencial de matrices, pero usando ella encontramos que una solución del problema de valor inicial homogéneo está dada por
$$\underline{u}(t) = e^{(t-t_0)A} \underline{u_0}.$$
Para resolver la ecuación diferencial no homogénea, podemos variar las constantes. Dado que cada solución del sistema homogéneo $\underline{u}'(t) = A \underline{u}(t)$ es de la forma $\underline{u}(t) = e^{tA} \underline{c}$ para algún vector constante $\underline{c}$, establecemos $\underline{u_p}(t) = e^{tA} \underline{c}(t)$ y encontramos al reemplazar
$$\underline{c}'(t) = e^{-tA} \underline{b}(t).$$
Así,
$$\underline{u}(t) = e^{(t-t_0)A} \underline{u_0} + \int_{t_0}^t e^{(t-s)A} \underline{b}(s) \, \mathrm ds.$$
2 votos
Ver aquí.
4 votos
Eche un vistazo aquí math.stackexchange.com/questions/344879/…
2 votos
Ya hay muchas respuestas excelentes - si tengo tiempo más tarde agregaré algunas específicas como respuesta, pero en general, cualquier sistema que esté descrito por más de un puñado de variables o ecuaciones es un candidato. En realidad, estoy teniendo dificultades para pensar en ejemplos donde no se puede usar álgebra lineal. Algunos lugares para buscar son: casi cualquier cosa en ingeniería, física o cualquier cosa relacionada con la optimización, de cualquier tipo.
2 votos
La centralidad del vector propio (encontrar el vector propio principal) de una matriz de adyacencia de un grafo es ampliamente utilizada, vea esto (desplácese hacia abajo): activatenetworks.net/…
7 votos
Creo que enlazaré a esta respuesta para mi curso de álgebra lineal el próximo semestre y luego procederé a no cubrir ninguno de ellos :)
0 votos
Puedes jugar al juego de luces apagadas con la ayuda de álgebra lineal. Mira esta respuesta de mathoverflow.
1 votos
¿Las estadísticas cuentan?
0 votos
@ssdecontrol Supongo que sí