69 votos

¿Cuáles son algunas aplicaciones de álgebra lineal elemental fuera de las matemáticas?

Estoy enseñando álgebra lineal el próximo trimestre, y me doy cuenta de que solo conozco un ejemplo de una aplicación que puedo presentar a mis estudiantes. Estoy buscando aplicaciones del álgebra lineal elemental fuera de las matemáticas de las que podría hablar en la sección de discusión.

En nuestra clase, cubrimos los conceptos básicos (transformaciones lineales; matrices; subespacios de $\Bbb R^n$; rango-nulidad), matrices ortogonales y el producto punto (¡incluyendo mínimos cuadrados!), diagonalización, formas cuadráticas y descomposición en valores singulares.

Mostrando mi ignorancia, la única aplicación de estas que conozco es la que se presentó en la clase de álgebra lineal que tomé: representar sistemas dinámicos como procesos de Markov, y diagonalizar la matriz involucrada para obtener una fórmula agradable para el estado $n$ del sistema. Pero seguramente hay más que estas.

¿Cuáles son algunas aplicaciones del álgebra lineal cubiertas en un primer curso que puedan motivar el tema para los estudiantes?

2 votos

Ver aquí.

4 votos

2 votos

Ya hay muchas respuestas excelentes - si tengo tiempo más tarde agregaré algunas específicas como respuesta, pero en general, cualquier sistema que esté descrito por más de un puñado de variables o ecuaciones es un candidato. En realidad, estoy teniendo dificultades para pensar en ejemplos donde no se puede usar álgebra lineal. Algunos lugares para buscar son: casi cualquier cosa en ingeniería, física o cualquier cosa relacionada con la optimización, de cualquier tipo.

62voto

Huy Puntos 3003

Fui asistente de enseñanza en Álgebra Lineal el semestre anterior y recopilé algunas aplicaciones para presentar a mis estudiantes. Esta es una de ellas:

Algoritmo PageRank de Google

Este algoritmo es el "corazón" del motor de búsqueda y ordena los documentos de la "world-wide-web" según su "importancia" en orden decreciente. Para simplificar, veamos un sistema que solo contiene cuatro sitios web diferentes. Dibujamos una flecha de $i$ a $j$ si hay un enlace de $i$ a $j.

El objetivo es calcular un vector $\underline{x} \in \mathbb{R}^4$, donde cada entrada $x_i$ representa la importancia del sitio web. Un valor más grande significa que el sitio web es más importante. Hay tres criterios que contribuyen al $x_i$:

  1. Cuanto más sitios web contengan un enlace a $i$, mayor será $x_i$.
  2. Los enlaces de sitios web más importantes tienen un peso más relevante que los de sitios web menos importantes.
  3. Los enlaces de un sitio web que contiene muchos enlaces a otros sitios web (outlinks) tienen menos peso.

Cada sitio web tiene exactamente un "voto". Este voto se distribuye uniformemente a cada uno de los outlinks del sitio web. Esto se conoce como Web-Democracia. Esto lleva a un sistema de ecuaciones lineales para $\underline{x}$. En nuestro caso, para

$$P = \begin{pmatrix} 0&0&1&1/2\\ 1/3&0&0&0\\ 1/3& 1/2&0&1/2\\ 1/3&1/2&0&0 \end{pmatrix}$$

el sistema de ecuaciones lineales lee $\underline{x} = P \underline{x}$. La matriz $P$ es una matriz estocástica, por lo tanto, $1$ es un valor propio de $P$. Uno de los vectores propios correspondientes es

$$\underline{x} = \begin{pmatrix} 12\\4\\9\\6 \end{pmatrix},$$

por lo tanto, $x_1 > x_3 > x_4 > x_2$. Sea

$$G = \alpha P + (1-\alpha)S,$$

donde $S$ es una matriz que corresponde a la navegación puramente aleatorizada sin enlaces, es decir, todas las entradas son $\frac{1}{N}$ si hay $N$ sitios web. La matriz $G$ se llama la Matriz de Google. Los inventores del algoritmo PageRank, Sergey Brin y Larry Page, eligieron $\alpha = 0.85$. Cabe destacar que $G$ sigue siendo una matriz estocástica. Un eigenvector para el valor propio $1$ de $\underline{x} = G \underline{x}$ en nuestro ejemplo sería (aproximadamente)

$$\underline{x} = \begin{pmatrix} 18\\7\\14\\10 \end{pmatrix},$$

lo que conduce al mismo ranking.

6 votos

Técnicamente, PageRank fue imaginado simplemente como un proceso de Markov, por lo que no es realmente diferente del ejemplo existente de OPs. Sin embargo, es muy genial y probablemente muy motivador para los estudiantes.

2 votos

Hoy en día, PageRank es considerablemente más complicado con cientos de "señales" (y nuevas añadidas todo el tiempo) y revisiones a los algoritmos - en su mayoría para abordar la interminable guerra en SEO: es.wikipedia.org/wiki/Optimización_para_motores_de_búsqueda.

3 votos

La idea de que una gran empresa publicitaria esté respaldada por las matemáticas debe abordarse honestamente, especialmente al enseñar a los jóvenes. Google ha declarado explícitamente durante más de una década que PageRank ya no es central para sus criterios de clasificación (LDA se utilizó durante un tiempo, y eso utiliza álgebra lineal). Sin embargo, los académicos siguen afirmando que, por ejemplo, la teoría de Perron-Frobenius es un camino hacia el éxito empresarial.

40voto

Huy Puntos 3003

Otra aplicación muy útil del álgebra lineal es

Compresión de imágenes (usando la SVD)

Cualquier matriz real $A$ se puede escribir como

$$A = U \Sigma V^T = \sum_{i=1}^{\operatorname{rank}(A)} u_i \sigma_i v_i^T,$$

donde $U$ y $V$ son matrices ortogonales y $\Sigma$ es una matriz diagonal. Cada imagen en escala de grises se puede representar como una matriz de los valores de intensidad de sus píxeles, donde cada elemento de la matriz es un número entre cero y uno. Para imágenes de mayor resolución, tenemos que almacenar más números en la matriz de intensidad, por ejemplo, una foto en escala de grises de 720p (1280 x 720), tenemos 921'600 elementos en su matriz de intensidad. En lugar de usar espacio de almacenamiento guardando todos esos elementos, la descomposición de valores singulares de esta matriz lleva a una matriz más simple que requiere mucho menos almacenamiento.

Puede crear una aproximación de rango $J$ de la imagen original usando los primeros $J$ valores singulares de su matriz de intensidad, es decir, solo mirando

$$\sum_{i=1}^J u_i \sigma_i v_i^T .$$

Esto ahorra una gran cantidad de espacio en disco, pero también hace que la imagen pierda parte de su claridad visual. Por lo tanto, debe elegir un número $J$ de manera que la pérdida de calidad visual sea mínima pero haya ahorros significativos en memoria. Ejemplo:

La imagen en el lado derecho es una aproximación de la imagen en el lado izquierdo manteniendo aproximadamente el $10\%$ de los valores singulares. Ocupa aproximadamente el $18\%$ del almacenamiento de la imagen original. (Fuente)

6 votos

Eso es genial pero en realidad es una aplicación falsa. Ningún códec de imagen ha utilizado la SVD de las imágenes completas. En los viejos tiempos, cuando las imágenes digitales solo tenían unos pocos cientos de píxeles de ancho, las computadoras eran demasiado lentas para ser prácticas y hoy en día las imágenes son demasiado grandes para realizar una SVD en ellas. Y de todos modos, JPEG(2000) y PNG son mucho mejores.

0 votos

Echa un vistazo a este PDF bastante grande para ver más imágenes de ejemplo comprimidas con SVD. Especialmente me gusta cómo, en el caso extremo $J = 1$, se puede ver claramente que el rango de la matriz de imagen comprimida es solo $1$ -- cualquier columna es claramente un múltiplo escalar de cualquier otra columna.

1 votos

Dirk: Estoy de acuerdo en que JPEG y PNG son mejores. La respuesta en dsp.stackexchange.com/a/7862 es relevante, comparando DCT con SVD.

23voto

Hanseh Puntos 556

Este es un ejemplo más simple, pero tal vez sea bueno para estudiantes universitarios:

Álgebra lineal es una herramienta central en gráficos 3-d. Si quieres usar una computadora para representar, digamos, una nave espacial girando en el espacio, entonces tomas los vértices iniciales de la nave espacial en $\mathbb{R}^3$ y los multiplicar por alguna matriz de rotación cada $.02$ segundos aproximadamente. Luego tienes que renderizar la imagen 3-d en una pantalla 2-d, lo cual también implica álgebra lineal (y cosas con colores e iluminación probablemente)

Probablemente haya paquetes gráficos que hagan gran parte de ese trabajo por ti hoy en día (en realidad no sé mucho de programación), pero el álgebra lineal sigue siendo una aproximación de primer orden bastante buena para lo que la computadora está haciendo.

5 votos

Este fue lo primero en lo que pensé; en particular, las bibliotecas de gráficos 3D hacen un uso intensivo de matrices 4x4 para permitir la transformación afín de vectores en $\Bbb{R}^3$

0 votos

@Dan Capturar el aspecto afín de esa manera es un truco genial. Se aprende algo nuevo todos los días.

0 votos

El álgebra de matrices es una herramienta estándar utilizada en libros de texto sobre gráficos por computadora, junto con los cuaterniones. Solo puedes utilizar técnicas muy simples. Sin embargo, creo que mi conocimiento de gráficos por computadora básicos en realidad me hizo más difícil entender cuán generales son las técnicas. Esperaría que esto sea cierto para muchos estudiantes de ciencias de la computación (como yo lo era). Los estudiantes de matemáticas pueden no tener el mismo desafío.

18voto

Huy Puntos 3003

También podemos usar Álgebra Lineal para resolver

Ecuaciones Diferenciales Ordinarias

Una EDO tiene la forma

$$\underline{u}'(t) = A \underline{u}(t) + \underline{b}(t)$$

con $A \in \mathbb{C}^{n \times n}$ y $\underline{b}(t) \in \mathbb{C}^{n \times 1}$. Si tenemos una condición inicial

$$\underline{u}(t_0) = \underline{u_0}$$

esto es un problema de valor inicial. Suponiendo que las entradas de $\underline{b}(t)$ son continuas en $[t_0,T]$ para algún $T > t_0$, Picard-Lindelöf proporciona una solución única en ese intervalo. Si $A$ es diagonalizable, la solución del problema de valor inicial homogéneo es fácil de calcular.

Sea

$$P^{-1} A P = \Lambda = \operatorname{diag}(\lambda_1, \dots, \lambda_n),$$

donde $P = \begin{pmatrix} x_1 & \dots & x_n \end{pmatrix}$. Definiendo $\tilde{\underline{u}}:= P^{-1} \underline{u}(t)$ y $\tilde{\underline{u_0}} = P^{-1} \underline{u_0}$, el problema de valor inicial se lee

$$\tilde{\underline{u}}'(t) = \Lambda \tilde{\underline{u}}(t), \; \tilde{\underline{u}}(t_0) = \tilde{\underline{u_0}} =: \begin{pmatrix} c_1 & \dots & c_n \end{pmatrix}^T.$$

Estas son simplemente $n$ ecuaciones diferenciales ordinarias, lineales

$$\tilde{u_j}'(t) = \lambda_j \tilde{u_j}(t), \; \tilde{u_j}(t_0) = c_j$$

para $j = 1, \dots, n$ con soluciones $\tilde{u_j}(t) = c_j e^{\lambda_j(t-t_0)}$. Eventualmente recuperamos $\underline{u}(t) = P \tilde{\underline{u}}(t)$.

Ejemplo: Podemos escribir

$$x''(t) = -\omega^2 x(t), \; x(0) = x_0, \; x'(0) = v_0$$

como $\underline{u}'(t) = A \underline{u}(t), \; \underline{u}(0) = \underline{u_0}$, donde $\underline{u}(t) = \begin{pmatrix} x(t)&x'(t) \end{pmatrix}^T$ y

$$A = \begin{pmatrix} 0&1\\ -\omega^2&0 \end{pmatrix} \text{ y } \underline{u_0} = \begin{pmatrix} x_0\\ v_0 \end{pmatrix}.$$

Calculando los valores propios y los vectores propios, obtenemos

$$\underline{u}(t) = c_1 e^{i \omega t} \begin{pmatrix} 1\\ i \omega \end{pmatrix} + c_2 e^{-i \omega t} \begin{pmatrix} 1 \\ -i \omega \end{pmatrix}.$$

Usando la condición inicial, encontramos $x(t) = x_0 \cos(\omega t) + \frac{v_0}{\omega} \sin(\omega t)$.

Exponencial de matrices: No sé si tus estudiantes ya están familiarizados con la exponencial de matrices, pero usando ella encontramos que una solución del problema de valor inicial homogéneo está dada por

$$\underline{u}(t) = e^{(t-t_0)A} \underline{u_0}.$$

Para resolver la ecuación diferencial no homogénea, podemos variar las constantes. Dado que cada solución del sistema homogéneo $\underline{u}'(t) = A \underline{u}(t)$ es de la forma $\underline{u}(t) = e^{tA} \underline{c}$ para algún vector constante $\underline{c}$, establecemos $\underline{u_p}(t) = e^{tA} \underline{c}(t)$ y encontramos al reemplazar

$$\underline{c}'(t) = e^{-tA} \underline{b}(t).$$

Así,

$$\underline{u}(t) = e^{(t-t_0)A} \underline{u_0} + \int_{t_0}^t e^{(t-s)A} \underline{b}(s) \, \mathrm ds.$$

12voto

Normal Human Puntos 45168

La propiedad de isometría restringida (RIP) de matrices es algo que no es demasiado difícil de entender para los estudiantes de pregrado: significa que una matriz (rectangular) $A$ satisface $$ (1-\delta) \|x\| \le \|Ax\|\le (1+\delta)\|x\| \tag{1}$$ para todos los vectores $x$ con a lo sumo $s$ componentes no nulas. La constante $\delta$ debe ser pequeña, y por supuesto independiente de $x$. El número $s$ es estrictamente menor que la dimensión del dominio de $A$ (su número de columnas). Esto significa que $A$ codifica vectores dispersos con poca distorsión en su norma.

El hecho de que existan matrices RIP "gordas" (con menos filas que columnas) no es obvio, y no hay un algoritmo determinístico fácil para construirlas. Pero se sabe que ciertas matrices aleatorias satisfacen RIP con alta probabilidad. El uso de dichas matrices es esencial en el trabajo de Candes y Tao de hace aproximadamente 10 años, que formó los fundamentos matemáticos de compresión de señales, una técnica novedosa de procesamiento de señales ahora aplicada en resonancias magnéticas y otras áreas donde realizar un gran número de mediciones es costoso.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X