34 votos

¿Es útil el cambio de base en la práctica del álgebra lineal?

En términos sencillos, ¿por qué querría alguien cambiar de base? ¿Tienen que ver los valores propios con el cambio de base?

16 votos

Hay tantos muchos razones, dudo que las veas todas en una sola respuesta. Aquí hay sólo una: es.wikipedia.org/wiki/Análisis de componentes principales

6 votos

Un ejemplo relativamente esotérico (ver mi comentario): math.stackexchange.com/questions/654765/sum-of-polynomial .

2 votos

Se demuestra el Teorema Maestro de esta manera.

44voto

Alex S Puntos 6684

El cambio de base permite convertir una matriz de una forma complicada a una forma simple. A menudo es posible representar una matriz en una base en la que los únicos elementos no nulos están en la diagonal, lo que es excepcionalmente sencillo. Estos elementos diagonales serán los valores propios de la matriz. Esto es especialmente útil para resolver sistemas lineales de ecuaciones diferenciales. A menudo, en la física, la ingeniería, la logística y probablemente en muchos otros lugares, se tiene un sistema de ecuaciones diferenciales que dependen unas de otras. Para resolver el sistema directamente, habría que resolver todas las ecuaciones a la vez, lo cual es difícil. Podemos utilizar matrices para describir este sistema. Cambiando de base, puedes hacer que esa matriz sea diagonal, lo que efectivamente separa las ecuaciones diferenciales entre sí, para que puedas resolver sólo una a la vez. Esto es comparativamente fácil. Las situaciones en las que sé que esto surge son:

  • La mecánica cuántica, que resuelve la ecuación de Schrodinger para describir el estado de la materia a nivel cuántico.
  • Ingeniería eléctrica, comprensión de la evolución temporal de un circuito eléctrico.
  • Ingeniería mecánica, comprensión del movimiento de un sistema mecánico lineal, como un sistema múltiple de muelle-masa.

Editar:

Aquí hay otra razón muy importante para el cambio de base que acabo de recordar: suponga que tiene una matriz $A$ y quiere calcular $A^n$ para algunos grandes $n$ . Esto lleva un tiempo, incluso para los ordenadores. Pero, si puedes encontrar un cambio de matriz base $P$ para que $A=P^{-1}DP$ para una matriz diagonal $D$ entonces $$A^n=P^{-1}DPP^{-1}DPP^{-1}DP...P^{-1}DP.$$ Todos los términos $PP^{-1}$ son la identidad, por lo que obtenemos $$A^n=P^{-1}D^nP.$$ Las potencias de las matrices diagonales son realmente fáciles: basta con elevar cada elemento diagonal al $n$ de la potencia. Así que este método nos permite encontrar potencias de matrices muy fácilmente. ¿Cuándo querríamos tomar grandes potencias de matrices? Siempre que encontremos soluciones numéricas a ecuaciones diferenciales, parciales u ordinarias. Esto ocurre siempre, así que nos alegramos de poder cambiar de base.

0 votos

No sólo para las potencias; de hecho, esto se puede utilizar siempre que se quiera evaluar una función con argumentos matriciales, como la exponencial o el seno. En el caso no diagonalizable, hay que contentarse con la forma de Jordan.

20voto

littleO Puntos 12894

El cambio de base puede facilitar la comprensión de una determinada transformación lineal.

Supongamos que $T:V \to V$ es una transformación lineal. Puede parecer difícil entender o visualizar qué efecto $T$ tiene cuando se aplica a un vector $x$ . Sin embargo, supongamos que tenemos la suerte de encontrar un vector $v$ con la propiedad especial de que $T(v) = \lambda v$ para algún escalar $\lambda$ . Entonces, es bastante fácil entender lo que $T$ hace a $v$ Al menos.

Supongamos que tenemos la suerte de encontrar una base completa $\{v_1,\ldots,v_n\}$ de estos vectores especiales. Así que $T(v_i) = \lambda_i v_i$ para algunos escalares $\lambda_i, i =1,\ldots,n$ . Dado cualquier vector $x$ podemos escribir $x$ como una combinación lineal de los vectores $v_i$ : \begin{equation} x = c_1 v_1 + \cdots + c_n v_n. \end{equation} Y ahora parece más fácil pensar en $T(x)$ : \begin{align} T(x) &= c_1 T(v_1) + \cdots + c_n T(v_n) \\ &= c_1 \lambda_1 v_1 + \cdots + c_n \lambda_n v_n. \end{align} Eso es bastante sencillo. Cada componente de $x$ (con respecto a nuestra base especial) simplemente se escaló por un factor $\lambda_i$ .

Así que si podemos encontrar una base de vectores propios para $T$ (y a menudo podemos), entonces nos ayuda a entender $T$ .


Por cierto, un gran ejemplo práctico de cambio de base es calcular una convolución de forma eficiente utilizando el algoritmo de la transformada rápida de Fourier (FFT). Cualquier operador de convolución discreta es diagonalizado por una base especial, la base discreta de Fourier. Así, para realizar una convolución en una imagen (en el procesamiento de imágenes), se toma la FFT de la imagen (se base del cambio a la base de Fourier), luego se multiplica puntualmente por los valores propios del operador de convolución, luego se toma la FFT inversa (se vuelve a la base estándar). Este enfoque es mucho, mucho más rápido que realizar la convolución en el dominio del espacio.

16voto

Angel Puntos 616

Te habrás dado cuenta de que multiplicar matrices puede ser difícil. Cambiando las bases, podemos hacerlo más fácil.

3 votos

Si primero se cambia la base, y luego se multiplica, ¿habría que volver a cambiar la base (inversión) después de la multiplicación para obtener la forma estándar del producto de la matriz?

0 votos

@Grau - Sí, véase la respuesta de Ales S.

10voto

Owen Puntos 171

La descomposición de valores singulares, que es una de las técnicas más utilizadas en computación numérica, es un cambio de base. Toma una transformación lineal y realiza un cambio de base tanto en el espacio de entrada como en el de salida, de modo que la transformación se convierte en una simple multiplicación sin suma (es decir, una matriz diagonal).

Esto revela mucha información útil sobre la transformación, como qué variables de entrada desempeñan el mayor papel, qué correlación tienen entre sí, si hay variables irrelevantes, etc. Es prácticamente el mazo para hacer cálculos numéricos con matrices.

8voto

Yves Daoust Puntos 30126

El álgebra lineal se basa en el cambio de bases. Matrices son ¡cambio de máquinas base !

Cuando se forma una combinación lineal $a\vec u+b\vec v+\cdots c\vec w$ se puede ver como el vector $(a,b,\cdots c)$ expresado en la base $(\vec u,\vec v,\cdots \vec w)$ .

Por la misma razón, un producto matricial $AB$ expresa lo que la matriz $A$ se convierte cuando se aplica a los vectores de la matriz $B$ . Y piensa que la mayoría de las operaciones matriciales pueden describirse como productos de transformaciones elementales (que son cambios de base que implican un eje o dos).

Observando la resolución de un sistema de ecuaciones lineales, se puede ver como un cambio de base tal que los hiperplanos correspondientes a las ecuaciones se vuelven paralelos al eje, de modo que el cálculo de sus intersecciones se vuelve trivial.

enter image description here

Y así sucesivamente.

La Eigendecomposición es, en efecto, una forma conveniente de caracterizar un cambio de base, ya que encuentra las direcciones que quedan inalteradas por las transformaciones (los ejes que se mapean sobre sí mismos). Estas direcciones especiales son, de hecho, bastante interesantes, ya que el comportamiento de la transformación es muy sencillo en ellas (sólo un producto escalar).

Las rotaciones son una clase de transformaciones especialmente importante, ya que conservan las distancias y no provocan ninguna deformación (son las llamadas transformaciones de "cuerpo rígido"). La Eigendecomposición expresa que cualquier transformación (diagonalizable) puede verse como una rotación que alinea las Eigendirecciones con el eje, seguida de un estiramiento (posiblemente anisotrópico) del eje, seguido de la rotación inversa.

La Eigendecomposición se generaliza como la descomposición del valor singular. Permite que los dos espacios tengan dimensiones diferentes, pero sigue descomponiendo una transformación como una secuencia de rotación/escalado/rotación.

enter image description here

Los valores singulares caracterizan completamente el cambio de tamaño/deformación (y la posible pérdida de dimensiones), dando una visión muy sintética de la transformación.

3 votos

"¡Las matrices son cambios de base!" Esto me incomoda: una matriz es una matriz de números (o más generalmente elementos de un anillo). En el álgebra lineal avanzada, cuando se trabaja con módulos, no siempre tenemos una base, pero las matrices siguen existiendo.

3 votos

@ZacharySelk: evidentemente se trata de una declaración informal que pretende estimular la intuición del OP. Puedes plantear objeciones similares para todas las frases de mi respuesta. En particular, se mezclan libremente matrices, transformaciones lineales y cambios de base.

0 votos

Sí, se trata de una afirmación informal, pero me he sentido incómodo con ese tipo de intuición. Recuerdo haber aprendido álgebra lineal y afirmaciones como "las matrices son transformaciones lineales/cambios de base", etc., me resultaban muy confusas y hacían el álgebra lineal mucho más difícil. No soy el votante negativo, por cierto. Creo que tu respuesta es buena. Pero habría sido muy confusa para mí, y supongo que también para otras personas que están aprendiendo álgebra lineal. ¡Pero tal vez es útil para OP!

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X