17 votos

Explicación intuitiva del Teorema Fundamental del Álgebra Lineal

¿Puede alguien explicar de forma intuitiva qué dice el Teorema Fundamental del Álgebra Lineal? y ¿por qué se llama específicamente así? Específicamente, qué lo hace "Fundamental" en el amplio ámbito de la teoría.

14voto

XZS Puntos 179

Imagina una proyección, por ejemplo, de todo el $\mathbb{R}^3$ a la $x$ - $y$ avión. Es comprimir cada línea paralela a $z$ -eje a un punto del plano. Por lo tanto, existe una relación de uno a uno entre las líneas y los puntos. Obsérvese que las rectas son las traslaciones de los $z$ -eje -- que es también lo que cociente significa. Y el $z$ -eje, es sólo el núcleo de la proyección, por lo que podemos ver que $\operatorname{im} A\simeq V/\ker A$ .

En cuanto a la dimensión, la dimensión de $\ker A$ mide lo que comprimir mientras que la dimensión de $\operatorname{im} A$ mide la cantidad que dejamos la cantidad que comprimimos, más la cantidad que dejamos, es igual a la totalidad, intuitivamente.

10voto

Grant Gustafson Puntos 41

El teorema es fundamental porque se basa en dos ideas elementales para resolver el vector $x$ en una ecuación algebraica lineal homogénea $Ax=0$ .


El teorema fundamental del álgebra lineal (FTLA) tiene dos partes, cada una de las cuales se origina en ideas sencillas del álgebra universitaria, especialmente el tema de las ecuaciones algebraicas lineales en el caso de infinitas soluciones.

Un ejemplo rápido de $3 \times 3$ sistema algebraico lineal homogéneo en forma escalar:

$$ \begin{cases} &x + 2y + 3z = 0, \\ &0=0, \\ &0=0. \\ \end{cases} $$

El sistema tiene infinitas soluciones, expresadas en términos de la variable principal $x$ y las variables libres $y,z$ . La solución escalar general es

$$ \begin{align} x &= - 2t - 3s, \\ y &= t, \\ z &= s. \\ \end{align}$$

donde $t,s$ son símbolos inventados para las variables libres.

IDEA 1: En la ecuación $Ax=0$ el número, $n$ de componentes en el vector $x$ es igual a la cuenta de la variable principal más la cuenta de la variable libre.

IDEA 2: Cualquier solución $x$ de $Ax=0$ es perpendicular a cada fila de $A$ .

La idea 1 se denomina teorema de rango-nulidad, parte 1 de la FTLA. El rango es la cuenta de la variable principal y la nulidad es la cuenta de la variable libre.

La idea 2 es la parte 2 del FTLA, presentada en los libros de texto como un resultado más profundo utilizando la notación de núcleo, imagen y complemento ortogonal. La parte 2 del FTLA es opaca. Pero la Idea 2 no es en sí misma opaca: es visible desde la definición de matriz por vector (el significado de $Ax$ ). En resumen, se puede derivar el resultado de la Idea 2 observando la ecuación $Ax=0$ Casi no se requiere experiencia.


Cuando esté preparado para dar el salto a los resultados abstractos, considere la posibilidad de leer las explicaciones de Gilbert Strang. Aquí están los enlaces,

6voto

littleO Puntos 12894

Supongamos que $V$ y $W$ son espacios de producto interno de dimensión finita sobre $F$ (donde $F$ es $\mathbb R$ o $\mathbb C$ ). Sea $T:V \to W$ sea una transformación lineal.

Hay cuatro subespacios que se asocian naturalmente con $T$ : $N(T), R(T), N(T^*)$ y $R(T^*)$ . (Aquí $T^*$ es el adjunto de $T$ . Así que $\langle T(x), y \rangle = \langle x, T^*(y) \rangle$ para todos $x \in V, y \in W$ .)

Lo que Strang llama el teorema fundamental del álgebra lineal es el hecho de que \begin{equation} V = N(T) \perp R(T^*) \end{equation} y \begin{equation} W = N(T^*) \perp R(T). \end{equation}

Este teorema es fácil de demostrar: \begin{align} & x \in N(T) \\ \iff & T(x) = 0 \\ \iff & \langle T(x),y \rangle = 0 \forall y \in W \\ \iff & \langle x, T^*(y) \rangle = 0 \forall y \in W \\ \iff & x \in R(T^*)^{\perp}. \end{align} Esto demuestra que $N(T)$ es el complemento ortogonal de $R(T^*)$ . De la misma manera, $N(T^*)$ es el complemento ortogonal de $R(T)$ .

Es natural buscar bases para estos cuatro subespacios, y quizás las bases "más naturales" o más bonitas son las que surgen en la SVD de $T$ .

Edición: Es interesante que, como señaló @WillieWong, se puede formular un teorema similar en un entorno más general, sin utilizar espacios de productos internos.

Dejemos que $V$ y $W$ sean espacios vectoriales de dimensión finita sobre un campo $F$ y que $T:V \to W$ . Hay cuatro subespacios asociados naturalmente a $T$ : $N(T), R(T), N(T^*)$ y $R(T^*)$ . (Ahora $T^*$ es la transformación dual $T^*:W^* \to V^*$ .)

Puede que no tengamos un producto interno con el que trabajar, pero aún podemos escribir \begin{equation} \langle T^*(w^*),v \rangle = \langle w^*,T(v) \rangle \end{equation} si utilizamos la notación \begin{equation} \langle x^*,y \rangle := x^*(y) \end{equation} para $x^* \in V^*, y \in V$ .

Además, $N(T)$ puede no tener un complemento ortogonal, pero tiene un aniquilador, que es lo análogo en un entorno más general. Y tenemos que $R(T^*)$ es el aniquilador de $N(T)$ y también que $N(T^*)$ es el aniquilador de $R(T)$ . Esta es una forma más general del "teorema fundamental" de Strang.

Obsérvese que para cualquier subespacio $U$ de $V$ tenemos \begin{equation} \text{dim} \, U + \text{dim} \,U^{\perp} = \text{dim} \, V \end{equation} donde $U^{\perp}$ es el aniquilador de $U$ . En particular, \begin{equation} \text{dim} \, N(T) + \text{dim} \, R(T^*) = \text{dim} \, V. \end{equation} Pero también sabemos que \begin{equation} \text{dim} \, N(T) + \text{dim} \, R(T) = \text{dim} \, V. \end{equation} Esto demuestra que \begin{equation} \text{dim} \, R(T) = \text{dim} \, R(T^*). \end{equation}

Estos teoremas y pruebas fáciles pero fundamentales aparecen en el capítulo 2 del libro de Lax Álgebra lineal y sus aplicaciones . (Véanse los teoremas 5, 5' y 6.)

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X