16 votos

¿Por qué son fundamentales los cuatro subespacios fundamentales?

Los cuatro subespacios fundamentales del álgebra lineal, según Gilbert Strang [ 1 ], son el núcleo, la imagen, el núcleo del espacio dual y la imagen del espacio dual (espacio nulo, espacio de columna, espacio nulo izquierdo, espacio de fila). Él llama a la relación entre estos "el teorema fundamental del álgebra lineal".

Por supuesto, el núcleo y la imagen son necesarios para el primer teorema del isomorfismo, que es fundamental para entender qué es un homomorfismo.

Pero, ¿por qué son importantes y "fundamentales" la imagen del espacio dual y el núcleo?

Se hizo una pregunta similar [ 2 ] con una respuesta en la que se afirma

En resumen, estos cuatro espacios (en realidad sólo dos espacios, con una izquierda y una versión derecha del par) llevan toda la información sobre la imagen y el núcleo de la transformación lineal que A está afectando, ya sea está utilizando a la derecha o a la izquierda.

pero esto evita por completo la cuestión de por qué la imagen y el núcleo del adjunto de una transformación son importantes para entender la transformación.

El documento de Strang [ 1 ] parece sugerir que estos subespacios pueden proporcionar la intuición para la descomposición del valor singular, pero todavía no he estudiado la descomposición del valor singular (SVD). Tampoco estoy seguro de que la SVD sea lo suficientemente fundamental como para justificar la clasificación del núcleo y la imagen del espacio dual como "fundamentales".

editar: Gracias por las respuestas :)

A los hombres y mujeres del futuro que tomen el camino que yo he pisado, les dejaré algunos enlaces que me resultaron especialmente útiles [ 3 , 4 , 5 ].

10voto

TrialAndError Puntos 25444

Supongamos que se trata de resolver $Af=g$ donde $A$ es un operador lineal. Como siempre, hay dos grandes cuestiones: la existencia y la unicidad. Empezaremos con un espacio de Hilbert por el bien de la discusión.

Existencia : Una solución de $Af=g$ existe si $g$ está en el rango de $A$ . Si $A$ tiene un rango cerrado, entonces la cuestión de si es o no $g$ está en el rango se resuelve mirando el núcleo de $A^*$ : $$ \mathcal{R}(A)=\mathcal{N}(A^*)^{\perp} $$ Por lo tanto, para obtener una solución de $Af=g$ debe imponer condiciones a $g$ : $$ (g,k) = 0 \mbox{ for all } k \in \mathcal{N}(A^*). $$ Para muchas ecuaciones diferenciales, se encuentra $\mathcal{N}(A^*)$ es de dimensión finita, por lo que un número finito de condiciones sobre $g$ llevará a una solución.

Singularidad : Si tiene una solución de $Af=g$ , entonces se pueden encontrar todos los demás añadiendo un elemento arbitrario de $\mathcal{N}(A)$ a $f$ . Es decir, $$ Af_1 =g ,\; Af_2 = g \implies f_1 - f_2 \in \mathcal{N}(A). $$ Por el contrario, si tiene una solución $f$ de $Af=g$ entonces $f+n$ también es una solución para todos $n \in \mathcal{N}(A)$ . Por lo tanto, la unicidad también puede requerir la adición de algunas condiciones.

4voto

Christiaan Hattingh Puntos 2837

Se trata más bien de una perspectiva intuitiva, basada en los espacios vectoriales implicados:

El espacio nulo de una matriz es un subespacio del mismo espacio vectorial del que el espacio de filas es un subespacio. En este sentido, el espacio de filas de una matriz determina el espacio nulo, ya que podemos definir el espacio nulo de una matriz $A$ como $\{u:vu=0$ donde $v^t$ está en el espacio de filas de $A\}$ . Esta relación complementaria es ciertamente fundamental para caracterizar una matriz.

Si busca aplicaciones en las que el espacio entre filas es importante: supongamos que tenemos un $m \times n$ transformación $G$ y un $k \times n$ matriz $F$ y queremos saber si $F$ divide $G$ a la derecha, es decir, si existe $H$ tal que $G=HF$ . Resulta que esto es cierto si el espacio de filas de $G$ es un subespacio del espacio de filas de $F$ .

Y el espacio de las columnas... al igual que la relación entre el espacio de las filas y el espacio nulo, el espacio complementario del espacio de las columnas es el espacio nulo de $A^*$ y el contexto del espacio vectorial mayor (del que estos espacios son subespacios) en este caso es diferentes de la del espacio vectorial que contiene el espacio de filas y el espacio nulo, en el caso de que una matriz no sea cuadrada.

Una aplicación muy importante de este espacio, que es complementario al espacio de columnas, es la aproximación por mínimos cuadrados para un sistema sobre especificado. Para una solución de mínimos cuadrados tenemos $$A^*(Ax_0-y)=0,$$ que es para $x_0$ para ser una solución de mínimos cuadrados debemos tener $Ax_0-y$ ¡está en el núcleo izquierdo! Intuitivamente, para encontrar el punto $Ax_0$ donde el espacio de columnas de $A$ está más cerca de $y$ debemos encontrar un vector en el complemento ortogonal del espacio de columnas de $A$ que contiene $y$ y $Ax_0$ (minimizando así la distancia).

Así que diferentes contextos ponen énfasis en diferentes subespacios fundamentales. En la mayoría de las aplicaciones comunes, probablemente se haga más hincapié en el espacio nulo y en el espacio de columnas.

2voto

Draxillion Puntos 181

Después de pensar un poco más en esto, me gustaría escribir algunas reflexiones.

Daré por sentado que queremos estudiar los homomorfismos entre espacios vectoriales con la mayor profundidad posible.

Ahora, como es rutina con el álgebra, podemos considerar el núcleo y la imagen y el primer teorema de isomorfismo.

En el caso de la dimensión finita, no encuentro nada fundamental en los espacios duales en sí mismos. Más bien, creo que deberían considerarse como un peldaño hacia la matriz adjunta.

Ahora se sabe que la multiplicación por una matriz tiene dos interpretaciones: Un cambio de base (el vector permanece igual, las coordenadas cambian), y una transformación (el vector cambia, las coordenadas permanecen iguales). El lado izquierdo de

$$ [Tv, w'] = [v, T'w'] $$

corresponde a la primera vista, mientras que la derecha corresponde a la segunda porque

$$ Tv = \sum_i [Tv, e_i'] e_i $$

y

$$ v = \sum_i [v, T'e_i'] T^{-1} e_i. $$

De esta última ecuación se desprende que la base dual $e_i'$ cambian de forma inversa a las bases $e_i$ . Esto significa que las coordenadas en la representación matricial de $v$ cambian de forma inversa a las bases $e_i$ . Dado que el cambio de coordenadas es tan importante, esta idea motiva por sí misma el adjunto y la discusión de las bases duales.

Sin embargo, la principal ventaja de los adjuntos se encuentra cuando consideramos los espacios de productos internos. Si introducimos un ismorfismo entre $V$ y $V^\ast$ obtenemos un producto interno y, por tanto, la fórmula de una matriz autoadjunta

$$ <Tv, w> = <v, T^\ast w> $$

que, por lo demás, está desmotivado.

Ahora que tenemos un producto interno, podemos considerar la imagen $\mathrm{Im}\; T^\ast$ de nuestra matriz $T^\ast:W\to V$ sea un subconjunto de $V$ en lugar de $V^\ast$ y compararlo con el núcleo $\mathrm{Ker}\; T$ de $T:V \to W$ . Esto nos da un método para encontrar el complemento ortogonal de $\mathrm{Im}\; T^\ast$ que es un subconjunto de $V$ en lugar de $V^\ast$ . Encontrar vectores ortogonales es útil en métodos de optimización como los mínimos cuadrados.

0 votos

En realidad, se necesitan productos internos para considerar las colindancias. Un producto interno en un espacio vectorial $V$ da un isomorfismo $V \to V^*$ y normalmente no tenemos ninguna opción canónica de tal cosa. Si ahora miramos $\mathrm{Hom}(V,W) = V^* \otimes W$ entonces vemos que su espacio dual es $\mathrm{Hom}(V,W)^* = \mathrm{Hom}(W,V)$ . Selección de productos internos en $V$ y $W$ da ahora un isomorfismo canónico $\mathrm{Hom}(V,W) \to \mathrm{Hom}(W,V)$ que es exactamente el mapa que envía un morfismo lineal a su adjunto. Cuando se evalúa en vectores, este morfismo da exactamente su fórmula para $T^*$ .

0 votos

@GunnarÞórMagnússon Hay múltiples definiciones del adjunto. La adoptada por Halmos en Espacios vectoriales de dimensión finita siempre existe y es un mapa de $W^\ast$ a $V^\ast$ para un mapa $T:V \to W$ . Creo que ésta es también la terminología estándar utilizada en el análisis funcional y en la teoría de las categorías. La otra convención, adoptada en la obra de Axler Álgebra lineal bien hecha (la última edición, que tiene contenido extra) es referirse al adjunto en el sentido de Halmos como un mapa doble y el adjunto en su sentido como el adjunto. En un espacio de producto interno, los dos son equivalentes hasta el isomorfismo.

0 votos

El que Halmos habla es la transposición o el mapa dual de un morfismo lineal $T : V \to W$ . Como dices, es un mapa lineal $W^* \to V^*$ . El adjunto es un mapa lineal $W \to V$ . El dual y el adjunto son elementos de espacios vectoriales que no son canónicamente isomorfos entre sí. Si damos $V,W$ productos internos, entonces obtenemos un isomorfismo entre esos espacios, pero no es ni mucho menos canónico. Realmente son cosas diferentes, y sólo porque parezcan más o menos iguales a nivel matricial una vez que elegimos bases ortonormales no es razón para tratarlas como si fueran iguales.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X