4 votos

$\mbox{Im }A\oplus \ker A^t = V$

Deje $A:V\to V$ ser un endomorfismo de un número finito de dimensiones de espacio lineal. Es fácil ver que $\mbox{Im }A\cap \ker A^t = 0$. Porque si $w = Av\in \ker A^t$,$0 = \langle A^tAv,v\rangle = \langle Av,Av\rangle = \|Av\|$, esto implica $Av = w = 0$. También se observa que el $\dim \mbox{Im }A =\mbox{rk }A=\mbox{rk }A^t = \dim \mbox{Im }A^t$, lo $\dim \mbox{Im }A+\dim \ker A^t = \dim \mbox{Im }A^t+\dim \ker A^t = \dim V$. Por lo tanto,$\mbox{Im }A\oplus \ker A^t = V$.

Lo que es una forma natural de ver esta descomposición de $V$? Dado $v\in V$, ¿cómo calculamos el $v = Aw+u$ donde $u\in \ker A^t$?

3voto

Andy Jacobs Puntos 4003

La palabra clave es el de mínimos cuadrados de la regresión lineal. $Aw$ es la proyección ortogonal de a $v$ a la columna espacio de $A$.

A la segunda pregunta: si $v=Aw+u$, $A^t v = A^t A w$ $w=(A^t A)^{-1} A^t v$ (si $A^t A$ es regular).

$Aw$ es, en cierto sentido, la mejor aproximación de las $v$ en el espacio generado por las columnas de a $A$. El "error" $u$ es "perpendicular" (si se utiliza un estándar de producto escalar en $\mathbb{R}^n$) para todas las columnas de $A$; $Aw$ es el vector que minimiza la suma de los cuadrados de las coordenadas de la diferencia de $v-Aw$. (Este procedimiento funciona bien y es comúnmente utilizado en las estadísticas, especialmente si $A$ tiene más filas que columnas; las columnas son generalmente independientes, en este caso más general.)

Asumo en mi respuesta que le pregunte acerca de las matrices; por un espacio vectorial y un endomorfismo, no está claro qué es $A^t$ (a menos que usted tenga un producto escalar).

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X