ATA de las formas (o, equivalentemente, (?) positivo semidefinite matrices, o más en particular, las matrices de covarianza(Σ)) están vinculados, en la práctica, muchas de las operaciones en las que los puntos de datos se proyecta ortogonalmente:
Ordinario de regresión lineal (OLS) es parte de la matriz de proyección P=X(XTX)−1XT de la variable "dependiente" en la columna de el espacio de el modelo de la matriz.
En el análisis de componentes principales (PCA) los datos que se proyecta sobre los vectores propios de la matriz de covarianza.
La matriz de covarianza informa blanco al azar "blanco" de muestras en diagonal proyecciones en procesos de Gauss, que parece intuitivamente que corresponden a una manera de proyectar.
Pero estoy mirando una unificación de explicación. Un concepto más genérico.
En este sentido, me han llegado a través de la oración, "es como si la matriz de covarianza almacenan todos los posibles proyección desviaciones en todas las direcciones," una declaración aparentemente apoyado por el hecho de que una de nube de datos en Rn, la varianza de la proyección de los puntos de un vector unitario u será dado por uTΣu.
Entonces, ¿hay una manera de unificar todas estas inter-relacionados con las propiedades en un solo conjunto de principios a partir de la cual todas las aplicaciones geométricas y derivaciones puede ser visto?
Yo creo que el tema unificador es la relativa a la de la diagonalización ortogonal ATA=UTDU como se ha mencionado aquí, pero me gustaría ver esta idea se explica un poco más.
EXEGÉTICO APÉNDICE para los principiantes:
Estaba lejos de ser evidente, pero después de un poco de ayuda por Michael Hardy y @stewbasic, la respuesta por Étienne de Bézout pueden estar empezando a haga clic en. Así como en el movimiento Recuerdo, creo que es mejor que el tatuaje lo tengo hasta el momento aquí en caso de que sea borrosa en la mañana:
Concepto Uno:
Bloquear la multiplicación de la matriz:
A⊤A=[⋮⋮⋮⋯⋮a⊤1a⊤2a⊤3⋯a⊤n⋮⋮⋮⋯⋮][⋯a1⋯⋯a2⋯⋯a3⋯⋮⋯an⋯]=a\la1partesuperiora1+a\la2partesuperiora2+a\la3partesuperiora3+⋯+a\lanpartesuperioran\etiqueta1
donde ai's [1×n] fila vectores.
Concepto Dos:
El n.
Tenemos las mismas dimensiones para el bloque de la multiplicación de la matriz A⊤[many rows×n]A[n×many rows]=[n×n] matrix, como para cada individuo sumando a⊤iai en Eq. 1.
Concepto Tres:
a⊤iai es engañosa, porque de la definición de clave: fila del vector.
Debido a ai se define como un vector fila, y el ai vectores se normalizan (|ai|=1), a⊤iai es realmente una matriz de la forma XX⊤, que es una matriz de proyección siempre la ai vectores son independientes (consulta: "...son linealmente independientes"), y ortonormales (no es un requisito en la respuesta ("yo no estoy diciendo que son ortogonales")) - Do these vectors actually need to be defined as orthonormal? O puede esta restricción de orthonormality de los vectores ai estar relajado, o implícitamente cumplido en virtud de otras consideraciones? Por otra parte tenemos a un lugar específico de la A de la matriz, haciendo que los resultados menos generalizables.
Concepto De Cuatro:
Una proyección sobre qué?
Sobre el subespacio generado por las columnas de espacio de X (creo OLS proyección de A(A⊤A)−1A⊤). Pero, ¿qué es X aquí? Otro que a⊤i, y desde ai es un vector fila, a⊤i es un vector columna.
Así que nosotros estamos haciendo orto-proyecciones en la columna espacio de A⊤, en Rn.
Tenía la esperanza de que la última frase podría haber sido, "... en la columna de espacio de A...
¿Cuáles son las implicaciones?