12 votos

¿Por qué todos los componentes PLS juntos explican sólo una parte de la varianza de los datos originales?

Tengo un conjunto de datos que consta de 10 variables. Corrí por mínimos cuadrados parciales (PLS) para predecir una única variable de respuesta por estos 10 variables, extraído el 10 de componentes PLS, y entonces se calcula la varianza de cada componente. En los datos originales tomé la suma de las varianzas de todas las variables que se 702.

Luego de dividir la varianza de cada uno de los componentes PLS por esta suma para obtener el porcentaje de la varianza explicada por el PLS, y sorprendentemente juntos todos los componentes de explicar sólo el 44% de la original de la varianza.

¿Cuál es la explicación de que? ¿No debería ser el 100%?

14voto

zowens Puntos 1417

La suma de las varianzas de todos los componentes PLS es normalmente menos de 100%.

Hay muchas variantes de los mínimos cuadrados parciales (PLS). Lo que se usa aquí es el de regresión PLS de un univariado variable de respuesta $\mathbf y$ sobre varias variables $\mathbf X$; este algoritmo es conocido tradicionalmente como PLS1 (a diferencia de otras variantes, véase Rosipal & Kramer, 2006, Introducción y los Últimos Avances en el Parcial Mínimos Cuadrados para una visión general concisa). PLS1 se muestra más adelante para ser equivalente a un más elegante formulación llamado SIMPLS (véase la referencia a la paywalled Jong 1988 en Rosipal & Kramer). La opinión proporcionada por SIMPLS ayuda a entender lo que está pasando en PLS1.

Resulta que lo que PLS1 hace, es encontrar una secuencia de proyecciones lineales $\mathbf t_i = \mathbf X \mathbf w_i$, tal que:

  1. La covarianza entre el $\mathbf y$ $\mathbf t_i$ es máxima;
  2. Todo el peso vectores tienen unidad de longitud, $\|\mathbf w_i\|=1$;
  3. Cualquiera de los dos componentes PLS (aka puntuación de vectores) $\mathbf t_i$ $\mathbf t_j$ no están correlacionados.

Tenga en cuenta que el peso de los vectores no tienen que ser (y no son) ortogonales.

Esto significa que si $\mathbf X$ se compone de $k=10$ variables y se encuentra $10$ PLS componentes, a continuación se encuentra un no-ortogonal base correlacionadas con la proyección de los vectores de la base. Uno puede demostrar matemáticamente que en tal caso la suma de las varianzas de todas estas proyecciones será menos de la varianza total de la $\mathbf X$. Que sería igual si el peso vectores se ortogonal (como, por ejemplo, en PCA), pero en PLS este no es el caso.

No sé de ningún libro de texto o el papel que explícitamente se describe este problema, pero tengo explicada en el contexto de análisis discriminante lineal (LDA), que también produce una serie de correlacionadas proyecciones sobre la no-ortogonal peso de la unidad de vectores, ver aquí: Proporción de varianza explicada en el PCA y LDA.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X