Como complemento a la respuesta de amoeba, daré un esbozo de una forma basada en principios para realizar la clasificación utilizando PCA probabilístico. pPCA es un modelo de la forma $$ p(x) = \mathcal{N}(\mu, C) $$ donde $\mu = \mathbb{E}[x]$ y $C = WWT + \sigma^2 I$ . Encontrar los parámetros (es decir $\mu, W, \sigma^2$ ) puede hacerse por máxima verosimilitud. Si $\sigma^2 \rightarrow 0$ se recupera el modelo PCA estándar. Sin embargo, este modelo incluye la media.
Ahora, se puede obtener una regla de clasificación haciendo uso de la fórmula de Bayes. Estimamos los parámetros de cada clase $i$ por separado y puede conseguir: $$p(c_i|x) = {p(x|c_i)p(c_i) \over p(x)},$$ donde $p(c)$ son las priores de clase y $p(x|c)$ representa el ACP específico de la clase. Este es un ejemplo de modelo generativo de clasificación .
Algunas intuiciones son las siguientes. Supongamos que ambas clases tienen la misma probabilidad (por ejemplo $p(c_i) \propto 1$ ).
Si $C_i = I$ simplemente asignaremos cada punto a la clase con la media más cercana. Si $C_i = C_j \forall i, j$ se utilizará la distancia de Mahalanobis correspondiente. En el caso general, calcularemos la distancia de Mahalanobis específica de la clase con respecto a la media específica de la clase y elegiremos la clase para la que este valor sea menor.
0 votos
Qué
statistical properties
? ¿Y qué le hizo pensar que el ACP (que no es más que un caso especial de rotación) servirá de ayuda?0 votos
Los coeficientes PCA son los vectores propios de la matriz de covarianza, por lo que si los datos no se pueden clasificar (proceden de la misma distribución), su transformación PCA arrojará los mismos coeficientes y, en caso contrario, obtendría coeficientes PCA diferentes.