Hastie, T., Tibshirani R. y Friedman, J. (2008). Los Elementos de Aprendizaje Estadístico. 2ª ed. Stanford: Springer. p.116, la autora afirma que el problema de optimización de la Fisher LDA es (Ecuación 4.16),
\begin{equation} J = \max_{\mathbf{w}} \mathbf{w}^T \mathbf{S_B} \mathbf{w}, \end{equation}
sujeto a la restricción \begin{equation} \mathbf{w}^{T} \mathbf{S_W} \mathbf{w} = 1. \end{equation}
Este problema puede ser resuelto mediante la optimización de Lagrange, por la reescritura de la función de costo en la forma de Lagrange,
\begin{equation} L = \mathbf{w}^T \mathbf{S_B} \mathbf{w} + \lambda(1 - \mathbf{w}^{T} \mathbf{S_W} \mathbf{w}). \end{equation}
Ahora, es posible tomar la derivada parcial de esta función para encontrar maxima,
\begin{equation} \frac{\partial L}{\partial \mathbf{w}} = \mathbf{S_b} \mathbf{w} - \lambda \mathbf{S_w} \mathbf{w}. \end{equation}
La configuración de este cero y reordenando se obtiene,
\begin{equation} \mathbf{S_b} \mathbf{w} = \lambda \mathbf{S_w} \mathbf{w} .\end{equation}
Aviso, que podemos arreglar esto a la forma de un autovalor problema. La ecuación de un autovalor problema es
\begin{equation} \mathbf{A} \mathbf{w} = \lambda \mathbf{w}. \end{equation}
Así que por la inspección y reorganizar podemos ver, que el problema de optimización puede ser recasted a encontrar los vectores propios de la matriz $ \mathbf{S_w}^{-1} \mathbf{S_b} $.
Creo que una mayor comprensión de este problema puede ser obtenida mediante la comparación con el Análisis de Componentes Principales. Si usted tiene una sólida comprensión de por qué PCA resultados en un autovalor problema, entonces se vuelve mucho más sencilla que la LDA es, efectivamente, una "regularización" de la PCA problema y por lo tanto conduce a una solución similar.