Dos libros clásicos donde se pueden encontrar todos los detalles sobre este tema:
- Gantmacher, teoría de la matriz, Chelsea.
- Lancaster-Titsmenesky, The theory of matrices, Academic Press.
En realidad, para los cálculos "a mano", esto funciona a través de la forma canónica de Jordan: encuentras la forma canónica de Jordan de tu matriz, junto con la matriz de cambio de base
$$ A = SJS^{-1} \ . $$
Entonces se demuestra que, para cualquier polinomio $p(t)$ , usted tiene
$$ p(A) = S p(J) S^{-1} \ . $$
Por lo tanto,
$$ f(A) = S f(J) S^{-1} $$
y sólo hay que calcular $p(J)$ para las matrices de Jordan.
Lo cual se hace de la siguiente manera: primero, si se tiene una matriz diagonal de bloques
$$ J = \begin{pmatrix} J_1 & 0 & \dots & 0 \\ 0 & J_2 & \dots & 0 \\ \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & \dots & J_r \end{pmatrix} $$
se puede demostrar fácilmente que
$$ p(J) = \begin{pmatrix} p(J_1) & 0 & \dots & 0 \\ 0 & p(J_2) & \dots & 0 \\ \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & \dots & p(J_r) \end{pmatrix} $$
Así que, de nuevo, por un lado,
$$ f(J) = \begin{pmatrix} f(J_1) & 0 & \dots & 0 \\ 0 & f(J_2) & \dots & 0 \\ \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & \dots & f(J_r) \end{pmatrix} $$
y, por otro lado, sólo necesitas saber $p(J)$ cuando $J$ es un bloque Jordan. Si :
$$ J = \begin{pmatrix} \lambda & 0 & 0 & \dots & 0 & 0 \\ 1 & \lambda & 0 & \dots & 0 & 0 \\ 0 & 1 & \lambda & \dots & 0 & 0 \\ \vdots & \vdots & \ddots & \ddots & \vdots & \vdots \\ 0 & 0 & \dots & 1 & \lambda & 0 \\ 0 & 0 & \dots & 0 & 1 & \lambda \end{pmatrix} $$
es un $r\times r$ Bloque de Jordania, entonces
$$ p(J) = \begin{pmatrix} p(\lambda ) & 0 & 0 & \dots & 0 & 0 \\ p'(\lambda)/ 1! & p(\lambda) & 0 & \dots & 0 & 0 \\ p''(\lambda)/ 2! & p'(\lambda)/ 1! & p(\lambda) & \dots & 0 & 0 \\ \vdots & \vdots & \ddots & \ddots & \vdots & \vdots \\ p^{(r-2)}(\lambda)/(r-2)! &p^{(r-3)}(\lambda)/(r-3)! & \dots & p'(\lambda)/ 1! & p(\lambda) & 0 \\ p^{(r-1)}(\lambda)/(r-1)! &p^{(r-2)}(\lambda)/(r-2)! & \dots & p''(\lambda)/2! & p'(\lambda)/ 1! & p(\lambda) \end{pmatrix} $$
Por lo tanto, de nuevo tiene todo en términos de $f$ de hecho:
$$ f(J) = \begin{pmatrix} f(\lambda ) & 0 & 0 & \dots & 0 & 0 \\ f'(\lambda)/ 1! & f(\lambda) & 0 & \dots & 0 & 0 \\ f''(\lambda)/ 2! & f'(\lambda)/ 1! & f(\lambda) & \dots & 0 & 0 \\ \vdots & \vdots & \ddots & \ddots & \vdots & \vdots \\ f^{(r-2)}(\lambda)/(r-2)! &f^{(r-3)}(\lambda)/(r-3)! & \dots & f'(\lambda)/ 1! & f(\lambda) & 0 \\ f^{(r-1)}(\lambda)/(r-1)! &f^{(r-2)}(\lambda)/(r-2)! & \dots & f''(\lambda)/2! & f'(\lambda)/ 1! & f(\lambda) \end{pmatrix} $$
Y, en esta versión de la historia, en realidad no necesitas conocer tu polinomio $p(t)$ para su función $f(t)$ y la matriz $A$ -pero no es difícil encontrarlo, de todos modos: se llama Lagrange-Sylvester polinomio, que es una especie de mezcla entre el clásico polinomio de interpolación de Lagrange y una serie de Taylor.
EDITAR
Sin embargo, parece que he olvidado responder a la pregunta más importante: "¿Por qué funciona realmente todo esto?"
Es decir, por qué definir
$$ f(A) = p(A) $$
para algún polinomio $p(t)$ que está de acuerdo con $f(t)$ en el espectro de $A$ ¿todo esto tiene sentido? Es decir, ¿por qué razón podemos llamar a $p(A)$ (lo computable) el "valor" de $f(t)$ en la matriz $A$ ?
Por lo siguiente:
Teorema. (Gantmacher, capítulo V, $\S 4$ teorema 2). Si la función $f(t)$ puede expandirse en una serie de potencias en el círculo $\vert t - \lambda \vert < r$ ,
$$ f(t) = \sum_{n=0}^\infty a_n(t-\lambda)^n \ , $$
entonces esta expansión sigue siendo válida cuando el argumento escalar $t$ se sustituye por una matriz $A$ cuyos valores propios se encuentran dentro del círculo de convergencia.
Es decir, bajo las hipótesis del teorema, se tiene
$$ f(A) = \sum_{n=0}^\infty a_n(A-\lambda I)^n \ , $$
donde el $f(A)$ en el lado izquierdo significa $p(A)$ el valor del polinomio de Lagrange-Sylvester en $A$ .
Entonces, ¿por qué no definir $f(A)$ como esta última serie de potencias (es decir, la serie de Taylor de $f(t)$ )? Pues porque entonces habría que hablar mucho tiempo de los problemas de convergencia de serie de matrices ... Y terminarías, finalmente, en el mismo punto: confiar en la forma canónica de Jordan para los cálculos reales. Así pues, el dispositivo de Lagrange-Sylvester te permite librarte de los problemas de convergencia -si estás dispuesto a aceptar $f(A) = p(A)$ como una buena definición.