Si desea que el método rápido para desplazarse por todo el camino hacia abajo.
Este método requiere relativamente poco cálculos, pero usted debe saber valores propios, vectores propios y diagonalización de matrices teorema.
En primer lugar, demostrar que $A$ es diagonalizable:
Vamos
$$A = [\; \mathbf{a_1} \;\; \mathbf{a_2} \;]$$
Entonces
$$\mathbf{a_1} · \mathbf{a_2} = \text{cos}(\alpha)\text{sin}(\alpha) - \text{sin}(\alpha) \text{cos}(\alpha) = 0$$
Y
$$\Vert \mathbf{a_1} \Vert = \Vert \mathbf{a_2} \Vert = \text{cos}^2(\alpha) + \text{sin}^2(\alpha) = 1$$
Esta es una identidad trigonométrica.
Estas dos condiciones hacen que $A$ diagonalizable, o en otras palabras, existe una invertible $2 \times 2$ matriz $Q$ tal que $Q^{-1} = Q^{T}$ Tal que
$$QAQ^T = D$$
Donde
$D$ es una matriz diagonal con los valores propios de la diagonal.
$Q$ está dado por los vectores propios de a$A$, y el orden de las columnas de $Q$ ($\Rightarrow$ los vectores propios de a $A$) corresponden a los autovalores de la diagonal de a $D$. Entonces, utilizando la ecuación característica de a $A$, podemos encontrar los valores propios:
$$\text{det}(A-\lambda I) = (\text{cos}(\alpha) - \lambda)^2 - (-\text{sin}^2(\alpha)) = \lambda^2 - 2\lambda \text{cos}(\alpha)+\text{cos}^2(\alpha) + \text{sin}^2(\alpha)$$
$$\Rightarrow \lambda = \frac {2\text{cos}(\alpha) \pm \sqrt{4\text{cos}^2(\alpha) - 4\text{cos}^2(\alpha) - 4\text{sin}^2(\alpha)}}{2} = \text{cos}(\alpha) \pm i\;\text{sin}(\alpha)$$
Ahora, para $\lambda = \text{cos}(\alpha) + i\;\text{sin}(\alpha)$:
$$A-\lambda I = \mathbf{0} \Rightarrow
\begin{bmatrix}
\text{cos}(\alpha) - (\text{cos}(\alpha) \pm i\;\text{sin}(\alpha)) & \text{sin}(\alpha) \\
-\text{sin}(\alpha) & \text{cos}(\alpha) - (\text{cos}(\alpha) \pm i\;\text{sin}(\alpha)) \\
\end{bmatrix} = \begin{bmatrix}
\mp i\;\text{sin}(\alpha) & \text{sin}(\alpha) \\
-\text{sin}(\alpha) & \mp i\;\text{sin}(\alpha) \\
\end{bmatrix} = \mathbf{0}
$$
El primer caso se obtiene
$$\begin{bmatrix}
-i\;\text{sin}(\alpha) & \text{sin}(\alpha) \\
-\text{sin}(\alpha) & -i\;\text{sin}(\alpha) \\
\end{bmatrix} = \mathbf{0}$$
A través de la Eliminación Gaussiana (específicamente $iR_2 - R_1$)
$$\begin{bmatrix}
-\text{sin}(\alpha) & \text{sin}(\alpha) \\
0 & 0 \\
\end{bmatrix} = \mathbf{0}$$
Así que el primer autovalor de a $A$ tiene la forma $\mathbf{u} = \begin{bmatrix}
u_1 \\
u_2 \\
\end{bmatrix}$
Con la propiedad de que $i\;\text{pecado}(\alpha)u_1 = \text{pecado} u_2 \Rightarrow iu_1 = u_2 \Rightarrow \mathbf{u} = \begin{bmatrix}
i \\
1 \\
\end{bmatrix}$
El segundo caso se obtiene
$$\begin{bmatrix}
i\;\text{sin}(\alpha) & \text{sin}(\alpha) \\
-\text{sin}(\alpha) & i\;\text{sin}(\alpha) \\
\end{bmatrix} = \mathbf{0}$$
A través de la Eliminación Gaussiana (específicamente $iR_2 + R_1$)
$$\Rightarrow \begin{bmatrix}
i\;\text{sin}(\alpha) & \text{sin}(\alpha) \\
0 & 0 \\
\end{bmatrix} = \mathbf{0}
$$
Así que el primer autovalor de a $A$ tiene la forma $\mathbf{u} = \begin{bmatrix}
u_1 \\
u_2 \\
\end{bmatrix}$
Con la propiedad de que $-i\;\text{pecado}(\alpha)u_1 = \text{pecado} u_2 \Rightarrow iu_1 = u_2 \Rightarrow \mathbf{u} = \begin{bmatrix}
-i \\
1 \\
\end{bmatrix}$
Por el teorema de diagonalización, ahora sabemos que:
$$
A = QDQ^T = \begin{bmatrix}
i & -i \\
1 & 1 \\
\end{bmatrix}
\begin{bmatrix}
\text{cos}(\alpha) + i\;\text{sin}(\alpha) & 0 \\
0 & \text{cos}(\alpha) - i\;\text{sin}(\alpha) \\
\end{bmatrix}
\begin{bmatrix}
i & 1 \\
-i & 1 \\
\end{bmatrix}$$
Otro teorema establece que $A^n = QD^nQ^T$. Una adecuada prueba requeriría la inducción matemática, pero he aquí una rápida demostración:
$$A^2 = (QDQ^T)(QDQ^T) = QD(Q^TQ)DQ^T$$
Debido a $Q^T = Q^{-1} \Rightarrow Q^TQ = Q^{-1}Q = I$,
$$A^2 = \cdots = QDIDQ^T = QDDQ^T = QD^2Q^T$$
No es difícil ver que esto funciona $\forall n \in \mathbb{N}$, no sólo por $n = 1$$n = 2$.
También sostiene que para una matriz diagonal $D_{n \times n} = \text{diagonal}(d_1, \cdots, d_n) \Rightarrow D^n = \text{diagonal}(d_1^n, \cdots, d_n^n)$
Por lo tanto:
$$A^n = Q \begin{bmatrix}
(\text{cos}(\alpha) + i\;\text{sin}(\alpha))^n & 0 \\
0 & (\text{cos}(\alpha) - i\;\text{sin}(\alpha))^n \\
\end{bmatrix} P^T$$
Así:
$$A^2 = P \begin{bmatrix}
(\text{cos}(\alpha) + i\;\text{sin}(\alpha))^2 & 0 \\
0 & (\text{cos}(\alpha) - i\;\text{sin}(\alpha))^2 \\
\end{bmatrix} P^T = Q \begin{bmatrix}
\text{cos}^2(\alpha) + 2i\;\text{cos}(\alpha)\text{sin}(\alpha) - \text{sin}(\alpha) & 0 \\
0 & \text{cos}^2(\alpha) - 2i\;\text{cos}(\alpha)\text{sin}(\alpha) + \text{sin}(\alpha) \\
\end{bmatrix} P^T$$
$$A^3 = Q \begin{bmatrix}
(\text{cos}(\alpha) + i\;\text{sin}(\alpha))^3 & 0 \\
0 & (\text{cos}(\alpha) - i\;\text{sin}(\alpha))^3 \\
\end{bmatrix} P^T$$
$$A^4 = Q \begin{bmatrix}
(\text{cos}(\alpha) + i\;\text{sin}(\alpha))^4 & 0 \\
0 & (\text{cos}(\alpha) - i\;\text{sin}(\alpha))^4 \\
\end{bmatrix} P^T$$
Simplificar y luego encontrar $B$.
O, alternativamente, tenga en cuenta que
$$B = A^4 - A^3 + A^2 - A = A^4 + A^2 - A^3 - A = A^4 + A^2 - (A^3 + A) = A^2(A^2 + I) - A(A^2 + I) = (A^2 - A)(A + I)$$
Y esto podría haber sido resolver mucho más rápido con, literalmente, dos de la matriz de multiplicaciones (uno para $A^2$ y otro para $(A^2 - A)(A + I)$).
Me di cuenta de que pueden hacer lo que este a mitad de camino a través de mi explicación de que el otro método, y es ya muy larga, así que no voy a borrar.