En primer lugar, algunas observaciones sobre el trabajo de nuestra OP Essie Stern; después, aportaré mi propia opinión sobre este tema.
Aparentemente, estamos utilizando el mapeo
$\begin{bmatrix} a & b \\ c & d \end{bmatrix} \mapsto \begin{pmatrix} a \\b \\ c \\ d \end{pmatrix} \tag 1$
para expresar los miembros de $M_{2 \times 2}$ como vectores columna; el mapa es claramente un isomorfismo lineal entre espacios vectoriales. Es fácil ver que en esta representación, el mapa
$T\begin{bmatrix} a & b \\ c & d \end{bmatrix} = \begin{bmatrix} c & d \\ a & b \end{bmatrix} \tag 2$
corresponde a la matriz
$A = \begin{bmatrix} 0 & 0 & 1 & 0 \\ 0 & 0 & 0 & 1 \\ 1 & 0 & 0 & 0 \\ 0 & 1 & 0 & 0 \end{bmatrix}; \tag 3$
los valores propios de $A$ entonces satisface
$0 = \det(A - \lambda I) = \det \left (\begin{bmatrix} -\lambda & 0 & 1 & 0 \\ 0 & -\lambda & 0 & 1 \\ 1 & 0 & -\lambda & 0 \\ 0 & 1 & 0 & -\lambda \end{bmatrix} \right ); \tag 4$
La comparación con la ecuación (3) en el cuerpo de la pregunta indica que nuestra OP Essie Stein se equivocó al construir la matriz $A - \lambda I$ aparentemente sustituyendo algunos de los $1$ s en posiciones no diagonales con $1$ s en la diagonal, lo que da lugar a la $1 - \lambda$ entradas que aparecen en (3) de la pregunta.
Para continuar, podemos expandir (4) en menores a lo largo de la primera columna, dando como resultado
$\det(A - \lambda I) = -\lambda \det \left ( \begin{bmatrix} -\lambda & 0 & 1 \\ 0 & -\lambda & 0 \\ 1 & 0 & - \lambda \end{bmatrix} \right ) + 1 \cdot \det \left (\begin{bmatrix} 0 & 1 & 0 \\ -\lambda & 0 & 1 \\ 1 & 0 & -\lambda \end{bmatrix} \right )$ $= -\lambda(-\lambda^3 + \lambda) + 1 \cdot (1 - \lambda^2) = \lambda^4 - 2 \lambda^2 + 1 = (\lambda^2 - 1)^2; \tag 5$
las raíces de
$(\lambda^2 - 1)^2 = 0 \tag 6$
se ven fácilmente $-1, -1, 1, 1$ Estos son los valores propios de la $4 \times 4$ matriz $A$ A partir de aquí, sólo hay que dar un pequeño paso para encontrar los eigvectores correspondientes a estos valores resolviendo la ecuación
$\begin{bmatrix} 0 & 0 & 1 & 0 \\ 0 & 0 & 0 & 1 \\ 1 & 0 & 0 & 0 \\ 0 & 1 & 0 & 0 \end{bmatrix}\begin{pmatrix} a \\b \\ c \\ d \end{pmatrix} = \begin{pmatrix} c \\ d \\ a \\ b \end{pmatrix} = \pm 1 \begin{pmatrix} a \\b \\ c \\ d \end{pmatrix}; \tag 7$
de hecho debemos tener
$(a, b) = \pm (c, d); \tag 8$
Desde aquí no hay más que un paso para ver que el $+1$ y $-1$ eigenspaces de $A$ y por lo tanto $T$ son cada una de ellas bidimensional, y para calcular cuál $2 \times 2$ Las matrices se encuentran en cada eigespacio; los detalles son sencillos y se dejan al lector.
Habiendo mostrado cómo el enfoque sugerido por nuestra OP Ellie Stein es supuestamente para que funcione, ahora proporcionaré la prometida solución más sencilla:
Observamos en (2) que
$T^2\begin{bmatrix} a & b \\ c & d \end{bmatrix} = \begin{bmatrix} a & b \\ c & d \end{bmatrix}; \tag 9$
así
$T^2 = I \tag{10}$
en $M_{2 \times 2}$ Por lo tanto, se deduce que los valores propios de $T$ debe satisfacer
$\lambda^2 - 1 = 0, \tag{11}$
es decir,
$\lambda \in \{-1, 1 \}; \tag{12}$
las matrices de vectores propios de $T$ debe entonces obedecer
$T\begin{bmatrix} a & b \\ c & d \end{bmatrix} = \begin{bmatrix} c & d \\ a & b \end{bmatrix} = \lambda \begin{bmatrix} a & b \\ c & d \end{bmatrix}; \tag{13}$
entonces es fácil ver, inspeccionando (13), que debemos tener
$\lambda = 1 \Longleftrightarrow (c, d) = (a, b), \tag{14}$
$\lambda = -1 \Longleftrightarrow (c, d) = -(a, b), \tag{15}$
que en conjunto demuestran que tanto $-1$ y $1$ son de hecho valores propios de $T$ los eigenspaces de cada uno son de hecho bidimensionales, siendo de hecho matrices de la forma
$\begin{bmatrix} a & b \\ a & b \end{bmatrix} \; \text{when} \; \lambda = 1, \tag{16}$
y
$\begin{bmatrix} a & b \\ -a & -b \end{bmatrix} \; \text{when} \; \lambda = -1. \tag{17}$