Nota: el Primer par de párrafos que se refieren a unas declaraciones que hizo en una versión anterior de la pregunta.
Si los dos operadores son la identidad, entonces sin duda tiene un subespacio que es invariante bajo ambos, y $1$ dimensiones. La redacción de la pregunta no sugiere que no hay mayor subespacios invariantes bajo ambos (después de todo, $\mathbf{V}$ sí es siempre invariantes bajo tanto en$A$$B$, por lo que siempre tienen grandes dimensiones de los subespacios invariantes. De hecho, lo que se quiere encontrar es la más pequeña posible subespacio no trivial que es invariante bajo tanto en$A$$B$.
La razón es que si usted puede encontrar un $1$-dimensiones del subespacio que es invariante bajo un operador, que el subespacio le da un vector propio y un autovalor. Si usted puede encontrar un $1$-dimensiones del subespacio que es invariante bajo tanto $A$ $B$ , entonces esto nos dice que hay un vector que es un autovector por tanto $A$ $B$ , lo cual es muy útil condición (tenga en cuenta que el mismo vector puede ser un autovector por tanto $A$$B$, pero correspondientes a distintos valores propios). Por desgracia, no siempre se tiene presente, por lo que el problema dice que a veces es necesario tomarse un $2$-dimensiones subespacio lugar.
Por ejemplo, si usted toma el $A$ a la transformación lineal en $\mathbb{C}^2$ que envía a$(1,0)$$(-1,0)$$(0,1)$%#%; y se toma el $(0,1)$ a la transformación lineal que envía a$B$$(1,0)$$(0,-1)$%#%, $(0,1)$ $(-1,0)$ no tienen en común vector propio, de modo que usted no será capaz de encontrar una $A$-dimensiones del subespacio que es invariante bajo tanto en$B$$1$.
Estás en lo correcto de que la única posible autovalores de a $A$ e de $B$$A$$B$; de hecho, puede decirse que: a menos que la característica del campo es$1$, $-1$ $2$ es diagonalizable, debido a su mínima dividir polinomios $A$, que se divide y es la plaza libre.
Deje $B$ $t^2-1$ ser los subespacios propios de a $E^A_{1}$ asociado a$E^A_{-1}$$A$, respectivamente (uno de ellos podría ser trivial, por ejemplo si $1$$-1$, y lo mismo si $A=I$; eso está bien); y de manera similar con $E^A_{-1}=\{\mathbf{0}\}$$A=-I$. Si $E^B_{1}$ algunos $E^B_{-1}$, entonces usted va a hacer: su intersección contiene un $E^A_{\lambda}\cap E^B_{\mu}\neq\{\mathbf{0}\}$-dimensiones del subespacio que es invariante por tanto $\lambda,\mu\in\{1,-1\}$$1$.
Así que usted está en el camino correcto al tratar de encontrar un trivial intersección de subespacios propios.
Desafortunadamente, no se puede afirmar que necesariamente ha $A$ $B$ de intersección no trivial (lo si $E^A_{1}$$E^B_{1}$, por ejemplo? A continuación,$A=-I$).
Desde $B=I$ $E^A_{1}={\mathbf{0}}$ tienen que ser diagonalizable, usted sabe que $A$. Así que trate de averiguar qué pasaría si todos los cuatro intersecciones son triviales (sabemos que eso puede suceder, como ya me dio un ejemplo de arriba, donde se pasa).
Añadido. Bueno, vamos a terminar esto, con la suposición de que $B$ es un espacio vectorial complejo.
Si $\dim(\mathbf{V}) = \dim(E^A_1)+\dim(E^A_{-1}) = \dim(E^B_1)+\dim(E^B_{-1})$ algunos $\mathbf{V}$, luego que se hacen: se acaba de tomar un vector que es un autovector de ambos $E^A_{i}\cap E^B_{j}\neq\{\mathbf{0}\}$$i,j\in\{1,-1\}$, y esto le da una dimensión subespacio invariante. Así que podemos asumir que $A$, $B$. Es decir, debemos estar en la situación:
$E^A_{i}\cap E^B_{j}=\{\mathbf{0}\}$, $i,j\in\{1,-1\}$, y $\dim(\mathbf{V})= 2n$$\dim(E^A_{i}) = \dim(E^B_j) = n$.
(Las dimensiones de seguir, porque si bien $E^A_i\cap E^B_{j} = \{\mathbf{0}\}$ tiene dimensión más de la mitad de la dimensión de $i,j\in\{1,-1\}$, entonces debe de intersección de una $E^A_i$ trivial por la simple dimensión consideraciones, y de forma simétrica para el $\mathbf{V}$; por lo que la dimensión de $E^B_j$ debe ser par, y los subespacios propios deben tener cada uno de dimensión exactamente la mitad).
Desde $E^B_j$ $\mathbf{V}$ es diagonalizable, sabemos que
$A$$
Dado $B$, se puede escribir de manera única como $$\mathbf{V}=E^A_1\oplus E^A_{-1} = E^B_1\oplus E^B_{-1}.$,$\mathbf{v}\in \mathbf{V}$; definir $\mathbf{v}=\mathbf{y}_1+\mathbf{y}_{-1}$$\mathbf{y}_j\in E^B_j$.
La restricción de $p^B_{j}\colon \mathbf{V}\to E^B_{j}$ $p^B_j(\mathbf{y}_1+\mathbf{y}_{-1}) = \mathbf{y}_j$es inyectiva, ya que $p^B_{1}$; de la misma manera para $E^A_1$. Deje $\mathrm{ker}(p^B_1) = E^B_{-1}$ ser la restricción de $p^B_{-1}$$p^B_{1,1}$, vamos a $p^B_{1}$ ser la restricción de $E^A_1$$p^B_{1,-1}$; y de la misma manera vamos a $p^B_{-1}$ ser la restricción de $E^A_{-1}$$p^B_{-1,1}$, e $p^B_{1}$ ser la restricción de $E^A_{-1}$$p^B_{-1,-1}$. A continuación, $p^B_{-1}$ es un isomorfismo, siendo un uno-a-una transformación lineal entre espacios de la misma dimensión.
Deje $E^A_{-1}$ ser el operador definido por
$p^B_{i,j}\colon E^A_i\to E^B_j$$
Entonces a partir de la $T\colon E^A_1\to E^A_1$ es un complejo espacio vectorial, $$T = \left(p^B_{1,-1}\right)^{-1}\circ p^B_{-1,-1}\circ\left(p^B_{-1,1}\right)^{-1}\circ p^B_{1,1}.$ tiene un autovector $E^A_1$, que corresponde a algunos autovalor $T$.
Deje $\mathbf{x}_1$,$\lambda$. Tenga en cuenta que $\mathbf{x}_1 = \mathbf{y}_1 + \mathbf{y}_{-1}$ (si bien uno es cero, entonces obtenemos un vector que es un autovector por tanto $\mathbf{y}_j \in E^B_{j}$$\mathbf{y}_j\neq \mathbf{0}$, y ya hemos descartado este caso). Vamos
$A$$
A continuación,$B$. Por lo tanto, $$\mathbf{x}_{-1} = (p^B_{-1,1})^{-1}(\mathbf{y}_1) = (p^B_{-1,1})^{-1}\circ p^B_{1,1}(\mathbf{x}_1)\in E^A_{-1}.$ son linealmente independientes. Deje $\mathbf{x}_{-1}\neq\mathbf{0}$. Desde $\mathbf{x}_1,\mathbf{x}_{-1}$ es un autovector de a $\mathbf{W}=\mathrm{span}(\mathbf{x}_1,\mathbf{x}_{-1})$, lo que significa que $\mathbf{x}_i$ tiene una base de vectores propios de a $A$, y por lo tanto $\mathbf{W}$ $A$- invariante.
Escribir $\mathbf{W}$,$A$. Entonces
$\mathbf{x}_{-1} = \mathbf{z}_1+\mathbf{z}_{-1}$$
Y aviso que desde $\mathbf{z}_j\in E^B_j$, luego
$$\mathbf{z}_1 = p^B_{-1,1}(\mathbf{x}_{-1}) = p^B_{-1,-1}\left((p^B_{-1,1})^{-1}(\mathbf{y}_1)\right) = \mathbf{y}_1.$$
Por lo tanto, $T(\mathbf{x}_1) = \lambda\mathbf{x}_1$. Es decir, tenemos:
$$\begin{align*}
\mathbf{x}_1 &= \mathbf{y}_1 + \mathbf{y}_{-1},\\
\mathbf{x}_{-1} &= \mathbf{y}_1 + \lambda\mathbf{y}_{-1}.
\end{align*}$$
Por último, tenga en cuenta que $$\mathbf{y}_{-1} = p^B_{1,-1}(\mathbf{x}_1) = \frac{1}{\lambda}p^B_{1,-1}(T(\mathbf{x}_1)) = \frac{1}{\lambda}p^B_{-1,-1}\circ (p^B_{-1,1})^{-1}\circ p^B_{1,1}(\mathbf{x}_1) = \frac{1}{\lambda}p^B_{-1,-1}(\mathbf{x}_{-1}) = \frac{1}{\lambda}\mathbf{z}_{-1}.$, debido a $\mathbf{z}_{-1} = \lambda\mathbf{y}_{-1}$ $\lambda\neq 1$ son linealmente independientes. Pero esto significa que
$\mathbf{x}_1$$
La última igualdad se sigue ya que puede sustituir a $\mathbf{x}_{-1}$ con la diferencia entre los dos vectores de la base, que es un valor distinto de cero múltiples de $$\mathbf{W} = \mathrm{span}(\mathbf{x}_1,\mathbf{x}_{-1}) = \mathrm{span}(\mathbf{y}_1+\mathbf{y}_{-1},\mathbf{y}_1+\lambda\mathbf{y}_{-1}) = \mathrm{span}(\mathbf{y}_1,\mathbf{y}_{-1}).$; entonces podemos reemplazar este múltiple con $\mathbf{y}_1+\lambda\mathbf{y}_{-1}$ sí, y entonces podemos reemplazar $\mathbf{y}_{-1}$ $\mathbf{y}_{-1}$ por sí misma, ya $\mathbf{y}_1+\mathbf{y}_{-1}$ es también en el tramo.
Por lo tanto, existe una base para $\mathbf{y}_1$, es decir,$\mathbf{y}_{-1}$, que consta de los vectores propios de a $\mathbf{W}$. Por lo tanto, $[\mathbf{y}_1,\mathbf{y}_{-1}]$ $B$- invariante.
En resumen, si no hay $\mathbf{W}$-dimensiones de los subespacios que son tanto $B$ - $1$- invariante, entonces hay un $A$-dimensiones subespacio que es $b$ - $2$- invariante.
Nota. Aunque parece que hay cierta falta de simetría en $A$, ya que depende de las proyecciones de $B$, tenga en cuenta que $T$, lo que en realidad el argumento es muy simétrico en relación a $B$$(p^B_{ij})^{-1} = p^A_{ji}$.
Agregó 2. (Y simplificado) para responder A su pregunta en los comentarios de Plop respuesta ("¿por Qué están necesariamente alineados?"), supongamos que usted tiene
$A$, $B$, $\dim(\mathbf{V})=2n$
y que $\dim(E^A_{i})=\dim(E^B_{j})=n$ $E^A_i\cap E^B_{j}=\{\mathbf{0}\}$- dimensiones subespacio de $\mathbf{W}$ $2$- invariante, y $\mathbf{V}$-invariante.
Recuerde que la restricción de un operador diagonalizable a un subespacio invariante es diagonalizable. Por lo $A$ debe tener una base de vectores propios de a $B$ e de $\mathbf{W}$.
Si $A$, entonces los vectores propios de a $B$ $\mathbf{W}\subseteq E^A_i$ sería común vectores propios de a$B$$\mathbf{W}$, lo que nos están gobernando. Por lo $A$ no puede ser contenida en $B$; simétricamente, no puede ser contenido en $\mathbf{W}$. Ya que las restricciones de ambos $E^A_i$ $E^B_j$ es diagonalizable, podemos encontrar una base para $A$ consta de los vectores propios de a $B$, y uno que consta de los vectores propios de a $\mathbf{W}$. Pero eso significa que hay una base $A$$B$$\mathbf{x}_1,\mathbf{x}_{-1}$, y una base $\mathbf{W}$$\mathbf{x}_i\in E^A_i$.
Si escribimos $\mathbf{y}_1,\mathbf{y}_{-1}$
$$\begin{align*}
\mathbf{x}_1 &= \mathbf{z}_1+\mathbf{z}_{-1}\\
\mathbf{x}_{-1}&=\mathbf{w}_1 + \mathbf{w}_{-1}
\end{align*}$$
con $\mathbf{y}_j\in E^B_j$, ya que el $\mathbf{x}_i$ son una base para $\mathbf{z}_j,\mathbf{w}_j\in E^B_j$ debemos tener ese $\mathbf{y}_j$, por lo que el $\mathbf{W}$ componentes de $\mathbf{z}_j,\mathbf{w}_j\in\mathrm{span}(\mathbf{y}_j)$ $E^B_j$ son múltiplos de la misma vector; es decir, son colineales. Por lo $\mathbf{x}_{1}$ $\mathbf{x}_{-1}$ son colineales; de la misma manera con sus imágenes en $p^B_{1,1}(\mathbf{x}_1)$.
Simétricamente, si escribimos la $p^B_{-1,1}(\mathbf{x}_{-1})$ como una suma de vectores en $E^B_{-1}$, $\mathbf{y}_j$ componentes deben ser múltiplos de $E^A_i$, y el $E^A_1$ componentes deben ser múltiplos de $\mathbf{x}_1$, por lo que son colineales.
En particular, utilizando el argumento dado por Plop, vemos que la existencia de un 2-dimensional subespacio de $E^A_{-1}$ que es $\mathbf{x}_{-1}$ - $\mathbf{V}$- invariante, entonces no está contenida en $A$ o $B$, $E^A_i$, y la existencia de un vector propio para el operador $E^B_j$ definido anteriormente de la siguiente manera.
En resumen, juntando las dos partes, tenemos las siguientes:
Teorema. Supongamos $i,j\in\{1,-1\}$ es un espacio vectorial (sobre un campo de características diferentes de $T$), y $\mathbf{V}$ $2$ son operadores que $A$. Deje $B$ ser el subespacio propio de $A^2=B^2=I$ correspondiente a $E^A_i$, $A$ el espacio propio de $i$ correspondiente a$E^B_j$,$B$. Supongamos, además, que $j$, $i,j\in\{1,-1\}$, y $\dim(\mathbf{V})=2n$. A continuación, $\dim(E^A_i)=\dim(E^B_j)=n$ $E^A_i\cap E^B_j = \{\mathbf{0}\}$- dimensiones subespacio que es $\mathbf{V}$-invariante y $2$-invariante si y sólo si el operador
$A$$
en $B$ tiene un autovector, donde $$T = \left(p^B_{1,-1}\right)^{-1}\circ p^B_{-1,-1}\circ\left(p^B_{-1,1}\right)^{-1}\circ p^B_{1,1} = p^A_{-1,1}\circ p^B_{-1,-1}\circ p^A_{1,-1}\circ p^B_{1,1}$ es la restricción de la proyección de $E^A_1$ a lo largo de $p^A_{j,i}$$p^A_i\colon \mathbf{V}\to E^A_i$, e $E^A_{-i}$ es la restricción de la proyección de $E^B_j$ a lo largo de $p^B_{i,j}$$p^B_j\colon \mathbf{V}\to E^B_{j}$.
La razón por la que necesitamos la particularidad de ser diferente de $E^B_{-j}$ es así que podemos usar el hecho de que $E^A_i$ $2$ son tanto diagonalizable; si el carácter es $A$, entonces no sabemos que, debido a que el polinomio mínimo podría ser $B$.