8 votos

Subespacio Invariante de Dos Involuciones Lineales

Me encantaría recibir ayuda con este problema de práctica:

Si $A$ y $B$ son dos operadores lineales en un espacio vectorial complejo de dimensión finita $V$ tales que $A^2 = B^2 = I$ entonces demuestra que $V$ tiene un subespacio invariante de una o dos dimensiones bajo $A$ y $B.

¡Gracias!

6voto

Lorin Hochstein Puntos 11816

Nota: el Primer par de párrafos que se refieren a unas declaraciones que hizo en una versión anterior de la pregunta.

Si los dos operadores son la identidad, entonces sin duda tiene un subespacio que es invariante bajo ambos, y $1$ dimensiones. La redacción de la pregunta no sugiere que no hay mayor subespacios invariantes bajo ambos (después de todo, $\mathbf{V}$ sí es siempre invariantes bajo tanto en$A$$B$, por lo que siempre tienen grandes dimensiones de los subespacios invariantes. De hecho, lo que se quiere encontrar es la más pequeña posible subespacio no trivial que es invariante bajo tanto en$A$$B$.

La razón es que si usted puede encontrar un $1$-dimensiones del subespacio que es invariante bajo un operador, que el subespacio le da un vector propio y un autovalor. Si usted puede encontrar un $1$-dimensiones del subespacio que es invariante bajo tanto $A$ $B$ , entonces esto nos dice que hay un vector que es un autovector por tanto $A$ $B$ , lo cual es muy útil condición (tenga en cuenta que el mismo vector puede ser un autovector por tanto $A$$B$, pero correspondientes a distintos valores propios). Por desgracia, no siempre se tiene presente, por lo que el problema dice que a veces es necesario tomarse un $2$-dimensiones subespacio lugar.

Por ejemplo, si usted toma el $A$ a la transformación lineal en $\mathbb{C}^2$ que envía a$(1,0)$$(-1,0)$$(0,1)$%#%; y se toma el $(0,1)$ a la transformación lineal que envía a$B$$(1,0)$$(0,-1)$%#%, $(0,1)$ $(-1,0)$ no tienen en común vector propio, de modo que usted no será capaz de encontrar una $A$-dimensiones del subespacio que es invariante bajo tanto en$B$$1$.


Estás en lo correcto de que la única posible autovalores de a $A$ e de $B$$A$$B$; de hecho, puede decirse que: a menos que la característica del campo es$1$, $-1$ $2$ es diagonalizable, debido a su mínima dividir polinomios $A$, que se divide y es la plaza libre.

Deje $B$ $t^2-1$ ser los subespacios propios de a $E^A_{1}$ asociado a$E^A_{-1}$$A$, respectivamente (uno de ellos podría ser trivial, por ejemplo si $1$$-1$, y lo mismo si $A=I$; eso está bien); y de manera similar con $E^A_{-1}=\{\mathbf{0}\}$$A=-I$. Si $E^B_{1}$ algunos $E^B_{-1}$, entonces usted va a hacer: su intersección contiene un $E^A_{\lambda}\cap E^B_{\mu}\neq\{\mathbf{0}\}$-dimensiones del subespacio que es invariante por tanto $\lambda,\mu\in\{1,-1\}$$1$.

Así que usted está en el camino correcto al tratar de encontrar un trivial intersección de subespacios propios.

Desafortunadamente, no se puede afirmar que necesariamente ha $A$ $B$ de intersección no trivial (lo si $E^A_{1}$$E^B_{1}$, por ejemplo? A continuación,$A=-I$).

Desde $B=I$ $E^A_{1}={\mathbf{0}}$ tienen que ser diagonalizable, usted sabe que $A$. Así que trate de averiguar qué pasaría si todos los cuatro intersecciones son triviales (sabemos que eso puede suceder, como ya me dio un ejemplo de arriba, donde se pasa).


Añadido. Bueno, vamos a terminar esto, con la suposición de que $B$ es un espacio vectorial complejo.

Si $\dim(\mathbf{V}) = \dim(E^A_1)+\dim(E^A_{-1}) = \dim(E^B_1)+\dim(E^B_{-1})$ algunos $\mathbf{V}$, luego que se hacen: se acaba de tomar un vector que es un autovector de ambos $E^A_{i}\cap E^B_{j}\neq\{\mathbf{0}\}$$i,j\in\{1,-1\}$, y esto le da una dimensión subespacio invariante. Así que podemos asumir que $A$, $B$. Es decir, debemos estar en la situación:

$E^A_{i}\cap E^B_{j}=\{\mathbf{0}\}$, $i,j\in\{1,-1\}$, y $\dim(\mathbf{V})= 2n$$\dim(E^A_{i}) = \dim(E^B_j) = n$.

(Las dimensiones de seguir, porque si bien $E^A_i\cap E^B_{j} = \{\mathbf{0}\}$ tiene dimensión más de la mitad de la dimensión de $i,j\in\{1,-1\}$, entonces debe de intersección de una $E^A_i$ trivial por la simple dimensión consideraciones, y de forma simétrica para el $\mathbf{V}$; por lo que la dimensión de $E^B_j$ debe ser par, y los subespacios propios deben tener cada uno de dimensión exactamente la mitad).

Desde $E^B_j$ $\mathbf{V}$ es diagonalizable, sabemos que $A$$ Dado $B$, se puede escribir de manera única como $$\mathbf{V}=E^A_1\oplus E^A_{-1} = E^B_1\oplus E^B_{-1}.$,$\mathbf{v}\in \mathbf{V}$; definir $\mathbf{v}=\mathbf{y}_1+\mathbf{y}_{-1}$$\mathbf{y}_j\in E^B_j$.

La restricción de $p^B_{j}\colon \mathbf{V}\to E^B_{j}$ $p^B_j(\mathbf{y}_1+\mathbf{y}_{-1}) = \mathbf{y}_j$es inyectiva, ya que $p^B_{1}$; de la misma manera para $E^A_1$. Deje $\mathrm{ker}(p^B_1) = E^B_{-1}$ ser la restricción de $p^B_{-1}$$p^B_{1,1}$, vamos a $p^B_{1}$ ser la restricción de $E^A_1$$p^B_{1,-1}$; y de la misma manera vamos a $p^B_{-1}$ ser la restricción de $E^A_{-1}$$p^B_{-1,1}$, e $p^B_{1}$ ser la restricción de $E^A_{-1}$$p^B_{-1,-1}$. A continuación, $p^B_{-1}$ es un isomorfismo, siendo un uno-a-una transformación lineal entre espacios de la misma dimensión.

Deje $E^A_{-1}$ ser el operador definido por $p^B_{i,j}\colon E^A_i\to E^B_j$$ Entonces a partir de la $T\colon E^A_1\to E^A_1$ es un complejo espacio vectorial, $$T = \left(p^B_{1,-1}\right)^{-1}\circ p^B_{-1,-1}\circ\left(p^B_{-1,1}\right)^{-1}\circ p^B_{1,1}.$ tiene un autovector $E^A_1$, que corresponde a algunos autovalor $T$.

Deje $\mathbf{x}_1$,$\lambda$. Tenga en cuenta que $\mathbf{x}_1 = \mathbf{y}_1 + \mathbf{y}_{-1}$ (si bien uno es cero, entonces obtenemos un vector que es un autovector por tanto $\mathbf{y}_j \in E^B_{j}$$\mathbf{y}_j\neq \mathbf{0}$, y ya hemos descartado este caso). Vamos $A$$ A continuación,$B$. Por lo tanto, $$\mathbf{x}_{-1} = (p^B_{-1,1})^{-1}(\mathbf{y}_1) = (p^B_{-1,1})^{-1}\circ p^B_{1,1}(\mathbf{x}_1)\in E^A_{-1}.$ son linealmente independientes. Deje $\mathbf{x}_{-1}\neq\mathbf{0}$. Desde $\mathbf{x}_1,\mathbf{x}_{-1}$ es un autovector de a $\mathbf{W}=\mathrm{span}(\mathbf{x}_1,\mathbf{x}_{-1})$, lo que significa que $\mathbf{x}_i$ tiene una base de vectores propios de a $A$, y por lo tanto $\mathbf{W}$ $A$- invariante.

Escribir $\mathbf{W}$,$A$. Entonces $\mathbf{x}_{-1} = \mathbf{z}_1+\mathbf{z}_{-1}$$ Y aviso que desde $\mathbf{z}_j\in E^B_j$, luego $$\mathbf{z}_1 = p^B_{-1,1}(\mathbf{x}_{-1}) = p^B_{-1,-1}\left((p^B_{-1,1})^{-1}(\mathbf{y}_1)\right) = \mathbf{y}_1.$$ Por lo tanto, $T(\mathbf{x}_1) = \lambda\mathbf{x}_1$. Es decir, tenemos: $$\begin{align*} \mathbf{x}_1 &= \mathbf{y}_1 + \mathbf{y}_{-1},\\ \mathbf{x}_{-1} &= \mathbf{y}_1 + \lambda\mathbf{y}_{-1}. \end{align*}$$ Por último, tenga en cuenta que $$\mathbf{y}_{-1} = p^B_{1,-1}(\mathbf{x}_1) = \frac{1}{\lambda}p^B_{1,-1}(T(\mathbf{x}_1)) = \frac{1}{\lambda}p^B_{-1,-1}\circ (p^B_{-1,1})^{-1}\circ p^B_{1,1}(\mathbf{x}_1) = \frac{1}{\lambda}p^B_{-1,-1}(\mathbf{x}_{-1}) = \frac{1}{\lambda}\mathbf{z}_{-1}.$, debido a $\mathbf{z}_{-1} = \lambda\mathbf{y}_{-1}$ $\lambda\neq 1$ son linealmente independientes. Pero esto significa que $\mathbf{x}_1$$ La última igualdad se sigue ya que puede sustituir a $\mathbf{x}_{-1}$ con la diferencia entre los dos vectores de la base, que es un valor distinto de cero múltiples de $$\mathbf{W} = \mathrm{span}(\mathbf{x}_1,\mathbf{x}_{-1}) = \mathrm{span}(\mathbf{y}_1+\mathbf{y}_{-1},\mathbf{y}_1+\lambda\mathbf{y}_{-1}) = \mathrm{span}(\mathbf{y}_1,\mathbf{y}_{-1}).$; entonces podemos reemplazar este múltiple con $\mathbf{y}_1+\lambda\mathbf{y}_{-1}$ sí, y entonces podemos reemplazar $\mathbf{y}_{-1}$ $\mathbf{y}_{-1}$ por sí misma, ya $\mathbf{y}_1+\mathbf{y}_{-1}$ es también en el tramo.

Por lo tanto, existe una base para $\mathbf{y}_1$, es decir,$\mathbf{y}_{-1}$, que consta de los vectores propios de a $\mathbf{W}$. Por lo tanto, $[\mathbf{y}_1,\mathbf{y}_{-1}]$ $B$- invariante.

En resumen, si no hay $\mathbf{W}$-dimensiones de los subespacios que son tanto $B$ - $1$- invariante, entonces hay un $A$-dimensiones subespacio que es $b$ - $2$- invariante.

Nota. Aunque parece que hay cierta falta de simetría en $A$, ya que depende de las proyecciones de $B$, tenga en cuenta que $T$, lo que en realidad el argumento es muy simétrico en relación a $B$$(p^B_{ij})^{-1} = p^A_{ji}$.


Agregó 2. (Y simplificado) para responder A su pregunta en los comentarios de Plop respuesta ("¿por Qué están necesariamente alineados?"), supongamos que usted tiene

$A$, $B$, $\dim(\mathbf{V})=2n$

y que $\dim(E^A_{i})=\dim(E^B_{j})=n$ $E^A_i\cap E^B_{j}=\{\mathbf{0}\}$- dimensiones subespacio de $\mathbf{W}$ $2$- invariante, y $\mathbf{V}$-invariante.

Recuerde que la restricción de un operador diagonalizable a un subespacio invariante es diagonalizable. Por lo $A$ debe tener una base de vectores propios de a $B$ e de $\mathbf{W}$.

Si $A$, entonces los vectores propios de a $B$ $\mathbf{W}\subseteq E^A_i$ sería común vectores propios de a$B$$\mathbf{W}$, lo que nos están gobernando. Por lo $A$ no puede ser contenida en $B$; simétricamente, no puede ser contenido en $\mathbf{W}$. Ya que las restricciones de ambos $E^A_i$ $E^B_j$ es diagonalizable, podemos encontrar una base para $A$ consta de los vectores propios de a $B$, y uno que consta de los vectores propios de a $\mathbf{W}$. Pero eso significa que hay una base $A$$B$$\mathbf{x}_1,\mathbf{x}_{-1}$, y una base $\mathbf{W}$$\mathbf{x}_i\in E^A_i$.

Si escribimos $\mathbf{y}_1,\mathbf{y}_{-1}$ $$\begin{align*} \mathbf{x}_1 &= \mathbf{z}_1+\mathbf{z}_{-1}\\ \mathbf{x}_{-1}&=\mathbf{w}_1 + \mathbf{w}_{-1} \end{align*}$$ con $\mathbf{y}_j\in E^B_j$, ya que el $\mathbf{x}_i$ son una base para $\mathbf{z}_j,\mathbf{w}_j\in E^B_j$ debemos tener ese $\mathbf{y}_j$, por lo que el $\mathbf{W}$ componentes de $\mathbf{z}_j,\mathbf{w}_j\in\mathrm{span}(\mathbf{y}_j)$ $E^B_j$ son múltiplos de la misma vector; es decir, son colineales. Por lo $\mathbf{x}_{1}$ $\mathbf{x}_{-1}$ son colineales; de la misma manera con sus imágenes en $p^B_{1,1}(\mathbf{x}_1)$.

Simétricamente, si escribimos la $p^B_{-1,1}(\mathbf{x}_{-1})$ como una suma de vectores en $E^B_{-1}$, $\mathbf{y}_j$ componentes deben ser múltiplos de $E^A_i$, y el $E^A_1$ componentes deben ser múltiplos de $\mathbf{x}_1$, por lo que son colineales.

En particular, utilizando el argumento dado por Plop, vemos que la existencia de un 2-dimensional subespacio de $E^A_{-1}$ que es $\mathbf{x}_{-1}$ - $\mathbf{V}$- invariante, entonces no está contenida en $A$ o $B$, $E^A_i$, y la existencia de un vector propio para el operador $E^B_j$ definido anteriormente de la siguiente manera.

En resumen, juntando las dos partes, tenemos las siguientes:

Teorema. Supongamos $i,j\in\{1,-1\}$ es un espacio vectorial (sobre un campo de características diferentes de $T$), y $\mathbf{V}$ $2$ son operadores que $A$. Deje $B$ ser el subespacio propio de $A^2=B^2=I$ correspondiente a $E^A_i$, $A$ el espacio propio de $i$ correspondiente a$E^B_j$,$B$. Supongamos, además, que $j$, $i,j\in\{1,-1\}$, y $\dim(\mathbf{V})=2n$. A continuación, $\dim(E^A_i)=\dim(E^B_j)=n$ $E^A_i\cap E^B_j = \{\mathbf{0}\}$- dimensiones subespacio que es $\mathbf{V}$-invariante y $2$-invariante si y sólo si el operador $A$$ en $B$ tiene un autovector, donde $$T = \left(p^B_{1,-1}\right)^{-1}\circ p^B_{-1,-1}\circ\left(p^B_{-1,1}\right)^{-1}\circ p^B_{1,1} = p^A_{-1,1}\circ p^B_{-1,-1}\circ p^A_{1,-1}\circ p^B_{1,1}$ es la restricción de la proyección de $E^A_1$ a lo largo de $p^A_{j,i}$$p^A_i\colon \mathbf{V}\to E^A_i$, e $E^A_{-i}$ es la restricción de la proyección de $E^B_j$ a lo largo de $p^B_{i,j}$$p^B_j\colon \mathbf{V}\to E^B_{j}$.

La razón por la que necesitamos la particularidad de ser diferente de $E^B_{-j}$ es así que podemos usar el hecho de que $E^A_i$ $2$ son tanto diagonalizable; si el carácter es $A$, entonces no sabemos que, debido a que el polinomio mínimo podría ser $B$.

5voto

user3595 Puntos 29

Considera la transformación lineal $AB:V\to V$. Dado que $V$ es un espacio vectorial complejo, $AB$ tiene al menos un autovector, llámalo $X$, es decir, $ABx=\lambda x$. Nota, $AABx=Bx=A\lambda x=\lambda Ax$ y luego $x=BBx=BA\lambda x=\lambda BAx$ Así que considera el espacio $\langle x, Ax\rangle$. Nota, este espacio es invariante bajo $A$, claramente, $Bx=\lambda Ax$ y $BAx=x$ por lo que es invariante bajo $B$. Este espacio es al menos de una dimensión.

4voto

David Hall Puntos 17450

Esto no es cierto en general, supongo que omitiste parte de la pregunta (algo así como "$V$ es un espacio vectorial complejo").

La dimensión de subespacios estables bajo operadores lineales es algo que depende mucho del cuerpo base $K$.

Supongamos que estamos en una situación donde tu argumento (más precisamente la variación señalada por Qiaochu y Arturo) no funciona, es decir, $E^A_{i} \cap E^B_{j} = \{ 0 \}$ para todos los $i,j$. Como explicó Arturo, no hay un subespacio unidimensional invariante bajo $A$ y $B$ en este caso. Además, ningún subespacio invariante bajo $A$ y $B$ está contenido en alguno de los $E^A_i$, $E^B_j$.

Los mapas lineales $p_{i,j} : E^A_i \rightarrow E^B_j$ que son la restricción a $E^A_i$ de la proyección a lo largo de $E^B_{-j}$ en $E^B_{-j}$, son isomorfismos. Un subespacio bidimensional de $V$ invariante bajo $A$ pero no contenido en $E^A_{\pm 1}$ es de la forma $Kx \oplus Ky$ donde $x \in E^A_1$, $y \in E^A_{-1}$ no son cero. Lo mismo es cierto para $B$ en lugar de $A, entonces $p_{1,1}(x)$ y $p_{-1,1}(y)$ son colineales. Podemos escalar $y$ y asumir que $y = p_{-1,1}^{-1} \circ p_{1,1}(x)$. De forma similar, $p_{1,-1}(x)$ y $p_{-1,-1}(y)$ deben ser colineales, entonces $p_{1,-1}^{-1} \circ p_{-1,-1} \circ p_{-1,1}^{-1} \circ p_{1,1} (x) = \lambda x$, y así existe tal $x$ si y solo si $p_{1,-1}^{-1} \circ p_{-1,-1} \circ p_{-1,1}^{-1} \circ p_{1,1}$ tiene un eigenvector.

Sobre $\mathbb{R}$, puede suceder que este operador invertible no tenga un eigenvector, por ejemplo si tomamos $A=\begin{pmatrix} 1 & 0 & 0 & 0 \\ 0 & 1 & 0 & 0 \\ 0 & 0 & -1 & 0 \\ 0 & 0 & 0 & -1 \end{pmatrix}$ y $B=\begin{pmatrix} 0 & -1 & -1 & 1 \\ 1 & 0 & -1 & -1 \\ -1 & -1 & 0 & 1 \\ 1 & -1 & -1 & 0 \end{pmatrix}$, el operador mencionado tiene matriz $\begin{pmatrix} 0 & 1 \\ -1 & 0 \end{pmatrix}$ que no tiene eigenvalor real.

3voto

CodingBytes Puntos 102

La respuesta de Arturo se puede resumir en lo siguiente:

Sean $U_1$, $\ldots$, $U_4$ los espacios propios de $A$ y $B$. Dejando de lado los casos simples, podemos suponer que $U_i\oplus U_j=V$ para todo $i\ne j$. Debemos producir cuatro vectores no nulos $x_i\in U_i$ que se encuentren en un plano bidimensional.

Para $i\ne j$ denotamos por $P_{ij}:V\to V$ la proyección a lo largo de $U_i$ sobre $U_j$; de donde $P_{ij}+P_{ji}=I$. La aplicación $T:=P_{41}\circ P_{32}$ mapea $V$ a $U_1$, por lo que deja $U_1$ invariante. Se sigue que $T$ tiene un vector propio $x_1\in U_1$ con un valor propio $\lambda\in{\mathbb C}$. Ahora ponemos $$\eqalign{x_2&:=P_{32}x_1\in U_2\ ,\cr x_3&:=x_1-x_2=P_{23} x_1\in U_3\ ,\cr x_4&:=x_2-\lambda x_1=x_2- P_{41}P_{32}x_1=x_2-P_{41}x_2=P_{14}x_2\in U_4\ .\cr}$$ Se puede verificar fácilmente que los cuatro $x_i$ son no nulos.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X