8 votos

Demostrar que una matriz es invertible

Hola: Necesito ayuda con este problema:

Sea $V = (V,b)$ sea un espacio vectorial de dimensión finita dotado de una forma bilineal simétrica y definida positiva $b$ . Y que $\{e_1,…,e_n\}$ sea una base ortonormal para el subespacio $\ker((P_A)^t)$ ( $P_A$ se define más adelante).

Para una matriz $A \in \mathrm{O}(V)$ , dejemos que $\mathrm{O}_*(V)$ el subconjunto de $\mathrm{O}(V)$ tal que sea la matriz $P_A:=\frac{A-JAJ}{2}$ es invertible, donde $J$ es una estructura compleja (una matriz tal que $J^2=-1$ y $J^t=J^{-1}=-J$ ).

Sea $n=\dim \ker(P_A)$ . Para cada $j \in \{1,…,n\}$ definimos las reflexiones $r_j$ tal que $r_j(e_j)=-Je_j$ , $r(Je_j)=-e_j$ y $r_j(v)=v$ para y $v \in V$ tal que $b(v,e_j)=b(v,Je_j)=0$ . Por último $$R:=r_1r_2\dots r_n \in \mathrm{O}(V).$$

Necesito probar que $$RA \in \mathrm{SO}_*(V),$$ donde similarmente como $\mathrm{O}(V)$ : $\mathrm{SO}_*(V)$ es el subconjunto de $\mathrm{SO}(V)$ tal que $P_B:=\frac{B-JBJ}{2}$ es invertible.

Ya he demostrado que $RA \in \mathrm{SO}(V)$ ; lo único que no he podido averiguar es demostrar que $\frac{1}{2}(RA-JRAJ)$ es invertible, ya que $n$ puede ser par o impar.

También, $P_{r_j}$ no es invertible ya que $\det(r_j)=-1$ .

¿Cuál es el mejor enfoque para tratar el producto de las reflexiones? $$R=r_1r_2\cdots r_n?$$

En resumen: Estoy tratando de demostrar que $RA$ (donde $R$ el producto de las reflexiones $r_1r_2\dots r_n$ ) es una matriz ortogonal con $\det(RA)=+1$ y que la matriz $\frac{1}{2}(J-J(RA)J)$ es invertible.

Cualquier ayuda será muy apreciada. Gracias :).


ACTUALIZACIÓN: Dos cosas:

  1. He cometido un error tipográfico, $\{e_1,…,e_n\}$ sea una base ortonormal para el subespacio $\ker((P_A)^t)$ no en $\ker(P_A)$ .

  2. En la referencia principal que estoy utilizando, el autor establece lo siguiente:

Estos operadores (cada reflexión $r_j$ con $j \in \{ 1,\dots, n \}$ ) tiene la identidad restringida al subespacio ortogonal a $e_j$ como $p_{r_j}$ . Sea $R:=r_1\dots r_n$ entonces el operador $R$ está en forma de bloque, siendo su esquina inferior derecha la identidad en $(\ker((P_A)^t))^{\perp}$ . Y así $RA \in \mathrm{SO}_*(V)$ .

Y ya está, creo que la argumentación del autor tiene muchas lagunas o cosas que no estoy entendiendo :(. Dice que sigue este artículo , pero he leído varias veces y no veo nada parecido a lo que intento demostrar (o al menos con esta notación).

2voto

Krystian Puntos 1102

Denote por $\iota$ la transformación lineal sobre el espacio de matrices dada por la conjugación con $J$ es decir $$\iota: X \mapsto JXJ^{-1} = - JXJ$$ Al tratarse de una involución, existe una descomposición de cualquier matriz $X$ en sus partes lineal/antilineal: $$\begin{aligned}X &= (X +\iota X)/2 +(X - \iota X)/2\\&=P_X+Q_X\end{aligned}$$ Éstas son también las previsiones del $\pm 1$ eigenspaces de $\iota$ y los elementos del eigespacio positivo (resp. negativo) son aquellas matrices que conmutan (resp. anticonmutan) con $J$ . En particular, el núcleo y la imagen de $P$ y $Q$ son $J$ -subespacios invariantes.

Nos interesa la invertibilidad de $P_X$ por lo que también debemos señalar que su núcleo es precisamente el subespacio lineal de vectores $v \in V$ tal que $XJv = - JXv$ ya que $P_X = -J(XJ + JX)/2$ .


Ahora, para cualquier $J$ subespacio invariante $W$ podemos elegir una base ortonormal de la forma $\{e_i,Je_i\}$ mediante el proceso de Gram-Schmidt. Obsérvese que la ortogonalidad de esta base requiere que $J$ sea una matriz ortogonal.

Con más detalle: para cualquier $x$ tenemos $x \perp Jx$ desde $$(x, Jx) = (Jx, JJx) = - (x, Jx)$$ y además, si $x$ es ortogonal a $\{v_i, Jv_i\}$ entonces también lo es $Jx$ ya que $$ \begin{aligned} (Jx, v_i) &= (JJx, Jv_i) = (x, Jv_i) = 0\\ (Jx, Jv_i) &= (x, v_i) = 0 \end{aligned} $$

Utilizando esta base, podemos definir un elemento $R_W \in O(W)$ que es la matriz de permutación que intercambia cada $e_i \longleftrightarrow Je_i$ . Por construcción, esto anticonmuta con $J$ . Esto puede comprobarse ya que $R$ y $J$ están en forma de bloque con respecto a esta base. Extendiendo al complemento ortogonal $W^\perp$ por la identidad, obtenemos un elemento $R \in O(V)$ .


Como se indica en la cita de referencia, queremos aplicar esto al subespacio $W := (\text{ker}\, P_A^t) = (\text{im}\, P_A)^\perp$ .

Sea $\pi: V \to \text{im}\, P_A$ sea la proyección sobre la imagen de $P_A$ , $1-\pi$ la proyección sobre $W$ . Desde $\text{im}\, P_A$ es un $J$ -invariante, también lo es $W$ y $\pi$ y $1-\pi$ son ambos $J$ -mapas lineales. Tenemos una descomposición de $A$ , $$ \begin{aligned} A &= P + Q\\ &= \pi P + \pi Q + (1-\pi)Q\\ \end{aligned} $$

Aquí $\pi P = P$ y $(1-\pi)P = 0$ . Ahora bien, por definición $R$ actúa de forma no trivial sólo sobre la imagen de $(1-\pi)$ por lo que para $RA$ tenemos la descomposición similar $$RA = \pi P + \pi Q + R(1-\pi)Q$$

Obsérvese que el término $R(1-\pi)Q$ ahora conmuta con $J$ ya que $Q$ y $R$ ambos anticomunitarios con $J$ ( $R$ anticommutes with $J$ en $W$ ). De ello se deduce que

$$ \begin{aligned} P_{RA} &= \pi P + R(1-\pi)Q\\ Q_{RA} &= \pi Q \end{aligned} $$ Desde $A = P + Q$ era invertible para empezar, entonces tenemos $(\text{im}\,P)^\perp \leq \text{im}\, Q$ . De ahí la imagen del término $R(1-\pi)Q$ es todo $(\text{im}\, P)^\perp$ Así que $P_{RA}$ tiene rango completo y es invertible.

(También es bastante sencillo comprobar la inyectividad utilizando la caracterización del núcleo desde el principio).

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X