11 votos

La simetría de Grassmanians

Pensé que esto podría ser simple (ahora no estoy seguro), pero no puede resolver es: ¿por qué es cierto que para $X,Y$ dos lineal $n$-subespacios de $\mathbb{R}^{n+k}$ existe una transformación ortogonal de $\mathbb{R}^{n+k}$ que se lleva a $X$$Y$$Y$%#%?

(Este es el ejercicio 5-D en Milnor es Característico de las clases, por lo que la instrucción debe contener.)

10voto

hassan.monfared Puntos 41

En primer lugar vamos a hacer un par de reducciones: Vamos a $U=X\cap Y$$V=X\oplus Y$. A continuación, $\dim X+ \dim Y=\dim (X\oplus Y)-\dim X\cap Y=\dim V-\dim U.$ por lo tanto, podemos escribir la $X=\tilde{X}\oplus U$ $Y=\tilde{Y}\oplus U$ donde $\tilde{X}$ $\tilde{Y}$ son othogonal a $U$. Por último, si fijamos $W$ a ser el complemento ortogonal de $X\oplus Y,$ a continuación, hemos obtenido y la descomposición ortogonal $$ \mathbb{R}^{n+k}=U\oplus W\oplus (\tilde{X}\oplus\tilde{Y}). $$ Por lo tanto, si podemos encontrar una transformación ortogonal de $\tilde{X}\oplus\tilde{Y}$ a a sí mismo de que los intercambios $\tilde{X}$$\tilde{Y}$, entonces, simplemente puede extender a ser la identidad en $U$ $W$ y obtener una lineal mapa con las propiedades requeridas.

Supongamos ahora que $X\cap Y=0$, $X\oplus Y=\mathbb{R}^{2n}$ y $\dim X=\dim Y=n.$ Deje $\{x_{1},\ldots,x_{n}\}$ $\{y_{1},\ldots,y_{n}\}$ dos ortonormales base de $X$$Y$, respectivamente, y vamos a $$ A=(\langle x_{i},y_{j}\rangle) \qquad 1\leq i,j \leq n, $$ ser la matriz del interior de los productos de la $x_{i}$'s con $y_{j}$'s. El uso de la polar en forma de una matriz, podemos escribir $A=KP$ donde $K$ es ortogonal y $P$ es simétrica. Por lo tanto, el uso de $K$, se puede elegir una nueva base ortonormales $\{x_{1}',\ldots,x_{n}'\}$ $X$ tal que $$ P=(\langle x_{i}',y_{j}\rangle). $$ Ahora nos definen $T:\mathbb{R}^{2n}\longrightarrow \mathbb{R}^{2n}$ mediante el establecimiento de $$ Tx_{i}'=y_{i} \qquad \mbox{y} \qquad Ty_{i}=x_{i}'. $$ Pretendemos que $T$ es una transformación ortogonal. Efectivamente, desde la $\{x_{1}',\ldots,x_{n}'\}$ $\{y_{1},\ldots,y_{n}\}$ son ortonormales, se deduce que el $\langle Tx_{i}',Tx_{j}' \rangle=\langle y_{i},y_{j} \rangle=\delta_{ij}=\langle x_{i}',x_{j}' \rangle=\langle Ty_{i},Ty_{j} \rangle.$ Finalmente, $$ \langle Tx_{i}',Ty_{j}\rangle=\langle y_{i},x_{j}'\rangle=\langle x_{j}',y_{i}\rangle=\langle x_{i}',y_{j}\rangle, $$ donde la última igualdad se sigue del hecho de que $P$ es una matriz simétrica. Por lo tanto, el mapa de $T$ satisface todas las propiedades requeridas.

4voto

tolomea Puntos 286

Wow, esto era más difícil de lo que parecía!

Voy a demostrar que no existen bases de $\{x_1, \ldots, x_n\}$ $X$ $\{y_1, \ldots, y_n\}$ $Y$ de manera tal que los subespacios $V_i := \mathrm{span}(x_i,y_i)$ forma ortogonal descomposicion de la $X+Y$. Esto es suficiente, porque entonces podemos tomar una transformación ortogonal $f_i : V_i \to V_i$ tal que $f_i(x_i) = y_i$$f(y_i) = x_i$, agregado hasta obtener una transformación ortogonal $X+Y \to X+Y$ swaps $X$ $Y$ y, finalmente, que se extienden a una transformación ortogonal de todos los de $\mathbb{R}^{n+k}$ arbitrariamente.

Nota: Esta descomposición ortogonal de negocios cantidades a la necesidad de que para $i \neq j $, tenemos $x_i \perp x_j$, $x_i \perp y_j$, y $y_i \perp y_j$. En particular, no pretendemos que $x_i$ es ortogonal a $y_i$, o incluso, que $x_i \neq y_i$. Al $X \cap Y \neq 0$, podríamos tomar $x_1 = y_1$, $x_2 = y_2$, ..., $x_r = y_r$ para ser una base de $X \cap Y$, por ejemplo.

OK, vamos a probar la existencia de esas bases por inducción en $n$. Para $n=0$, todo es trivial. Yo reclamo la inducción de paso se reduce a probar que existen vectores no nulos $x_1 \in X$, $y_1 \in Y$ tal que $X \cap x_1^\perp \subseteq y_1^\perp$ $Y \cap y_1^\perp \subseteq x_1^\perp$ (donde $v^\perp$ denota la orthgonal complemento de la envergadura de un vector $v$).

De hecho, si podemos encontrar tal $x_1$$y_1$, establecimiento $V_1 = \mathrm{span}(x_1,y_1)$, tendremos $X \cap x_1^\perp = X \cap x_1^\perp \cap y_1^\perp = X \cap V_1^\perp$ y un análogo de instrucción para $Y$. Por lo tanto, podemos aplicar la hipótesis inductiva a la $(n-1)$-dimensiones de los subespacios $X \cap x_1^\perp$ $Y \cap y_1^\perp$ dentro del espacio de $V_1^\perp$.

He aquí cómo usted puede recoger $x_1$$y_1$: elija la unidad de vectores en $X$ $Y$ maximizar $|x_1 \cdot y_1|$ (el máximo que se realiza debido a que la unidad de las esferas en $X$ $Y$ son compactos). (Observe que si $X \cap Y \neq 0$, este valor máximo es de $1$, alcanzado por $x_1 = \pm y_1 \in X \cap Y$.)

Para demostrar que $X \cap x_1^\perp \subseteq y_1^\perp$, vamos a $x$ ser un vector unitario en $X$ tal que $x \cdot x_1 = 0$. Sabemos que para todos los $t \in \mathbb{R}$, $$ \frac{|(x_1 + tx) \cdot y_1|}{|x_1 + tx|} \le |x_1 \cdot y_1|. $$

Usando ese $|x_1 + tx| = \sqrt{1+t^2}$, ajustando y reordenando, obtenemos que para todo real $t$, $\left( (x_1 \cdot y_1)^2 - (x \cdot y_1)^2 \right)t^2 - 2(x_1 \cdot y_1) (x \cdot y_1) t \ge 0$. Esto obliga a $x \cdot y_1 = 0$ como se requiere.

(Alternativamente, con $x_1, y_1, x$ por encima de la razón geométricamente de la siguiente manera: $x_1$ es el vector unitario en la 2-plano de $X' := \mathrm{span}(x_1,x)$ que minimiza el ángulo entre el$x_1$$y$. Es un hecho simple de 3-dimensional Euclideano geoemtry que, a continuación, el avión $\mathrm{span}(x_1,y)$ cumple con $X'$ a un ángulo diedro; esto implica que, desde el $x \perp x_1$, también se $x \perp y_1$.)

2voto

Jared Puntos 21

Lo que sigue es inspirado por los comentarios siguientes Greg Kuperberg la respuesta a un MO pregunta. Deje $V$ $2n$ dimensiones de espacio vectorial euclídeo, y $X,Y$ dos subespacios de igual dimensión. Sin pérdida de generalidad, y como explica Raúl Gómez, asumimos $X\oplus Y= V$.

Vamos a encontrar una familia $P_1,\dots,P_n$ de mutuo planos ortogonales tales que

  1. $P_1\stackrel{\:\perp}{\oplus}\cdots\stackrel{\:\perp}{\oplus} P_n=V$,
  2. para cada $i$, $P_i\cap X$ y $P_i\cap Y$ son ambas líneas.

(el primer punto simplemente reitera la exigencia de que el $P_i$ ser ortogonales). Una vez que se logra esto, se puede considerar, para cada $i$, uno de los dos reflejos $r_i$ $P_i$ que exchange$X_i$$Y_i$. La transformación lineal $r_1\oplus\cdots\oplus r_n$ es un ortonormales transformación de $V$ que los intercambios $X$$Y$.


Considerar el lineal mapa de $\pi:X^{\perp}\to X$ se define como la compuesta $X^{\perp}\xrightarrow{q} Y \xrightarrow{p} X$ donde el primer mapa de proyectos en $Y$ paralelo a $X$ (esto siempre es un isomorfismo, porque ambos se $Y$ $X^{\perp}$ se complementa a $X$), y el segundo mapa de proyectos en $X$ paralelo a $X^{\perp}$.

enter image description here

De ello se deduce a partir de la descomposición de valor singular teorema que existe bases ortonormales $(\chi_1,\dots,\chi_n)$ $(x_1,\dots,x_n)$ $X^{\perp}$ $X$ respectivamente, así como algunos de los números reales no negativos $0\leq\sigma_n\leq\cdots\leq\sigma_1$, de tal manera que para todos los $i$, $$\pi(\chi_i)=\sigma_i x_i\,.$$ Ahora definir, para todos los $i$, $P_i=\mathrm{Vect}(\chi_i,x_i)$. Estos son, por construcción, pares de planos ortogonales. Furhtermore, $P_i\cap X=\mathbb{R}x_i$ es una línea, y así es $P_i\cap Y$. De hecho, $\pi(\chi_i)=\sigma_i x_i$ $\pi(\chi_i)=p\circ q\,(\chi_i)=p(\chi_i+x)=\chi_i+x+\chi$ algunos $x\in X$ $\chi\in X^{\perp}$ tal que $\chi_i+x=y\in Y$. Entonces $$\sigma_ix_i-x=\chi_i+\chi\in X\cap X^{\perp}=0$$ implica $\chi=-\chi_i$ e lo $y=\sigma_ix_i-\chi=\sigma_ix_i+\chi_i$ es un valor distinto de cero elemento de $Y\cap P_i$, lo $Y\cap P_i$ es una línea (no puede ser el avión $P_i$).

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X