9 votos

¿Puede un álgebra de división sobre $\mathbb{R}^3$ para construir un contraejemplo al teorema de la bola peluda?

Supongamos (por contradicción) que existe un álgebra de división (si es necesario asociativa y/o normada) sobre $\mathbb{R}^3$ . ¿Existe una forma sencilla de utilizar esto para construir un campo vectorial tangente continuo no evanescente en $\mathbb{S}^2$ ¿Y por lo tanto contradice el teorema de la bola peluda?

3voto

OracleOfNJ Puntos 31

Si no me equivoco, se pueden construir de forma bastante explícita campos vectoriales tangentes continuos que no desaparecen en ninguna parte sobre $S^{n-1}$ a partir de multiplicaciones suficientemente agradables en $\mathbb{R}^n$ .

Teorema. Sea $n \geq 2$ sea un número entero positivo, y supongamos que $*$ es un mapa bilineal sobre $\mathbb{R}^n$ con la propiedad de que existe un subespacio bidimensional $W$ de $\mathbb{R}^n$ con la propiedad de que para todos los casos no nulos $y \in W$ el mapa $\mathbb{R}^n \to \mathbb{R}^n$ dado por $x \mapsto y*x$ es invertible. Entonces existe un campo vectorial continuo que no desaparece en ninguna parte sobre $S^{n-1}$ .

(Obsérvese que la hipótesis sobre $*$ es mucho más débil que la suposición de que $*$ gira $\mathbb{R}^n$ en un álgebra de división).

Algunos preliminares antes de la prueba. Mira $\mathbb{R}^n$ como un espacio vectorial de la forma habitual, y dejemos que $\langle \cdot,\cdot\rangle$ denotan el producto interior habitual en $\mathbb{R}^n$ . Identificar $S^{n-1}$ con el subconjunto $\{x \in \mathbb{R}^n: \langle x, x\rangle = 1\}$ de $\mathbb{R}^n$ . Con esta identificación, para cualquier $y \in S^{n-1}$ podemos identificar el espacio tangente a $S^{n-1}$ en $y$ con un subespacio de $\mathbb{R}^n$ bajo esta identificación, el espacio tangente a $S^{n-1}$ en $y$ es precisamente el subconjunto $\{w \in \mathbb{R}^n: \langle w,y\rangle = 0\}$ de $\mathbb{R}^n$ . (Esto puede ser más claro cuando $n=3$ : el conjunto de todos los vectores tangentes a la $2$ -esfera en $y \in S^2$ es precisamente el plano formado por todos los vectores ortogonales a $y$ .)

Prueba del teorema. Elija cualquier base $\{e_1, e_2\}$ para $W$ y para $j = 1,2$ dejar $L_j$ denota el mapa $\mathbb{R}^n \to \mathbb{R}^n$ dado por $x \mapsto e_j * x$ . Obsérvese que, según nuestras hipótesis sobre $*$ los mapas $L_j$ son biyecciones lineales.

Fijar $y \in S^{n-1}$ , defina $X(y)$ en $\mathbb{R}^n$ de la siguiente manera: $$ X(y) = L_2(L_1^{-1}(y)) - \frac{\langle L_2(L_1^{-1}(y)), y\rangle}{\langle y,y\rangle} y. $$ (Este hace definen un elemento de $\mathbb{R}^n$ , ya que identificamos $S^{n-1}$ con un subconjunto de $\mathbb{R}^n$ y $y \in S^{n-1}$ es distinto de cero).

Afirmo que $X(y)$ es tangente a $S^{n-1}$ en $y$ . Como se ha observado antes de la demostración, basta con mostrar que $X(y)$ es ortogonal a $y$ (en el sentido habitual del producto interior sobre $\mathbb{R}^n$ ). Pero claramente lo es; basta con hacer un cálculo con la definición de $X(y)$ y utilizar la bilinealidad de $\langle \cdot,\cdot\rangle$ . (Nota: $X(y)$ es el segundo vector de la lista de dos elementos que resulta de aplicar el proceso habitual de Gram-Schmidt, sin normalización, a la lista de dos elementos $y, L_2(L_1^{-1}(y))$ por lo que, por supuesto, va a ser ortogonal a $y$ .)

Afirmo que $X(y)$ es distinto de cero. De hecho, cualquier vector de la forma $L_2(L_1^{-1}(y)) - \lambda y$ (para algún escalar $\lambda$ y un poco de $y \in \mathbb{R}^n$ ) será distinto de cero. Para ver esto, observe que como $y$ es distinto de cero y $L_1$ es un mapa lineal biyectivo, existe un $z \in \mathbb{R}^n$ con $y = L_1(z)$ . Desde $\{e_1, e_2\}$ es linealmente independiente, $e_1 - \lambda e_2$ es distinto de cero, por lo que por nuestra hipótesis sobre $*$ el mapa lineal $L: \mathbb{R}^n \to \mathbb{R}^n$ dado por $x \mapsto (e_2 - \lambda e_1) * x$ es invertible. Y por la bilinealidad de $*$ tenemos que $$ X(y) = L_2(L_1^{-1}(y)) - \lambda y = L_2(z) - \lambda L_1(z) = (e_2 * z) - (\lambda e_1) * z = (e_2 - \lambda e_1) * z = L(z) $$ es el resultado de aplicar el mapa lineal invertible $L$ al vector no nulo $z$ . Así, $X(y)$ es efectivamente distinto de cero.

La fórmula para $X$ por lo tanto, define un campo vectorial tangente que no desaparece en ninguna parte en $S^{n-1}$ . Se desprende de la definición (ya que $L_1^{-1}$ y $L_2$ son mapas lineales, y las operaciones de espacio vectorial sobre $\mathbb{R}^n$ y el producto interior sobre $\mathbb{R}^n$ son continuos) que este campo vectorial es continuo. Fin de la demostración.

Si no he perdido la cabeza, con una idea similar se puede demostrar explícitamente que si $*$ es bilineal en $\mathbb{R}^n$ con la propiedad de que el mapa $\mathbb{R}^n \to \mathbb{R}^n$ dado por $x \to y*x$ es invertible para todo lo que no es cero $y$ en un $k$ -subespacio dimensional de $\mathbb{R}^n$ entonces existe un conjunto linealmente independiente de $k-1$ campos vectoriales que no desaparecen en ninguna parte en $S^{n-1}$ . (Definir $L_1, \dots, L_k$ apropiadamente, y considerar la última $k-1$ vectores resultantes de hacer Gram-Schmidt en la lista $y, L_2(L_1^{-1}(y)), \dots, L_k(L_1^{-1}(y))$ .) Esto establecería, por supuesto, el hecho bien conocido de que si $\mathbb{R}^n$ es un álgebra de división, entonces el haz tangente $TS^{n-1}$ no sólo tiene una sección de fuga en ninguna parte, sino que de hecho es trivial.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X