Dejemos que $\mathcal{A}$ sea un álgebra de división real de dimensión finita sobre $\mathbb{R}$ . Demuestre que para cada elemento $a \in \mathcal{A}, \exists \mu \in \mathbb{R}$ tal que $a^2 + \mu a \in \mathbb{R}$ .
Lo que he intentado hacer es lo siguiente:
Dejemos que $a \in \mathcal{A} \setminus \mathbb{R},$ entonces $\mathbb{R}(a)=\{x+ay | x,y \in \mathbb{R}\}$ es un espacio dimensional sobre el campo de los números reales con base $\{1,a\},$ desde $\dim_{\mathbb{R}}\mathcal{A}=n < \infty$ . Como esta extensión es de grado finito, ¿no debería bastar con demostrar que $\mathbb{R}(a)$ es una extensión algebraica de $\mathbb{R}$ y por lo tanto $a$ es algebraico sobre los reales? Porque entonces podríamos encontrar un $f$ polinomio con coeficientes reales tal que $f(a)=0$ . De ello se desprende que $a$ es una raíz de un polinomio de segundo orden (y ya está), porque si $a$ eran la raíz de un $1$ polinomio de primer orden, $a$ sería real, una contradicción.
Sin embargo, hay algo que no encaja, ya que no veo dónde he utilizado la condición de que $\mathcal{A}$ es un división álgebra, pero no estoy muy seguro de por qué lo que he escrito arriba no es correcto. Usando la condición del álgebra de la división de $\mathcal{A}$ para demostrar que $\mathbb{R}(a)$ es un álgebra de división conmutativa me parece una buena idea, pero realmente no veo una razón en hacer todo eso, suponiendo que mi texto citado está bien.