136 votos

¿Por qué las soluciones de las ecuaciones polinómicas son tan poco restrictivas sobre los cuaterniones?

En $n$ tiene como máximo $n$ ceros distintos en los números complejos. Pero puede tener un conjunto incontable de ceros en los cuaterniones. Por ejemplo, $x^2+1$ tiene dos ceros en $\mathbb C$ pero en $\mathbb H$ , ${\bf i}\cos x + {\bf j}\sin x$ es un cero distinto de este polinomio para cada $x$ en $[0, 2\pi)$ y, obviamente, hay muchos otros ceros.

¿De qué se trata? $\mathbb H$ que hace que su comportamiento a este respecto sea tan diferente del comportamiento de $\mathbb R$ y $\mathbb C$ ? ¿Es simplemente porque $\mathbb H$ ¿es cuatridimensional en lugar de bidimensional? ¿Existe algún teorema que diga cuándo un anillo se comportará como $\mathbb H$ y cuando se comportará como $\mathbb C$ ?

¿Todos los polinomios se comportan así en $\mathbb H$ ? ¿O se trata de algo inusual?

0 votos

6 votos

El comportamiento extraño se debe a la no conmutatividad.

50 votos

Aunque hay infinitas raíces de $x^2+1$ en los cuaterniones, si se consideran las raíces hasta la conjugación, se obtiene un teorema de finitud: todas las raíces forman una única clase de conjugación. (Sobre un campo, la conjugación es trivial.) De hecho, con coeficientes a la izquierda en cualquier anillo de división, un polinomio de grado $n$ tiene como máximo $n$ clases de conjugación de raíces.

133voto

Lorin Hochstein Puntos 11816

Cuando empecé a aprender álgebra abstracta, el profesor me dio la secuencia habitual de resultados para polinomios sobre un campo: el Algoritmo de la División, el Teorema del Resto y el Teorema del Factor, seguidos del Corolario de que si $D$ es un dominio integral, y $E$ es cualquier dominio integral que contenga $D$ entonces un polinomio de grado $n$ con coeficientes en $D$ tiene como máximo $n$ raíces distintas en $E$ .

A continuación nos retó, como tarea para casa, a repasar la demostración del Teorema del Factor y a señalar exactamente cuáles, dónde y cómo se utilizan los axiomas de un campo en la demostración.

A todos se nos escapó que se usa la conmutatividad.

Este es el problema: el algoritmo de división (en ambos lados), hace aguantar $\mathbb{H}[x]$ (de hecho, sobre cualquier anillo, conmutativo o no, en el que el coeficiente principal del divisor sea una unidad). Por tanto, dado un polinomio $p(x)$ con coeficientes en $\mathbb{H}$ y un $a(x)\in\mathbb{H}[x]$ existe un único $q(x)$ y $r(x)$ en $\mathbb{H}[x]$ tal que $p(x) = q(x)a(x) + r(x)$ y $r(x)=0$ ou $\deg(r)\lt\deg(a)$ . (También existen $q'(x)$ y $s(x)$ tal que $p(x) = a(x)q'(x) + s(x)$ y $s(x)=0$ ou $\deg(s)\lt\deg(a)$ .

El argumento habitual es el siguiente: dado $a\in\mathbb{H}$ y $p(x)$ dividir $p(x)$ por $x-a$ para obtener $p(x) = q(x)(x-a) + r$ con $r$ constante. Evaluar en $a$ obtenemos $p(a) = q(a)(a-a)+r = r$ Así que $r=p(a)$ . Por lo tanto $a$ es una raíz si y sólo si $(x-a)$ divide $p(x)$ .

Si $b$ es una raíz de $p(x)$ , $b\neq a$ entonces evaluando en $b$ tenemos $0=p(b) = q(b)(b-a)$ ya que $b-a\neq 0$ entonces $q(b)=0$ Así que $b$ debe ser una raíz de $q$ ya que $\deg(q)=\deg(p)-1$ una hipótesis inductiva nos dice que $q(x)$ tiene como máximo $\deg(p)-1$ raíces distintas, por lo que $p$ tiene como máximo $\deg(p)$ raíces.

Y que es donde utilizamos la conmutatividad: para pasar de $p(x) = q(x)(x-a)$ a $p(b) = q(b)(b-a)$ .

Sea $R$ sea un anillo, y sea $a\in R$ . Entonces $a$ induce un mapa teórico de conjuntos a partir de $R[x]$ a $R$ evaluación en $a$ ", $\varepsilon_a\colon R[x]\to R$ mediante evaluación: $$\varepsilon_a(b_0+b_1x+\cdots + b_nx^n) = b_0 + b_1a + \cdots + b_na^n.$$ Este mapa es un homomorfismo de grupo, y si $a$ es central, también es un homomorfismo de anillo; si $a$ es no central, entonces es no un homomorfismo de anillo: dado $b\in R$ tal que $ab\neq ba$ entonces tenemos $bx = xb$ en $R[x]$ pero $\varepsilon_a(x)\varepsilon_a(b) = ab\neq ba = \varepsilon_a(xb)$ .

El mapa de "evaluación" también induce un mapa teórico de conjuntos a partir de $R[x]$ a $R^R$ el anillo de todos los $R$ -funciones valoradas en $R$ con la suma y la multiplicación puntuales ( $(f+g)(a) = f(a)+g(a)$ , $(fg)(a) = f(a)g(a)$ ); el mapa envía $p(x)$ a la función $\mathfrak{p}\colon R\to R$ dada por $\mathfrak{p}(a) = \varepsilon_a(p(x))$ . Este mapa es un homomorfismo de grupo, pero es no un homomorfismo de anillo a menos que $R$ es conmutativa.

Esto significa que desde $p(x) = q(x)(x-a) + r(x)$ nosotros no puede en general concluyen que $p(c) = q(c)(c-a) +r(c)$ a menos que $c$ se desplaza en $R$ con $a$ . Así que el Teorema del Resto puede no cumplirse (si los coeficientes implicados no conmutan con $a$ en $R$ ), lo que a su vez significa que el Teorema del Factor puede no cumplirse Así que hay que tener cuidado en las declaraciones (véase Respuesta de Marc van Leeuwen ). E incluso cuando ambos se mantienen para el particular $a$ en cuestión, el argumento inductivo fallará si $b$ no conmuta con $a$ porque no podemos pasar de $p(x) = q(x)(x-a)$ a $p(b)=q(b)(b-a)$ .

Esto es exactamente lo que ocurre con, digamos, $p(x) = x^2+1$ en $\mathbb{H}[x]$ . Estamos bien en cuanto a mostrar que, digamos, $x-i$ es un factor de $p(x)$ porque resulta que cuando dividimos por $x-i$ todos los coeficientes implicados centralizan $i$ (acabamos de obtener $(x+i)(x-i)$ ). Pero cuando intentamos argumentar que cualquier raíz diferente de $i$ debe ser una raíz de $x+i$ nos encontramos con el problema de que no podemos garantizar que $b^2+1$ es igual a $(b+i)(b-i)$ a menos que sabemos que $b$ centraliza $i$ . Resulta que el centralizador de $i$ en $\mathbb{H}$ es $\mathbb{R}[i]$ por lo que sólo podemos concluir que la única otra complejo raíz es $-i$ . Pero esto deja abierta la posibilidad de que haya algunas raíces de $x^2+1$ que hacen no centralizar $i$ y eso es exactamente lo que ocurre: $j$ y $k$ y todos los números de la forma $ai+bj+ck$ con $a^2+b^2+c^2=1$ son raíces, y si $b$ ou $c$ son distintos de cero, entonces no centralizan $i$ por lo que no podemos pasar de $x^2+1 = (x+i)(x-i)$ a " $(ai+bj+ck)^2+1 = (ai+bj+ck+i)(ai+bj+ck-i)$ ".

Y que es lo que va mal, y allí es donde se esconde la conmutatividad.

22 votos

+1 Este ejercicio es imprescindible para los interesados en álgebras de división no conmutativas. Es demasiado fácil caer en la trampa de que el argumento conmutativo habitual también funcionaría aquí.

8 votos

Buena respuesta elaborada. Sólo algunas pequeñas puntualizaciones. Para concluir $p(c) = q(c)(c-a) +r(c)$ sólo se necesita que $a$ y $c$ conmutan (los coeficientes de $q$ permanecen a la izquierda, y el coeficiente de $r$ (que es constante) no se multiplica en absoluto. Y el problema no es que los Teoremas del Resto y del Factor fallen sin conmutatividad (pueden salvarse, véase mi respuesta), sino que la factorización implicada no sobrevive a la evaluación.

0 votos

@MarcvanLeeuwen: Gracias por las observaciones; lo aclararé.

34voto

Rob Lachlan Puntos 7880

La finitud del número de raíces de un polinomio $f(x)\in K[x]$ donde $K$ es un campo depende de dos hechos entrelazados:

  • $K[x]$ es un Dominio de Factorización Único: todo polinomio $f(x)$ factores de forma esencialmente única como producto de irreducibles;

  • si $f(\alpha)=0$ entonces $f(x)=(x-\alpha)g(x)$ donde $\deg g(x)=(\deg f(x))-1$ .

La combinación de estos dos hechos (el primero en particular) ya no se sostiene si se piensa que el polinomio $f(x)$ como un polinomio con coeficientes en el anillo $\Bbb H$ de los cuaterniones de Hamilton. Esto se debe a que estos últimos no son conmutativos.

También puedes reflexionar sobre este hecho: en un entorno conmutativo la transformación $a\mapsto\phi_h(a)=hah^{-1}$ (conjugación) es siempre trivial. No así en $\Bbb H$ como efecto secundario de la no conmutatividad. La cuestión es que si un elemento $a$ satisface una cierta relación algebraica con coeficiente real (como $a^2=1$ ), también lo harán todos sus conjugados $\phi_h(a)$ .

12 votos

Muchas observaciones ciertas. Acabo de pensar, como Arturo, que la diferencia clave entre los casos conmutativos y no conmutativos es que el mapa de evaluación $ev_\alpha:f\mapsto f(\alpha)$ ya no es un homomorfismo de anillo de $K[x]$ a $K$ . Como explicas, esto se muestra también en la factorización no única, pero el problema más fundamental es que las factorizaciones no se pueden utilizar para determinar ceros, porque el valor de un producto de polinomios es no el producto de los valores de los factores polinómicos.

4 votos

+1: el punto sobre la conjugación anterior es extremadamente importante.

31voto

Matt Dawdy Puntos 5479

Quisiera insistir en un punto que se menciona en la respuesta de Arturo Magidin, pero quizá con otras palabras: si $D$ es un anillo de división no conmutativo, entonces el anillo $D[x]$ de polinomios sobre $D$ no hace lo que usted quiere que haga.

Si $F$ es un campo, entonces una razón por la que podría interesarte trabajar con polinomios $F[x]$ es que describen todas las expresiones que potencialmente se podrían obtener de algún desconocido $x \in F$ (o quizás $x \in \bar{F}$ o quizás algo aún más general que esto) a través de la suma y la multiplicación.

¿Por qué se estropea cuando se sustituye $F$ con un anillo de división no conmutativo $D$ ? El problema es que si se trabaja con algún desconocido $x \in D$ (o en algún anillo que contenga $D$ ) entonces $x$ no conmuta necesariamente con todos los elementos de $D$ por lo que a partir de $x$ y sumando y multiplicando se obtienen no sólo expresiones como $$a_0 + a_1 x + a_2 x^2 + ...$$

pero expresiones más complicadas como $$a_0 + a_{1,0} x + x a_{1,1} + a_{1, 2} x a_{1, 3} + a_{2,0} x^2 + x a_{2,1} x + x^2 a_{2,2} + a_{2, 3} x^2 a_{2,4} + a_{2, 5} x a_{2, 6} x a_{2,7} + ... $$

La estructura algebraica resultante es bastante más complicada que $D[x]$ . En general, no se pueden combinar expresiones de la forma $axb$ y $cxd$ por lo que incluso para describir las expresiones que se pueden obtener utilizando $x$ una vez En realidad debería haber escrito $$a_0 + a_{1,0} x a_{1,1} + a_{1,2} x a_{1,3} + a_{1,4} x a_{1,5} + ....$$

8 votos

Es decir, el objeto libre ya no es $D[x]$ pero $D\langle x\rangle$ el anillo de polinomios en un no conmutativo $x$ . +1

6 votos

Sólo una observación: si los polinomios en $R[x]$ haga lo que quiera cuando utilice $x$ para representar algún valor desconocido (tal vez fuera del anillo $R$ ) no depende tanto de si los elementos de $R$ viaje al trabajo entre sí como sobre si elementos de $R$ viaja con lo que quieras $x$ defender (porque en $R[x]$ conmutan por definición). Así, por ejemplo, está bien utilizar polinomios en $\mathbf R[x]$ con $x$ cuaternión desconocido (no es peor que representar una matriz), pero es no es posible hacerlo para polinomios en $\mathbf C[x]$ aunque $\mathbf C$ es conmutativa.

22voto

GmonC Puntos 114

Me gustaría dar un complemento a las respuestas ya dadas, ya que algunas de ellas sugieren una relación con temas aritméticos más avanzados como la Factorización Única, mientras que ésta se basa realmente sólo en la teoría elemental de anillos. En particular se tiene lo siguiente

Teorema. Sea $R$ sea un dominio conmutativo, y $P\in R[X]$ un polinomio no nulo de grado $d$ . Entonces $P$ tiene como máximo $d$ raíces en $R$ .

Normalmente una conmutativa dominio se denomina dominio integral (nótese el curioso significado de "integral"), pero aquí he utilizado "conmutativo" para subrayar las dos propiedades clave asumidas: conmutatividad y ausencia de divisores nulos. (Asumo que los anillos tienen un elemento $1$ por cierto). En ausencia de conmutatividad, incluso introduciendo la noción de raíces de $P$ es problemático, a menos que $P$ tiene sus coeficientes en el centro de $R$ (como ocurre en tu ejemplo del cuaternión), como señala Qiaochu Yuan. De hecho, para la evaluación de $P$ en $a\in R$ hay que decidir si se escriben los poderes de $a$ a la derecha o a la izquierda de los coeficientes de $P$ dando lugar a nociones distintas de evaluación a la derecha y a la izquierda y, por tanto, de raíces a la derecha y a la izquierda (y ninguna de las dos formas de evaluación es un morfismo de anillo). Pero incluso en el caso de que $P$ tiene sus coeficientes en el centro $Z(R)$ de $R$ de modo que la evaluación a la derecha y a la izquierda en $a$ coinciden y definimos un morfismo de anillo $Z(R)[X]\to R$ la conclusión del teorema no es válida, como ilustra esta pregunta.

La demostración del teorema se basa en lo siguiente

Lema. Sea $R$ sea un dominio conmutativo, $P\in R[X]$ y $r\in R$ una raíz de $P$ . Entonces existe un (único) $Q\in R[X]$ con $P=(X-r)Q$ y cada raíz de $P$ que no sean $r$ es una raíz de $Q$ .

La existencia y unicidad de $Q$ no dependen de $R$ siendo conmutativo o un dominio: para cualquier anillo $R$ se tiene $P=(X-r)Q$ sólo si $Q$ es el cociente de $P$ por división a la izquierda euclidiana por $X-r$ y el resto es $0$ y esto último ocurre si y sólo si $r$ es una raíz izquierda de $P$ (así se expresó correctamente el Teorema del factor para los anillos generales). Pero la parte final del lema utiliza tanto la conmutatividad como la ausencia de divisores nulos: se utiliza que la evaluación de $(X-r)Q$ en alguna raíz $r'\neq r$ de $P$ puede hacerse por separado en los dos factores (esto requiere conmutatividad: sin ella la evaluación no es un morfismo de anillo), y entonces hay que concluir que uno de los factores (necesariamente el segundo) se convierte en $0$ lo que requiere la ausencia de divisores nulos. Nota para no conmutativo $R$ que aunque $P$ debe estar en $Z(R)$ la primera parte falla, ya que la evaluación es sólo un morfismo $Z(R)[X]\to R$ y los factores $X-r$ y $Q$ no necesita estar en $Z(R)[X]$ .

Por supuesto, el lema implica el teorema por inducción directa en $\deg P$ .

Una última observación no relacionada con la pregunta: puesto que la propiedad de morfismo de la evaluación $Z(R)[X]\to R$ no nos ayuda aquí, uno podría preguntarse qué sentido tiene considerar la evaluación en ausencia de conmutatividad. Sin embargo, en álgebra lineal enseñamos a nuestros alumnos a sustituir sin miedo una matriz por polinomios y a utilizar (implícitamente) la propiedad de morfismo de dichos mapas de evaluación. $K[X]\to M_n(K)$ donde $K$ es un campo (¡conmutativo!). Esto funciona precisamente porque $K$ puede identificarse con $Z(M_n(K))$ (el subring de las homotecias).

3voto

sheila hannigan Puntos 38

Esto tiene que ver con el hecho de que $\mathbb H$ no es un campo, ya que el número de ceros de un polinomio sobre un campo siempre está limitado por el grado del polinomio.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X