7 votos

¿Si $(f(x_1,...,x_n))^2$ es simétrica en $x_1,..,x_n$, es $f(x_1,...,x_n)$ necesariamente simétrica?

Considera un polinomio en $n$ variables: $f(x_1,...,x_n)$. Si el polinomio $(f)^2$ es simétrico en $x_1,..,x_n$, ¿se sigue que $f$ también es simétrico en $x_1,..,x_n? Generaliza para exponentes más altos.

Acabo de inventar este problema. Creo que está relacionado con el teorema fundamental de los polinomios simétricos elementales, pero hasta ahora no tengo idea de cómo abordarlo.

8voto

SUMIT MITRA Puntos 16

No, toma $f(x_1,x_2)=x_1-x_2$ o más generalmente $\prod_{1\leq i

0 votos

Lo siento, debería haber pensado por más de 1 segundo en esto...

6voto

jonescb Puntos 5500

Una pregunta interesante, pero tu conjetura no es correcta (¡pero casi!). El teorema correcto es:

Si $\require{cancel} f \cancel{\equiv} 0$ es un polinomio en $n$ variables y $(f)^k$ es simétrico, entonces

$f \text{ es }\begin{cases} \text{simétrico} & \text{para k impar} \\ \text{simétrico o antisimétrico} & \text{para k par} \end{cases}$

Es claro que para cualquier polinomio antisimétrico $a$, entonces $a^{2l}$ es simétrico para $l \in \mathbb N$.

No voy a publicar aquí cálculos tediosos para mostrar el teorema, porque no creo que este sea el lugar adecuado para ello. En cambio, proporcionaré un esbozo de la demostración y ejemplos para mayor comodidad.

Lema: Cualquier polinomio $f$ puede ser representado como la suma de una parte simétrica $s$ y una parte antisimétrica $a$.

Es fácil demostrar este lema. La parte simétrica es $s=\frac{S(f)}{n!}$, donde $S$ es el operador de simetrización. Hay que mostrar que $a = f - s$ es antisimétrico, lo cual es cierto si y solo si $S(a) = 0, pero esta es una tarea trivial, ya que el operador $S$ es lineal y $S(g) = n! \ g$ para cualquier polinomio simétrico $g$ en $n$ variables.

El teorema se muestra expandiendo $(s+a)^k$ y estableciendo a $0$ la parte antisimétrica. Por ejemplo:

$$(s+a)^2 = \underbrace{s^2}_{\text{símétrica}} + \underbrace{2sa}_{\text{antisimétrica}} + \underbrace{a^2}_{\text{símétrica}}$$

Así que $2sa = 0$, lo que implica directamente que $f$ es o bien simétrico ($a=0$) o antisimétrico ($s=0$).

Este análisis se complica para potencias mayores. Por ejemplo, la parte antisimétrica de $(s+a)^3$ y $(s+a)^4$ es $3 s^2 a + a^3 = a(3 s^2 + a^2)$ y $4 s^3 a + 4 s a^3 = 4 s a (s^2 + a^2)$ respectivamente. En general, al establecer esta parte a $0$ se sigue que para exponentes impar/pares ($a=0$)/($a=0$ o $s=0$) es una condición suficiente. El desafío es mostrar que el factor restante no puede ser $0$, tomando los ejemplos anteriores, que $3 s^2 + a^2 = 0$ y $s^2 + a^2 = 0$ no tienen soluciones.

La parte antisimétrica de $(s+a)^k$, como vimos, se puede factorizar en dos o tres factores. Uno será siempre $a$, para $k$ par habrá un factor $s$, y otro factor que llamaremos $t$. Nota que $t$ es un polinomio homogéneo de grado $m$, donde $m$ es $k-1$ o $k-2$ para $k$ impar o par respectivamente. Nótese que $t$ es una suma de monomios, donde uno y solo uno de estos es $c a^m$ y otro y solo uno es $d s^m$, siendo $c,d$ constantes. Todos los otros monomios serán "mixtos" (es decir, $\propto s^j a ^{m-j}$). Considerando $a(x_1;x_2,x_3,...)$ y $s(x_1;x_2,x_3,...)$ como polinomios solo en la primera variable, $x_1$, podemos demostrar que para cualquier raíz $r$ de $a$, obtenemos $(s(r))^m=0$, y viceversa, por lo que, en principio, $s$ y $a$ tienen las mismas raíces. Además, al sustituir $a = a' \frac{a}{(x_1-r)^u}$, podemos mostrar que las raíces tienen la misma multiplicidad en tanto $a$ como $s$ utilizando el mismo principio. Luego $s=a$, así que $s=a=0$, lo que contradice nuestra suposición inicial de que $f$ no es $0$.

Por ejemplo:

$$f^4 = (s+a)^5 = \underbrace{s^5}_{\text{sím}} + \underbrace{5 s^4 a}_{\text{asím}} + \underbrace{10 s^3 a^2}_{\text{sím}} + \underbrace{10 s^2 a^3}_{\text{asím}} + \underbrace{10 s a^4}_{\text{sím}} + \underbrace{a^5}_{\text{asím}}$$

$$\rightarrow 5 s^4 a + 10 s^2 a^3 + a^5 = a(5 s^4 + 10 s^2 a^2 + a^4) = 0$$

De $5 s^4 + 10 s^2 a^2 + a^4 = 0$ se sigue que $s=a$, una contradicción, por lo tanto tenemos $a=0$.

0 votos

Ups, lo siento, esto estaba totalmente equivocado.

2 votos

Por otro lado, aquí hay una prueba no tediosa. Sea $f$ un polinomio en $n$ variables $x_1, x_2, \ldots, x_n$ sobre un campo de característica $0$, y sea $k$ un entero positivo tal que $f^k$ (el $k$-ésimo poder de $f$) sea simétrico. Necesitamos demostrar que $f$ es simétrico o antisimétrico, y de hecho es simétrico si $k$ es impar. Para cada $i \in \left\{1,2,\ldots,n-1\right\}$, sea $f_i$ el polinomio obtenido de $f$ al intercambiar las variables $x_i$ y $x_{i+1}$. Luego, es...

2 votos

... suficiente para mostrar que $f = \lambda f_i$ para todo $i$, donde $\lambda$ es un elemento de $\left\{1,-1\right\}$ independiente de $i$. Sabemos que $f^k$ es simétrico; por lo tanto, $f^k = f_i^k$ para todo $i$. Así, en el campo de las funciones racionales, tenemos $\left(f/f_i\right)^k = 1$ para todo $i$. Por lo tanto, para todo $i$, la función racional $f/f_i$ es una constante; llamemos a esta constante $\lambda_i$. Entonces tenemos $f = \lambda_i f_i$. Al intercambiar $x_i$ y $x_{i+1}$ en esta igualdad, obtenemos $f_i = \lambda_i f$. Combinado con $f = \lambda_i f_i$, esto nos da $\lambda_i \in \left\{1,-1\right\}$ (aquí ...

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X