4 votos

Bonita desigualdad: $\sum\limits_{i=1}^{2m+1}x^2_i\le2m$ si $\sum\limits_{i=1}^{2m+1}x_i=0$ y $|x_i|\le 1$

Dejemos que $x_1,x_2,\cdots,x_{2m+1}\in \mathbb{R}$ tal que $|x_{i}|\le 1$ y $x_1+x_2+\cdots+x_{2m+1}=0$ . Demostrar que $$\sum_{i=1}^{2m+1}x^2_i\le 2m.$$

Mi intento: Deja que $x_{i}=\sin{y_{i}}$ entonces $\sum\limits_{i=1}^{2m+1}\sin y_i=0$ y demostrar que $$\sum_{i=1}^{2m+1}\sin^2 y_i\le 2m.$$ Parece que no se puede utilizar ni la desigualdad Cauchy-Schwarz ni la desigualdad AM-GM.

Y está claro que $$\sum_{i=1}^{2m+1}x^2_{i}\le 1+1+\cdots+1=2m+1.$$ Pero no puedo probar por $2m$ .

2voto

da Boss Puntos 1142

En primer lugar, hay que tener en cuenta la función que intentamos maximizar $i.e. \sum x_i^2$ es continua en sus variables y las variables están definidas sobre un conjunto compacto. Por lo tanto, alcanza un máximo en el conjunto.

Ahora supongamos que el máximo se alcanza en algún momento $(x_1, x_2, ...x_{2m+1})$ . Entonces no podemos tener dos índices distintos $i,j$ s.t. $|x_i|, |x_j|$ son ambos $< 1$ . Por el contrario, si esto fuera posible, entonces la sustitución de aquellos con $x_i + \epsilon, x_j - \epsilon$ respectivamente, para que se adapte a $\epsilon$ llevaría a un valor más alto como $t \mapsto t^2$ es convexo.

Queda por demostrar que la única posibilidad que satisface las restricciones es cuando $m$ las variables son $1$ , otro $m$ es $-1$ y la variable restante es $0$ al máximo...

1 votos

¿Puede el votante negativo comentar racionalmente?

0 votos

¿tiene como AM-GM y demás desigualdades para resolverlo?

0 votos

@inealidad Para el problema anterior, la solución naturalmente simple parecía maximizar la función convexa utilizando los extremos del dominio. AM-GM para los reales y la maximización de esto parece enrevesado, aunque tal vez existe una solución de suma de cuadrados que también es natural.

1voto

Nebr Puntos 366

Tienes una ecuación que debe maximizarse con una segunda condición que debe cumplirse. Esto requiere un multiplicador de Lagrange.

Buscamos el máximo de $\sum_i x_i^2$ con $\sum_i x_i = 0$ . Primero podemos definir: $$\Lambda = \sum_{i=1}^{2m+1} x_i^2 + \lambda\sum_{i=1}^{2m+1} x_i$$ Obsérvese que sumar el segundo sumando es efectivamente sumar cero. Ahora buscamos un máximo de todas las variables: $$\vec{0}=\left(\frac{\partial \Lambda}{\partial x_1}, \frac{\partial \Lambda}{\partial x_2}, ..., \frac{\partial \Lambda}{\partial x_{2m+1}}, \frac{\partial \Lambda}{\partial \lambda}\right)\\ =\left(2x_1+\lambda, 2x_2+\lambda, ..., 2x_{2m+1}+\lambda, 0\right)$$ donde se volvió a utilizar que $\sum_i x_i=0$ . La única solución a esto es que todos los $x_i$ son iguales, lo que implica inmediatamente que todos los $x_i=0$ porque su suma debe ser $0$ . Así que el único extremo que encontramos es un mínimo, lo que significa que el máximo se encuentra en el límite de la región permitida, lo que significa que al menos una $x_i$ debe ser igual a $1$ o $-1$ . Como el problema es simétrico en $i$ podemos suponer que $x_1=1$ . (El argumento para $x_1=-1$ es análogo). Esto nos lleva a la fórmula reducida: $$\Lambda_1 = 1+\sum_{i=2}^{2m+1} x_i^2 + \lambda\left(1+\sum_{i=2}^{2m+1}x_i\right)$$ Obsérvese que el último término vuelve a ser cero y, por tanto, se puede sumar libremente. Buscamos los extremos y obtenemos $$\vec{0}=\left(\frac{\partial \Lambda_1}{\partial x_2}, ..., \frac{\partial \Lambda_1}{\partial x_{2m+1}}, \frac{\partial \Lambda_1}{\partial \lambda}\right)\\ =\left(2x_2+\lambda, ..., 2x_{2m+1}+\lambda, 0\right)$$ Esto sólo tiene una solución: $$x_i=-\frac{\lambda}{2}, i\ge 2$$ Evidentemente, se trata de nuevo de un mínimo, como se puede comprobar tomando la segunda derivada, que es $2>0$ en cada componente. Ahora, se aplica el mismo argumento que antes: El máximo debe estar en el límite. Podemos repetir este paso, encontrando que todas las variables excepto $x_{2m+1}$ debe ser $-1$ o $1$ . Combinaciones que harían $\sum_i x_i=0$ imposible puede ser ignorada. Finalmente, llegamos al último paso: $$\Lambda_{2m} = 2m+x_{2m+1}^2 + \lambda\left(x_{2m+1}-c\right)$$ donde c es la suma de todas las demás variables excepto $x_{2m+1}$ . Pero como se trata de un número par de variables siendo todas ellas $1$ o $-1$ la suma debe ser un número par. El único número par permitido que hace posible que la suma sea cero sumando $x_{2m+1}$ es cero, y de ahí sabemos que el único valor posible para $x_{2m+1}$ también es cero. Así que hemos obtenido el valor máximo de la suma de los cuadrados: $$\sum_{i=1}^{2m+1}x_i^2 \le m\cdot|\pm1|^2+0 = 2m$$

0 votos

¿tiene métodos sencillos para solucionarlo? Gracias

0 votos

Actualmente no. No veo cómo GM-AM o Cauchy-Schwarz podrían ayudar aquí, debido a que no hay términos de la forma $x_i\cdot x_j$ . (Y por cierto, ¿es AM-GM realmente más sencillo que el multiplicador de Lagrange? Ambos son cosas de primer semestre de universidad, al igual que el gradiente).

0 votos

Vale, he encontrado uno.

1voto

Nebr Puntos 366

Encontré una solución diferente y más fácil.

Supongamos que todos los $x_i$ cumplen las ecuaciones dadas. Si todos, excepto uno, tienen un valor absoluto de 1, el último debe ser 0 y hemos terminado.

Supongamos ahora que dos o más valores tienen un valor absoluto inferior a 1. Tome el que tenga el mayor valor absoluto y sume la diferencia $\delta$ al valor máximo/mínimo más cercano. Reste $\delta$ de otro valor que no sea 1 o -1 para compensar la suma.

Por ejemplo, si $x_j=0.9$ y $x_k=-0.95$ , añada $\delta=-0.05$ a $x_k$ y restar el mismo valor a $x_j$ . Esto siempre es posible, ya que todos los demás valores están más alejados de los límites que el de mayor valor absoluto.

Asumiendo que esto siempre aumenta la suma $\sum_i x_i^2$ podemos repetir este procedimiento hasta que sólo quede un número que no tenga valor absoluto 1. Este valor debe ser 0, y la suma máxima de los cuadrados es $2m$ .

Queda por demostrar que la suma de cuadrados aumenta con cada operación. Sean los dos valores $x_j$ y $x_k$ con $|x_j|\ge |x_k|$ . Sólo mostraré esto para $x_j\ge 0$ y por lo tanto $\delta>0$ funciona de forma análoga para $x_j\le 0$ . Tenemos: $$\left(x_j+\delta\right)^2+\left(x_k-\delta\right)^2 = x_j^2+x_k^2+2\delta(x_j-x_k+\delta)> x_j^2+x_k^2$$ La última desigualdad se deduce de $\delta>0$ y $x_j \ge x_k$ .

0 votos

Lo que has hecho es exactamente lo que escribí en mi anterior post.

0 votos

@Macavity Sí para la segunda parte. El resto lo hice para construir una forma de mostrar explícitamente la parte que estaba marcada por "Queda por mostrar..." en tu post. Aunque, pensándolo bien, no sé realmente por qué queda algo por mostrar, porque eso que hay que mostrar es obvio. Como dije en mi otro post, la suma de $2m$ las variables que son $\pm 1$ es par, por lo que debe ser $0$ por lo que la variable final debe ser $0$ . Hm. Creo que he malinterpretado un poco lo que decía tu post.

0 votos

Bueno, lo has hecho explícito, ¡así que eso es bueno!

1voto

Alex Franko Puntos 89

Esta respuesta es un extracto de mi respuesta a otra pregunta.


Sin pérdida de generalidad, supongamos $x_1, \cdots, x_k \geqslant 0$ y $x_{k + 1}, \cdots, x_{2n + 1} \leqslant 0$ .

Si $\sum\limits_{j = 1}^k x_j^2 \leqslant k - 1$ entonces $$ \sum_{j = 1}^{2n + 1} x_j^2 = \sum_{j = 1}^k x_j^2 + \sum_{j = k + 1}^{2n + 1} x_j^2 \leqslant (k - 1) + (2n - k + 1) = 2n. $$ Si $\sum\limits_{j = k + 1}^{2n + 1} x_j^2 \leqslant 2n - k$ análogamente hay $\sum\limits_{j = 1}^{2n + 1} x_j^2 \leqslant 2n$ .

Supongamos que $$ \sum_{j = 1}^k x_j^2 > k - 1, \quad \sum_{j = k + 1}^{2n + 1} x_j^2 > 2n - k. \tag{1} $$ Porque $$ k - 1 < \sum_{j = 1}^k x_j^2 \leqslant \sum_{j = 1}^k x_j = -\left( \sum_{j = k + 1}^{2n + 1} x_j \right) \leqslant 2n - k, $$ entonces $2k < 2n + 1$ , lo que implica $k \leqslant n$ . Así, $$ n \leqslant 2n - k < \sum_{j = k + 1}^{2n + 1} x_j^2 \leqslant -\left( \sum_{j = k + 1}^{2n + 1} x_j \right) = \sum_{j = 1}^k x_j \leqslant k \leqslant n, $$ una contradicción. Por lo tanto, (1) no puede sostenerse.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X