1 votos

Sobre la manipulación de la ecuación, ¿cuándo se suman y cuándo se mueven los términos?

Estoy leyendo un libro relacionado con los métodos numéricos (Chapra, Canale) y en el tema de la iteración en punto fijo, (copiando del libro) hay que reordenar la función $\operatorname{f}(x) = 0$ para que $x$ está en el lado izquierdo de la ecuación:

$x= {g}(x)$

Ejemplo:

Manipulación para lo siguiente

$x^2-2x+3=0$ se convertirá en $x = \frac{x^2+3}{2} $

y añadiendo $x$ a ambas partes para lo siguiente

$sin(x) = 0$ se convertirá en $x = sin(x) + x$

--

Mirándolas, de alguna manera tienen sentido, pero para la primera ecuación yo diría que podría simplemente añadir $x$ en ambos lados por lo que tendríamos una ecuación igual a $x$ .

Pero ahora $x^2-x+3=x$ tal como está parece incorrecto; podría mover el $x$ término de la izquierda a la derecha para producir un resultado igual al anterior, pero por qué debería hacerlo cuando ya tengo $=x$ ?

Todavía no entiendo cuándo debo hacer una adición a ambos lados o sólo manipular la colocación del término.

Gracias

1voto

jwarzech Puntos 2769

A continuación se exponen algunas consideraciones para elegir una manera en lugar de otra de reescribir una ecuación en forma de punto fijo.

(1) ¿Introduce la reescritura alguna raíz extra ("artefacto")?

(2) ¿La función resultante $g(x)$ servir de "mapa de contracción"?

Su libro, Chapra y Canale, "Numerical Methods for Engineers"(?), probablemente tendrá alguna información sobre estas ideas, pero aquí hay algunas ideas rápidas.

Las iteraciones de punto fijo pueden definirse siempre desde el punto de partida elegido $x_0$ :

$$ x_{k+1} = g(x_k), k = 0,1,2,3,\ldots $$

pero si estos convergen a una raíz de $f(x) = 0$ depende en gran medida de cómo $g(x)$ y (en menor medida) de la elección del punto de partida.

Si $\{x_k\}$ converge a $x_*$ y $g(x)$ es continua en una vecindad de $x_*$ entonces $x_*$ es una solución de $x = g(x)$ . Si también es una solución de la ecuación original $f(x)=0$ dependerá de si los pasos de reescritura han introducido algún raíces del artefacto es decir, las raíces de $x=g(x)$ que no satisface la ecuación original $f(x)=0$ . Las formas típicas en que esto puede ocurrir son elevar al cuadrado ambos lados de la ecuación o multiplicar ambos lados por una expresión que introduce una nueva raíz. Sumando $x$ a ambas partes se no introducir una raíz de artefacto, porque es un paso reversible (se puede restar $x$ de ambos lados).

La propiedad más profunda deseada para $g(x)$ es la de ser un mapa de contracción en una vecindad de la raíz $x_*$ que buscamos. Para algunos antecedentes históricos Ver la excelente respuesta de Willie Wong. En cualquier caso, la idea es que si $\{x_k\}$ converge, los términos deberían (eventualmente) estar cerca del límite $x_*$ y, por lo tanto, próximos entre sí. La propiedad de mapeo de contracción garantiza que esto sucederá porque para alguna constante $0\lt c \lt 1$ :

$$ |x_{k+1} - x_k| = |f(x_k) - f(x_{k-1}| < c |x_k - x_{k-1}| $$

En otras palabras, las "brechas" entre los términos acabarán reduciéndose al menos en un factor $c$ con cada iteración.

En la mayoría de los casos una buena forma de comprobar la propiedad de mapeo de contracción es mostrando la función $g(x)$ es diferenciable en una vecindad de $x_*$ y tiene una derivada menor que uno en valor absoluto.

El teorema del valor medio equipara $f(x) - f(y)$ a $f'(z)\cdot (x-y)$ para algunos $z$ entre $x$ y $y$ . Por lo tanto, si $|f'(z)|\lt 1$ Tendremos $|f(x)-f(y)|\lt |x-y|$ . En dimensiones superiores (funciones de más de un argumento) puede aplicarse un análisis de contracción similar que implique el jacobiano (en lugar de la derivada ordinaria).

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X