19 votos

¿De dónde provienen los términos de orden superiores en series de Taylor?

Puedo ver la primera aproximación de la orden de una serie de Taylor: si queremos aproximar $f(x)$ cerca de $x_0$, es cerca de la línea con pendiente $f'(x_0)$ $f(x_0)$ que, dando

$f(x) \approx f(x_0) + f'(x_0)(x-x_0)$

Sin embargo, no veo una buena manera de entender el % de términos de orden superior $f^{(n)}(x_0)/n! (x-x_0)$. Entiendo que la prueba del teorema de Taylor, pero no tengo ninguna intuición real para él. ¿Cómo descubrieron expansiones de Taylor (es decir, lo que llevaría a adivinar la forma de Taylor extensiones)?

35voto

Lorin Hochstein Puntos 11816

Para simplificar, vamos a discutir lo que sucede cerca de $x_0 = 0$.

La forma en que el local de la aproximación lineal de las obras es que estamos buscando la línea de que "mejor se aproxima a" la función cerca de $0$. Esto significa que queremos una función $y=a+bx$ con la propiedad de que el error entre el $y=a+bx$ $y=f(x)$ $0$ más rápido que el de $x$ enfoques $0$. La primera Que es, queremos $$\lim_{x\to 0}\frac{f(x) - (a+bx)}{x} = 0.$$ Un poco de trabajo muestra que la única $a$ $b$ que puede trabajar se $a=f(0)$$b=f'(0)$: $$\begin{align*} \lim_{x\to 0}\frac{f(x)-(a+bx)}{x} &= \lim_{x\to 0}\frac{f(x)-f(0)+f(0)-(a+bx)}{x}\\ &= \lim_{x\to 0}\frac{f(x)-f(0)}{x-0} + \lim_{x\to 0}\frac{f(0)-(a+bx)}{x}\\ &= \lim_{x\to 0}\frac{f(x)-f(0)}{x-0} + \lim_{x\to 0}\frac{f(0)-a}{x} - \lim_{x\to 0}\frac{bx}{x}. \end{align*}$$ Si la función es diferenciable, entonces el primer límite es $f'(0)$; el último límite es $b$; y si queremos que el límite de en medio a existir, necesitamos $f(0)=a$. Así que la única forma de que este límite es igual a $0$ si $b=f'(0)$$a=f(0)$.

Esto nos dice que la línea de "mejor aproximación" a $f(x)$ cerca de cero es $y = f(0) + f'(0)x$, que es precisamente el local de la aproximación lineal.

(La fracción $\frac{f(x)-(a+bx)}{x}$ es el "error relativo", debido a que el numerador mide el error, pero al dividirlo por $x$ estamos tratando de tomar en cuenta lo grande que sea la cantidad; si te digo que me mide la distancia y me fue de 2 millas, no sé si fue una aproximación muy buena o muy mala; sería muy bueno si yo fuera la medición de la distancia a la luna; sería muy malo si yo era la medición de la longitud de mi escritorio; el denominador intenta "normalizar" la medición de lo que se nos dice cómo el gran error es relativo a lo grande, de lo que está midiendo es)

Ahora, la ventaja de los locales de la aproximación lineal es que es muy simple; la desventaja es que puede estar mal con bastante rapidez; por ejemplo, la aproximación lineal de $y=\cos x$$0$$y=1$, que se obtiene de la "mala" muy rápidamente.

Así que puede que quiera aproximar con otra cosa, la cual, aunque sencillo, tiene una mejor oportunidad de ser una buena aproximación.

Una posibilidad es ir de lineal a cuadrática: vamos a tratar de aproximar $y=f(x)$ con una función cuadrática, $y = a+bx+cx^2$; de nuevo, en el orden de la aproximación que ser muy bueno, no se desea que el error de ir a cero más rápido que $x$$0$. Y puesto que ahora tenemos una parábola, podemos exigir que la curvatura de la parábola en $0$ ser la misma que la curvatura de $y=f(x)$ $0$ (esto es lo que nos mete hasta con $y=\cos x$: tiene una gran curvatura, pero la aproximación lineal es plana).

Ahora, para esta parábola para aproximar $y=f(x)$ bien cerca de $0$, nos va a querer que su local aproximaciones lineales a ser el mismo (si tienen diferentes aproximaciones lineales, entonces no podemos esperar que el $y=a+bx+cx^2$ a estar "cerca" $f(x)$). El local aproximación lineal a $y=a+bx+cx^2$ $x=0$ es dar por $a+bx$, por lo que queremos $a+bx = f'(0)x+f(0)$; por lo $a=f(0)$, e $b=f'(0)$.

Para obtener la misma curvatura, queremos $f''(0) = y''(0)$. Desde $y''(0) = 2c$, queremos $c = \frac{1}{2}f''(0)$. Así que nuestro $y$ $$y = f(0) + f'(0)x + \frac{f''(0)}{2}x^2.$$

De hecho, esto es de hecho una muy buena aproximación: tiene el mismo valor como$f(x)$$x=0$; el error relativo se va a cero, ya que $$\begin{align*} \lim_{x\to 0}\frac{f(x) - (f(0)+f'(0)x + \frac{1}{2}f''(0)x^2)}{x} &= \lim_{x\to 0}\frac{f(x) - (f(0)+f'(0)x)}{x} - \lim_{x\to 0}\frac{f''(0)x^2}{2x}\\ &= 0 - \lim_{x\to 0}\frac{1}{2}f''(0)x = 0. \end{align*}$$ Pero más que eso: el error relativo entre los derivados va a $0$: $$\begin{align*} \lim_{x\to 0}\frac{f'(x) - (f'(0)-f''(0)x)}{x} &= \lim_{x\to 0}\frac{f'(x)-f'(0)}{x}- f''(0)\\ &= f''(0)-f''(0) = 0. \end{align*}$$

Así que no solo $y=f(0) + f'(0)x + \frac{1}{2}f''(0)x^2$ tienen el mismo valor, y tiene el mejor posible error relativo, la derivada es la mejor aproximación posible a la derivada de la $f(x)$; por lo que la gráfica tenga forma similar cerca de $0$.

Si luego pasar a un grado $3$ aproximación, $y=a+bx+cx^2+dx^3$; si queremos que el error relativo para ir $0$, vamos a necesitar $a=f(0)$, $b=f'(0)$. Si queremos que el error relativo en la derivada para ir a $0$, vamos a necesitar $c=\frac{1}{2}f''(0)$ como antes. Lo que si queremos que el error relativo de la segunda derivada para ir a $0$ así? La segunda derivada de $y=a+bx+cx^2+dx^3$$2c+6dx = f''(0) + 6dx$. Por lo tanto tenemos: $$\begin{align*} \lim_{x\to 0}\frac{f''(x) - (f''(0)+6dx)}{x} &= \lim_{x\to 0}\frac{f''(x)-f''(0)}{x} - \lim_{x\to 0}6d\\ &= f'''(0) - 6d. \end{align*}$$ Para que esto sea igual a $0$, tenemos $6d = f'''(0)$ o $d = \frac{1}{6}f'''(0)$.

Si a continuación, vamos a un grado $4$ aproximación y pedir que el error relativo, el error relativo de los derivados, el error relativo de la segunda derivados, y de los errores relativos de la tercera derivados todos de ir a $0$, entonces nos encontramos con que tenemos la función de $y= f(0) +f'(0)x + \frac{1}{2}f''(0)x^2 + \frac{1}{6}f'''(0)x^3 + ex^4$, donde $f^{(4)}(0) = 12e$, lo $e = \frac{1}{12}f^{(4)}(0)$.

No es difícil ver, de manera inductiva, que el coeficiente obtenemos $x^n$ si procedemos de esta manera siempre va a ser $\frac{f^{(n)}(0)}{n!}$.

Usted puede repetir la misma idea en torno a cualquier punto de $x_0$, pero si lo haces directamente resulta que no se puede utilizar fácilmente los coeficientes se encuentran, por ejemplo, la aproximación lineal, en la aproximación cuadrática; puedes terminar con un sistema de ecuaciones en lugar de simplemente repetir la edad de los coeficientes. La forma más sencilla de "arreglar" esto es a cambio de todo a $0$, de resolver el problema a $0$, y luego cambiar de nuevo.

Así que si usted quiere resolver el problema en $x_0$, consideramos que en lugar de $g(x) = f(x+x_0)$, porque entonces la aproximación de $f$ cerca de $x_0$ es la misma que la aproximación de $g$$0$. Por otra parte, $g'(x) = f'(x+x_0)(x+x_0)' = f'(x+x_0)$, $g''(x) = f''(x+x_0)$, etc. Así, a partir de la obra anterior, vemos que el grado $n$ aproximación a $g$ cerca de $0$ que tiene mejor posible error relativo, en el mejor posible error relativo entre los derivados, en el mejor posible error relativo entre el 2º derivados, etc. es $$g(0) + g'(0)x + \frac{1}{2}g''(0)x^2 + \cdots + \frac{1}{n!}g^{(n)}(0)x^n.$$ Pero la forma que el anterior, este es el mismo como $$f(x_0) + f'(x_0)x + \frac{1}{2}f'(x_0)x^2 +\cdots + \frac{1}{n!}f^{(n)}(x_0)x^n.$$ Este es el local de aproximación a $f(x+x_0)$ cerca de $x=0$. La sustitución de $x$$x-x_0$, obtenemos $f(x-x_0+x_0) = f(x)$, el viejo "$x$ " estaba cerca de $0$, por lo que el nuevo $x$ tiene que ser cerca de $x_0$, y obtenemos que para $x$ cerca de $x_0$, tenemos $$f(x)\approx f(x_0) + f'(x_0)(x-x_0) + \frac{1}{2}f'(x_0)(x-x_0)^2 + \cdots + \frac{1}{n!}f^{(n)}(x_0)(x-x_0)^n$$ exactamente la fórmula de la $n$th el polinomio de Taylor aproximación a $f(x)$ cerca de $x_0$.


Sam L. plantea la feria pregunta de por qué queremos asumir que nuestras aproximaciones son polinomios. Si usted va a través de la creación de "el error relativo ir a $0$; hacer que el error relativo de la relación de error de ir a $0$", etc., usted descubrirá que usted se ha llevado de forma natural a los polinomios.

He aquí otra motivación: cuando nos encontramos con una función que queremos integrar y para los que somos incapaces de encontrar una antiderivada, nos encontramos con dos posibles enfoques:

  1. Intento de aproximar el valor de la integral a través de las sumas de Riemann, en esencia, la integral es un límite, por lo que podemos aproximar el límite mediante el uso de términos de la sucesión cuyo límite que estamos tratando de calcular. Esto conduce a la izquierda, a la derecha, punto medio, trapecio, Simpson aproximaciones, y otros métodos de aproximaciones numéricas de la integral utilizando la función de $f$.

  2. Encontrar una función $\mathcal{F}$, que se aproxima a $f$, pero es fácil de integrar. (De hecho, esto es en parte lo que está detrás de los Simpson regla de aproximación, en la que se aproxima a la función de $f$ en cada subinterval por una función cuadrática). Puesto que los polinomios son generalmente fáciles de integrar, tratando de encontrar los polinomios que son buenas aproximaciones a $f$ parece una buena idea; es decir, la clase de polinomios son un buen campo de pruebas para tratar de encontrar "buenas aproximaciones a $f$", debido a que son fáciles de integrar.

3voto

Ken Burkhardt Puntos 419

Hacer varias suposiciones se puede argumentar de la siguiente manera.

Primero de todo, para simplificar el razonamiento consideramos el caso de $x_0=0$. Una forma de obtener dichos coeficientes es asumir que el $f$ es "bien aproximada" por polinomios, que podría ser por ejemplo: para cualquier $n\in\mathbb{N}$ hemos $$ f(x)=a_0+a_1x+a_2x^2+\ldots a_nx^n+R(x) \qquad (1), $$ donde $R(x)/x^n\to 0$ al $x\to 0$.

Ahora suponiendo que la función de $R$ $n$ veces diferenciable en el origen, podemos obtener mediante el cálculo de los sucesivos derivados de ambos lados de (1) en$x=0$, $a_j$ tiene que ser de los coeficientes de Taylor.

3voto

Pedro Tamaroff Puntos 73748

Voy a contribuir con mi grano de arena.

Cuando estudié los polinomios de Taylor, esta fue la idea que debajo de ella (o lo que yo tengo):

Supongamos $f(x)$ $n$ veces diferenciable función continua en un barrio de $x=a$. Supongamos que construimos otra función polinómica $p(x)$, de tal manera que $f^{(n)}(a) = p^{(n)}(a)$$0,\dots,n$. A continuación, $p$ debe aproximarse a $f$ con un buen grado de precisión. ¿Por qué es esto así? Si las funciones coinciden en $a$, entonces son iguales en $a$. Si tienen la misma derivada, entonces se acercan a $(a,f(a))$ en una manera similar. Si tienen la misma derivada segunda, entonces tienen similares curvatura y sus derivados se comporta de manera similar en el barrio.

La idea es que cada uno de los de mayor orden término "extiende" el barrio en el que las funciones son más y más como los demás, y proporciona una mayor precisión (esto puede ser explicado por la búsqueda de una fórmula para el error producido por la aproximación, que es muy interesante la teoría).

Como un bono, usted puede inductivamente comprobar que si se construye un polinomio en torno a $x=a$

$$p_a^n(x) = a_0 + a_1 (x-a)+a_2(x-a)^2+\cdots+a_n(x-a)^n$$

a continuación, mediante la diferenciación e igualando el uso de nuestra condición nos vamos a encontrar

$$a_n = \frac{f^{(n)}(a)}{n!}$$

para siempre coeficiente del polinomio.

La introducción de algo más de teoría, podemos hablar de Lanadu $o$ notación. La notación es básicamente el siguiente:

Podemos decir $f(x)=o(g(x))$$x \to a$, leer "$f$ poco $o$ $g$ al $x$ enfoques $a$" si

$$\lim\limits_{x \to a} \frac{f(x)}{g(x)} \to 0$$

Si usted recuerda la comparación de infinitesimals, esto significa que $f$ es de orden menor que $g$$a$.

Podemos usar esta notación para escribir $\sin x \sim x$, como

$$\sin x = x + o(x) \text{ for } x \to 0$$

Esto significa

$$\lim\limits_{x \to 0} \frac{\sin x -x}{x} = 0$$

$$\lim\limits_{x \to 0} \frac{\sin x}{x}-1 = 0$$

$$\lim\limits_{x \to 0} \frac{\sin x}{x}=1 $$

Que supongo que no es demasiado nuevas noticias.

Así que, ¿cómo podemos utilizar esta con Taylor polinomio aproximaciones?

Deje $p_a^n(x)$ ser el polinomio de Taylor de orden $n$ $a$ $n$ veces derivable la función. Entonces, ¿qué podemos escribir es que

$$f(x)=p_a^n(x)+o((x-a)^n)$$

Esto significa que la diferencia de $f-p$ es de orden menor que $(x-a)^n$$x \to a$, o que el error es pequeño en comparación a $(x-a)^n$.

Como un ejemplo

$$\cos x = 1-\frac{x^2}{2}+o(x^2)$$

(Es por eso que, cuando el manejo de límites con polinomios de segundo o primer o grado cero, podemos sustituir el $\cos x$ con la expresión dada.$)

Espero que esto te ayuda, pero recuerda, yo no soy un profesor Arturo es. Doy la bienvenida a revisiones o modificaciones de este por cualquier persona que siente que pueden mejorar las ideas o en el texto, por ejemplo.

2voto

Brian G Puntos 8580

Creo que la mayoría de los ingenuos método de aproximación conduce a los polinomios de por sí - sin explícitamente tratando aproximado de la función inicial $f$ por polinomios:

La más primitiva de la aproximación de una función continua en torno a $0$ es simplemente dado por $f(x) \approx f(0)$. Por supuesto que a menudo no están muy satisfechos con esto, así que es natural que se pregunte cuál es el error $f(x) - f(0)$ se ve como para el cultivo de $x$, es decir, queremos comparar $f(x)-f(0)$ $x$- es decir, queremos investigar la expresión

$$err_1(x) = \frac{f(x) - f(0)}{x}$$

Si este error de la función es continua en $0$, entonces podemos usar la misma idea de una aproximación como la anterior y obtenemos $err_1(x) \approx err_1(0) = f'(0)$. La solución para $f(x)$, obtenemos la aproximación

$$f(x) = f(0) + err_1(x) x \approx f(0) + f'(0) x$$

Si esta aproximación no es todavía lo suficientemente bueno, entonces podemos ir a investigar el error en la aproximación de la primera de error, es decir,

$$err_2(x) = \frac{err_1(x) - err_1(0)}{x} = \frac{\frac{f(x)-f(0)}{x} - f'(0)}{x} = \frac{f(x) - f(0) - f'(0)x}{x^2}$$

Si esta es continua en a$0$, - como el anterior - podemos hacer la aproximación

$$err_2(x) \approx err_2(0) = \lim_{x\to0} \frac{f(x) - f(0) - f'(0)x}{x^2} = \frac{f''(0)}{2}$$

Así que la solución para $f(x)$ obtenemos:

$$f(x) = f(0) + f'(0)x + err_1(x)x^2 \approx f(0) + f'(0) x + \frac{f''(0)}{2}x^2$$

y así sucesivamente.

Así que todo lo que hago es aproximar el error del error del error en la mayoría de manera cruda y la esperanza de que cada paso que conducirá a una mejor aproximación de nuestra función inicial (que es exactamente lo que uno haría ingenuamente, creo).

En particular, ni siquiera necesita ser claro que esto lleva a un polinomio de aproximación a priori. (Yo sólo estoy escribiendo esto, porque otras respuestas parecen asumir una cierta forma de la aproximación y, a continuación, mostrar que esta aproximación es exactamente el polinomio de Taylor - sin embargo, no está claro para mí, donde la motivación para el uso de polinomios en lugar de otras funciones viene de...)

0voto

Tom Puntos 1705

Me gustaría añadir un seguimiento de mini-pregunta Arturo respuesta. Su explicación es sólida como una roca, sin embargo, ¿cómo justifica el objetivo de tomar el límite $$\lim_{x\to 0}\frac{f(x) - (a+bx)}{x} = 0.$$ in the first instance? Why do you care about the relative error, instead of the absolute error (i.e. $$\lim_{x\to 0}(f(x) - (a+bx)) = 0.$$ Debido a que la anterior, no solo se le pide para una aproximación, pero también pide una aproximación tal que el error disminuye más rápidamente en relación a cómo de rápido que x se aproxima al punto en el que nos aproximado.

Ahora esto puede sonar tonto, teniendo en cuenta el error absoluto tenemos un punto de aproximación a $$a=f(0).$$ teniendo en cuenta que el error relativo, podemos obtener una aproximación lineal. Hay una intuición de este (¿por qué la consideración adicional sobre el error relativo conduce a una línea en lugar de un punto)? (Toda esta cosa era una pregunta).

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X