5 votos

Una demostración de la forma de Lagrange para el resto de una serie de Taylor

El siguiente argumento de la forma de Lagrange para el resto de un polinomio de Taylor es un argumento típico en los libros de análisis. Incluso en el caso de encontrar el resto cuando el polinomio de Taylor es un polinomio lineal, decidir sobre las funciones $g(x)$ y $h(x)$ no es evidente. (Véase el siguiente argumento.) ¿Puede alguien proporcionar la motivación de estas funciones? Además, ¿alguien sabe quién inventó este argumento?

Forma de Lagrange para el resto

$f$ es una función dos veces diferenciable definida en un intervalo $I$ y $a$ es un elemento de $I$ distintos de cualquier punto final de $I$ . Para cada número real $x \in I$ distinto de $a$ hay un número real $c$ entre $a$ y $x$ tal que \begin{equation*} R_{1}(x) = \frac{f^{(2)}(c)}{2!} \, (x - a)^{2} . \end{equation*} Por lo tanto, si $T_{1}$ denota el polinomio lineal de Taylor de $f$ en $a$ , \begin{equation*} f(x) = T_{1}(x) + \frac{f^{(2)}(c)}{2!} \, (x - a)^{2} . \end{equation*}

Demostración \begin{equation*} g(u) = f(x) - \Bigl[f(u) + f^{\prime}(u)(x - u)\Bigr] \end{equation*} es una diferenciable, y \begin{equation*} g^{\prime}(u) = - f^{\prime\prime}(u)(x - u) . \end{equation*} La función \begin{equation*} h(u) = g(u) - g(a) \left(\frac{1}{x - a}\right)^{2} (x - u)^{2} \end{equation*} es un también diferenciable, y \begin{equation*} h^{\prime}(u) = - f^{\prime\prime}(u)(x - u) + 2g(a) \left(\frac{1}{x - a}\right)^{2} (x - u) . \end{equation*} Además, $h(x) = g(x) = 0$ y $h(a) = 0$ . Según el Teorema de Rolle, existe un número real $a < c < x$ tal que $h^{\prime}(c) = 0$ . \begin{equation*} 0 = h^{\prime}(c) = - f^{\prime\prime}(c)(x - c) + 2g(a) \left(\frac{1}{x - a}\right)^{2} (x - c) , \end{equation*} o, de forma equivalente, ya que $x \neq c$ y como \begin{equation*} g(a) = f(x) - \Bigl[f(a) + f^{\prime}(a)(x - a)\Bigr] , \end{equation*} \begin{equation*} f(x) - \Bigl[f(a) + f^{\prime}(a)(x - a)\Bigr] = \frac{f^{\prime\prime}(c)}{2!} \, (x - a)^{2} . \end{equation*}

0 votos

Caramba, eso parece poco intuitivo. Es mucho más fácil si asumes $f$ es $C^2.$

3voto

Felix Marin Puntos 32763

$\newcommand{\angles}[1]{\left\langle\,{#1}\,\right\rangle} \newcommand{\braces}[1]{\left\lbrace\,{#1}\,\right\rbrace} \newcommand{\bracks}[1]{\left\lbrack\,{#1}\,\right\rbrack} \newcommand{\dd}{\mathrm{d}} \newcommand{\ds}[1]{\displaystyle{#1}} \newcommand{\expo}[1]{\,\mathrm{e}^{#1}\,} \newcommand{\half}{{1 \over 2}} \newcommand{\ic}{\mathrm{i}} \newcommand{\iff}{\Longleftrightarrow} \newcommand{\imp}{\Longrightarrow} \newcommand{\Li}[1]{\,\mathrm{Li}_{#1}} \newcommand{\mc}[1]{\mathcal{#1}} \newcommand{\mrm}[1]{\mathrm{#1}} \newcommand{\ol}[1]{\overline{#1}} \newcommand{\pars}[1]{\left(\,{#1}\,\right)} \newcommand{\partiald}[3][]{\frac{\partial^{#1} #2}{\partial #3^{#1}}} \newcommand{\root}[2][]{\,\sqrt[#1]{\,{#2}\,}\,} \newcommand{\totald}[3][]{\frac{\mathrm{d}^{#1} #2}{\mathrm{d} #3^{#1}}} \newcommand{\ul}[1]{\underline{#1}} \newcommand{\verts}[1]{\left\vert\,{#1}\,\right\vert}$

El $\underline{motivation}$ proviene de la integración repetida por partes de la siguiente identidad: $$ \mrm{f}\pars{x} = \mrm{f}\pars{0} + \int_{0}^{x}\mrm{f}'\pars{x - t}\,\dd t $$

\begin{align} \mrm{f}\pars{x} & = \mrm{f}\pars{0} + \int_{0}^{x}\mrm{f}'\pars{t}\,\dd t = \mrm{f}\pars{0} + \int_{0}^{x}\mrm{f}'\pars{x - t}\,\dd t \\[5mm] & = \mrm{f}\pars{0} + \mrm{f}'\pars{0}x + \int_{0}^{x}t\,\mrm{f}''\pars{x - t} \,\dd t \\[5mm] & = \mrm{f}\pars{0} + \mrm{f}'\pars{0}x + \half\,\mrm{f}''\pars{0}x^{2} + \half\int_{0}^{x}t^{2}\,\mrm{f}'''\pars{x - t}\,\dd t \\[5mm] & = \mrm{f}\pars{0} + \mrm{f}'\pars{0}x + \half\,\mrm{f}''\pars{0}x^{2} + {1 \over 3 \times 2}\,\mrm{f}'''\pars{0}x^{3} + {1 \over 3 \times 2} \int_{0}^{x}t^{3}\,\mrm{f}^{\pars{\texttt{IV}}}\pars{x - t}\,\dd t \\[5mm] & = \cdots = \sum_{k = 0}^{n}{\mrm{f}^{\pars{n}}\pars{0} \over n!}\,x^{n} + {1 \over n!}\int_{0}^{x}t^{n}\,\mrm{f}^{\pars{n + 1}}\pars{x - t}\,\dd t \end{align}

0 votos

Sí, Paramanand Singh también ofreció este argumento como muy preferible. No lo discuto. Existe este otro argumento -el que proporcioné en el post- que sólo implica la diferenciación y el Teorema del Valor Medio de Cauchy. Lo que motivó las definiciones de las funciones $g(u)$ y $h(u)$ ?

0 votos

@user74973 Gracias por tu comentario. Era consciente de ello. Sin embargo, quería mostrar la forma más simple y sencilla de tal manera que pueda ser útil para los novatos. Recuerdo que tu manera fue más o menos mi primer encuentro con Taylor cuando estaba en la escuela de pregrado ( ¡¡¡hace mucho tiempo!!! ). Gracias.

0 votos

Creo que el argumento que aporté en el post fue el primero que vi en una clase de análisis -también hace mucho tiempo-. ¡Ja! ¡Ja! Sin embargo, esta no fue la demostración original de la forma de Lagrange para el resto. La proporcionó Cauchy. Puse la etiqueta "Historia de las Matemáticas" en el post - pensé que habría sido una pregunta fácil para alguien conocedor de la historia de las matemáticas.

3voto

Paramanand Singh Puntos 13338

No tengo la perspectiva histórica de la serie de Taylor, así que no puedo decir "quién inventó este argumento". Pero puedo dar una justificación intuitiva de la técnica utilizada en la demostración del Teorema de Taylor.

En primer lugar, hay que tener en cuenta que el objetivo principal del teorema de Taylor es expresar la función $f(x)$ como una serie de potencias en potencias de $(x - a)$ donde $a$ es un punto adecuado donde $f$ se comporta de forma muy buena manera . Por buena manera nos referimos aquí a que la función $f$ tiene derivadas hasta un cierto orden en la vecindad del punto $a$ . Por lo tanto, si asumimos $$f(x) = a_{0} + a_{1}(x - a) + a_{2}(x - a)^{2} + \cdots$$ y suponiendo que la serie anterior se puede diferenciar repetidamente entonces obtenemos los coeficientes como $$a_{n} = \frac{f^{(n)}(a)}{n!}$$ Por lo tanto, si $f$ es diferenciable $n$ veces en la vecindad de $a$ podemos considerar el polinomio de Taylor $$T_{n}(x, a) = f(a) + f'(a)(x - a) + \cdots + \frac{f^{(n - 1)}(a)}{(n - 1)!}(x - a)^{n - 1}$$ y nuestra esperanza es que este polinomio de Taylor sea una buena aproximación de $f(x)$ en los alrededores de $a$ . Y el error de aproximación es $$R_{n}(x, a) = f(x) - T_{n}(x, a)$$ Encontrar una expresión explícita de $R_{n}(x, a)$ en términos de $f, n, a, x$ es el verdadero quid del Teorema de Taylor.

Y sí, esta parte es complicada. Supongamos que usamos el polinomio de Taylor $T_{n + 1}(x)$ en lugar de $T_{n}(x)$ . La diferencia entre $T_{n}$ y $T_{n + 1}$ es el término extra de tipo $a_{n}(x - a)^{n}$ . Como en realidad no usamos $T_{n + 1}$ sino que $T_{n}$ por lo que se espera que el Remanente se comporte casi como el término extra $a_{n}(x - a)^{n}$ y, por tanto, tiene sentido analizar el expreso $$\frac{R_{n}(x, a)}{(x - a)^{n}}$$ La parte complicada ahora es fijar la variable $x$ en la expresión anterior y considerarla como una función $a$ . Y entonces cambiamos ligeramente la notación a $$\frac{R_{n}(x, u)}{(x - u)^{n}}$$ donde $u$ se encuentra entre $a$ y $x$ y comparar este error con el error máximo $$\frac{R_{n}(x, a)}{(x - a)^{n}}$$ y así nuestra función final es $$g(u) = \frac{R_{n}(x, u)}{(x - u)^{n}} - \frac{R_{n}(x, a)}{(x - a)^{n}}$$ y queremos deshacernos de $(x - u)^{n}$ en el denominador (para simplificar el cálculo) por lo que en su lugar utilizamos la función $$F(u) = (x - u)^{n}g(u) = R_{n}(x, u) - \left(\frac{x - u}{x - a}\right)^{n}R_{n}(x, a)$$ Con ello se consigue el importante objetivo $F(a) = F(x) = 0$ por lo que podemos aplicar el Teorema de Rolle para obtener $F'(c) = 0$ para algunos $c$ entre $a, x$ . La expresión para $F'(u)$ contiene la expresión $R_{n}(x, a)$ y la ecuación $F'(c) = 0$ nos permite expresar $R_{n}(x, a)$ en términos de $x, n, a$ (aunque esto es algo indeterminado porque el valor exacto de $c$ no se conoce).


La técnica anterior se basa en el cálculo diferencial. Hay otra forma más sencilla de verlo si utilizamos la integración. La expresión $R_{n}(x, a)$ en función de $x$ es tal que todas sus derivadas hasta el orden $(n - 1)$ se desvanecen en $x = a$ y $R_{n}^{(n)}(x, a) = f^{(n)}(x)$ . Así, $R_{n}(x, a)$ es el $n^{\text{th}}$ antiderivada de $f^{(n)}(x)$ y además su primera $(n - 1)$ Las derivadas se desvanecen en $x = a$ . En estas circunstancias es fácil demostrar mediante integración por partes (e inducción en $n$ ) que $$R_{n}(x, a) = \frac{1}{(n - 1)!}\int_{a}^{x}(x - t)^{n - 1}f^{(n)}(t)\,dt$$ Poniendo $t = x + (a - x)u$ obtenemos $$R_{n}(x, a) = \frac{(x - a)^{n}}{(n - 1)!}\int_{0}^{1}u^{n - 1}f^{(n)}(x + (a - x)u)\,du$$ La integral se puede aproximar utilizando los teoremas del valor medio de las integrales para obtener $$R_{n}(x, a) = \frac{(x - a)^{n}}{(n - 1)!}f^{(n)}(c)\int_{0}^{1}u^{n - 1}\,du$$ es decir $$R_{n}(x, a) = \frac{(x - a)^{n}}{n!}f^{(n)}(c)$$ donde $c$ es algún punto entre $a$ y $x$ .

Ambas aproximaciones pueden modificarse de forma sencilla para dar lugar a la forma de resto de Cauchy. También hay que tener en cuenta que el enfoque basado en el cálculo diferencial supone que $f^{(n)}(x)$ existe en alguna vecindad de $a$ mientras que el enfoque basado en la integración requiere que $f^{(n)}(x)$ es continua en alguna vecindad de $a$ . Existe otra forma de resto para las series de Taylor que recibe el nombre de La forma de Peano del resto y esto requiere un enfoque totalmente diferente para su prueba.

0 votos

Le agradezco su respuesta. Estoy de acuerdo en que es intuitivo suponer que $f$ es infinitamente diferenciable y tomar la diferencia entre $T_{n+1}$ y $T_{n}$ que es $a_{n}(x - a)^{n}$ . Estoy de acuerdo en que $R_{n}(x,a)$ debería ser "como" $(x - a)^{n}$ . Una forma de "medir" la "semejanza" es tomando el cociente de ellos y mostrando que es cercano a 1. Puedo mirar la diferencia y mostrar que es cercana a 0, pero si eso no llevó a la Forma de Lagrange para el resto, puedo ver mirando el cociente.

0 votos

Usted dice que lo siguiente que hay que hacer es "arreglar la variable $x$ en la expresión anterior y considerarla como una función $a$ ." Esto es tan artificioso como la definición de $g(u)$ en la demostración que he proporcionado. ¿No es así?

0 votos

@user74973: Tengo que estar de acuerdo en que la técnica de la prueba es algo artificiosa. Ten en cuenta que la prueba tradicional (especialmente en los libros antiguos) trata de $R_{n}(b, a)$ para que la variable $x$ se sustituye ya por una constante $b$ y la función $f$ se analiza en el intervalo $[a, b]$ en lugar de en la vecindad de $a$ . Y luego los reemplazos $a$ con la variable $u$ y procede de la manera explicada.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X