9 votos

¿De dónde surgió la idea de la interpolación hermética?

Me dan la fórmula de interpolación de Hermite directamente en mi libro de texto sin NINGUNA explicación sobre cómo se hizo por primera vez (obviamente se construyó de alguna manera por primera vez con algún tipo de intuición ) .

la fórmula para n+1 datos de $x_0$ hasta $x_n$ con $f(x_0)$ hasta $f(x_n)$ y con $ f^{\prime}(x_0)$ hasta $f^{\prime}(x_n)$ $$H_{2n+1}(x) = \sum_{j=0}^n f(x_j)H_{n,j}(x) + \sum_{j=0}^n f^{\prime}(x_j)\hat H_{n,j}(x)$$

donde $$H_{n,j} = [1 2(x x_j)L^{\prime}_{n,j}(x_j)]L_{n,j}^2(x) $$

$$ \hat H_{n,j}(x) = (x-x_j) L_{n,j}^2(x) $$ SÍ entiendo la prueba y por qué el polinomio concuerda con los datos y sus derivadas.

entiendo la intuición de los polinomios de Lagrange.

así que estoy buscando la intuición detrás de la fórmula (cómo se hizo) especialmente la construcción de $H$ y $\hat H$ ¡. así en vez de memorizarlo puedo aprenderlo!

3voto

Oskar Limka Puntos 406

Piense en la interpolación de Lagrange y La fórmula de Taylor. De hecho, la mejor manera es considerar la interpolación lineal como la más básica de Hermite (y la segunda más básica de Lagrange) y hacer la conexión. Supongamos que queremos aproximar una función diferenciable $f:\mathbb R\to\mathbb R$ y te das dos nodos: $x_0$ y $x_1$ con $x_1\neq x_0$ .

La idea principal de Hermite es tomar $x_1\to x_0$ pero para ello no se puede utilizar la base estándar de Lagrange $L_0(x):=(x-x_1)/(x_0-x_1)$ y $L_1(x):=(x-x_0)/(x_1-x_0)$ porque los denominadores llegarán a cero mientras que los numeradores seguirán siendo finitos.

Así que el truco consiste en sustituir la base de Lagrange por otra (la base de Lagrange no tiene nada de especial, salvo que facilita la colocación). Por ejemplo, tomemos $M_0(x):\equiv 1$ y $M_1(x):=(x-x_0)$ (que resulta ser la base "ingenua" de Vandermonde cuando $x_0=0$ pero considérelo un accidente). Busque ahora dos coeficientes, digamos $c_0,c_1$ tal que la función lineal $c_0M_0+c_1M_1$ interpola $f$ en $x_0,x_1$ resuelves un sistema lineal y obtendrás $$ c_0=f(x_0) \text{ and } c_1=\frac{f(x_1)-f(x_0)}{x_1-x_0}. $$ (¿Hueles las diferencias divididas de Newton? No importa, céntrate en Hermite por ahora). Así que, de hecho, planteando $h=x_1-x_0$ vemos que la única cantidad que depende de $h$ es $c_1=\hat c_1(h)$ mientras que $c_0,M_0,M_1$ son $h$ -independiente, por lo que tenemos un $h$ -interpolante de Lagrange dependiente $L^{(h)}(x)=c_0M_0(x)+\hat c_1(h)M_1(x)$ .

Esto es útil.

Tambores rodando, dejamos $x_1\to x_0$ (o $h\to0$ ) y rastrear las cantidades que dependen de $h$ es decir, $\hat c_1(h)$ que simplemente convergerá a $f'(x_0)$ por lo tanto la interpolante lineal se convierte en $$ L^{(0)}(x)=f(x_0)M_0(x)+f'(x_0)\underbrace{(x-x_0)M_0(x)}_{M_1(x)}. $$ Pero esta es la expansión de Taylor de orden 1 en $x_0$ ¡y es exactamente lo que hace Monsieur Hermite!

0 votos

Por ejemplo, en la integración numérica de EDO mediante métodos de colocación.

0 votos

¿Qué tal si añadimos restricciones de segunda derivada como en

0 votos

Por supuesto, puede asignar a cada punto $x_k$ un pedido $m_k$ para que el valor de la función y el primer $m_k-1$ derivados tienen un valor prescrito. En esta generalidad, el problema de interpolación puede considerarse un caso especial del teorema del resto chino en anillos polinómicos, $p(x)\equiv q_k(x)\pmod{(x-x_k)^{m_k}}$ para $k=1,…,n$ .

3voto

Yves Daoust Puntos 30126

Ambos tipos de fórmulas de interpolación se basan en el principio de superposición (la suma del efecto de las causas individuales es el efecto de la suma de las causas), y consiguen una descomposición tal que cada punto aporta su propia contribución. En realidad, se forma una base de polinomios y combinaciones lineales de los mismos.

En el caso de Lagrange, consideremos el caso especial $f(x_i)=\delta_{ij}$ todos los ordenados menos el $j^{th}$ son cero, y el segundo es uno. Esto se consigue fácilmente formando el producto de $(x-x_i)$ y normalizando a uno en $x_j$ . A partir de estos $n$ se puede construir la interpolante para cualquier ordenada.

La generalización a Hermite sigue la misma idea. Se formarán dos familias de polinomios: la primera familia lleva las ordenadas ( $f(x_i)=\delta_{ij}, f'(x_i)=0$ ), y el segundo lleva las derivadas ( $f(x_i)=0,f'(x_i)=\delta_{ij}$ ).

El resto son trucos técnicos, basados en la idea de que al elevar al cuadrado un polinomio de Lagrange, las raíces simples se convierten en raíces dobles y la derivada desaparece en las raíces, preparando candidatos para la primera y segunda familia.


Más exactamente, $L^2_j$ consigue $f(x_i)=\delta_{ij}$ y $f'(x_i)=0$ excepto en $x_j$ .

Introduzcamos el polinomio $Z_j=(x-x_j)L_j$ tal que $Z_j(x_i)=0$ y $Z_j'(x_j)=1$ .

Para obtener la primera familia, anulamos la derivada de $L_j^2$ en $x_j$ introduciendo un término corrector $-Z_j(L_j^2)'$ que se deriva como $-Z_j'(L_j^2)'-Z_j(L_j^2)''$ es decir $-(L_j^2)'$ en $x_j$ y $0$ en otro sitio: $$H_j=L_j^2-Z_j(L_j^2)'=(1-2(x-x_j)L_j')L_j^2.$$

Para obtener la segunda familia, cancelamos $f(x_j)$ utilización del producto $Z_jL_j$ y tenemos $(Z_jL_j)'=Z_j'L_j+Z_jL_j'=\delta_{ij}$ como desee. Por lo tanto: $$\hat H_j=Z_jL_j=(x-x_j)L_j^2.$$

2 votos

De hecho, puedes evitar un montón de trucos "técnicos" utilizando la construcción de diferencias divididas de Newton, "duplicando" las raíces donde sea necesario y considerando la derivada (que es el límite de la diferencia dividida) cuando estés a punto de dividir por cero.

1voto

kiyarash Puntos 340

Llamemos $H_{2n+1}(x) \;,\: P(x)$ . supongamos que se nos da un conjunto de datos $S = \{x_0 ,x_1 , ... , x_n \}$

queremos $P(x)$ atravesar $f(x_j)$ s y tienen la misma derivada que $f(x)$ para todos los datos en $S$ .

Nótese que como tenemos 2(n+1) condiciones para P(x). entonces P(x) debe ser al menos de grado 2n+1 ya que un polinomio 2n+1 tiene 2n+2 coeficientes que pueden ser modificados para cumplir nuestras condiciones .

por lo que al igual que la intuición de los polinomios de Lagrange construimos una fórmula como esta

$$P(x) = \sum_{j=0}^n f(x_j)A_{j}(x) + \sum_{j=0}^n f^{\prime}(x_j) B_{j}(x)$$

nota1: $A_j$ corresponde al término de la suma cuyo coeficiente es $f(x_i)$ y $B_j$ corresponde al término de la suma cuyo coeficiente es $f^{\prime}(x_i)$ .

nota2: en todas las fórmulas $x_i \in S$ y $x_j \in S$ .

ahora como queremos $\forall x_i P(x_i) = f(x_i)$ entonces $$1.\quad A_j(x_i) = \begin{cases} 1, & {if x_i = x_j} \\ 0, & {else ( if x_i \neq x_j)}\\ \end{cases}$$

así que cuando damos $P(x)$ datos $x_i$ el término correspondiente que contiene $f(x_i)$ en $P(x)$ y todos los demás términos de la primera suma se convierten en cero.

al calcular $P(x_i)$ no queremos que ninguna de las derivadas aparezca en el resultado, así que

$$2.\quad \forall x_i B_{j}(x_i) = 0 $$

desde $P^{\prime}(x) = \sum_{j=0}^n f(x_j)A^{\prime}_{j}(x) + \sum_{j=0}^n f^{\prime}(x_j) B^{\prime}_{j}(x)$ igual que antes determinamos $A^{\prime}_j$ y $B^{\prime}_j$

$$3.\quad \forall x_i A^{\prime}_j(x_i) = 0 $$

$$4.\quad B^{\prime}_j(x_i) = \begin{cases} 1, & {if x_i = x_j} \\ 0, & {else ( if x_i \neq x_j)}\\ \end{cases}$$

Obsérvese ahora que el comportamiento de $A_j$ y $B_j$ es próxima a la de un polinomio de base de Lagrange . es decir : supongamos $A_j = L_j$ . entonces $L_j$ cumple la condición 1. pero obviamente no cumple la condición 3 . (recuérdese también que P(x) es de grado 2n+1).

por lo que suponiendo que cada $A_j$ tiene el mismo grado . y suponiendo que queremos utilizar la propiedad de un polinomio base de Lagrange en la construcción del $A_j$ entonces

$$A_j = (a_j*x+b_j) * L^2_j$$

nota utilizando $L^2$ en lugar de $L$ el grado de $A$ obtiene de n a 2n y multiplicando $A$ con línea $(a_i*x+b_i)$ A tiene la potencia 2n+1

hemos dividido A en dos factores uno de grado 1 y otro de grado 2n . ¿POR QUÉ?

ya que sólo tenemos las condiciones 1 y 3 para la construcción de A y así dividir A en la predeterminada(lo que significa que no tiene incógnitas como $a_j$ y $b_j$ ) polinomio base de Lagrange y una recta $(a_j*x+b_j)$ con dos incógnitas debería darnos una respuesta única para $A_j$ .

también es el caso de $B_j$ .

asumiendo ahora $A_j$ es de la forma $A_j = (a_j*x+b_j) * L^2_j$ y resolviendo las ecuaciones para las condiciones 1 y 3 obtenemos :

para la condición 1 sabemos

$$A_j = (a_j*x+b_j) * L^2_j$$

si $x_i \neq x_j$ entonces $A(x_i) = 0$

desde entonces $L_j(x_i) = 0$ que hace que $A(x_i) = 0$ independientemente de $a_j$ o $b_j$ . que no nos da ninguna información sobre $a_j$ o $b_j$ .

si $x_i = x_j$ entonces $A(x_j) = 1$ así que

$$ a_j (x_j L_j^2(x_j)) + b_j L_j^2(x_j) = 1 $$

desde $L_j(x_j) = 1$ entonces

$$a_j x_j + b_j = 1\\ so \; b_j = 1-a_j x_j$$

ahora para la condición 3. tenemos

$$A^{\prime}_j(x) = a_j L^2_j(x) + (a_j x + b_j) 2L_j(x)L^{\prime}_j(x)$$

si $x_i \neq x_j$ de nuevo desde $L_j(x_i) = 0$ no obtenemos ninguna información sobre $a_j$ o $b_j$ .

si $x_i = x_j$ entonces $L_j(x_j) = 1$ así que

$$a_j + (a_j x_j + b_j) 2 L^{\prime}(x_j) = 0\\ \text{by substituting} \; b_j \; \text{from above we have} \\ a_j = -2L^{\prime}_j(x_j) $$

así

$$ b_j = 1+2x_j L^{\prime}_j(x_j) $$

sustituyendo $a_j$ y $b_j$ en $A_j$ obtenemos .

$$A_j(x) = (-2L^{\prime}_j(x_j) x + 1+2x_j L^{\prime}_j(x_j) ) L^2_j(x)$$

así que

$$A_j(x) = [1 2(x x_j)L^{\prime}_{n,j}(x_j)]L_{n,j}^2(x)$$

por lo que hemos encontrado $A_j(x)$ que es técnicamente lo mismo que $H_{j}$ o $H_{n,j}$

de la misma manera utilizando las condiciones 2 y 4 podemos encontrar $B_j(x)$

$$ B_j(x) = (x-x_j) L_{n,j}^2(x)$$

por lo que hemos encontrado $\hat H_{n,j}(x)$

0 votos

Es una buena idea echar un vistazo también a las otras respuestas.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X