Consideremos un fenómeno que evoluciona en el tiempo representado por una variable $y(t)$ cuya dinámica depende de un parámetro, por ejemplo la temperatura $\theta$ .
Tenemos dos series de mediciones a diferentes temperaturas constantes $\theta_1$ y $\theta_2$ . La trama se parece a esto:
Las mediciones a una temperatura determinada no pueden considerarse independientes debido, digamos, a la imprecisión del control de las condiciones experimentales.
Las mediciones a diferentes temperaturas pueden considerarse razonablemente independientes.
Nos gustaría poder predecir la evolución temporal de $y$ a diferentes temperaturas.
Modelizamos la dinámica de $y$ como $y(t) = a(\theta) t$ que se utilizará posteriormente como $\dot{y} = a(\theta)$ .
Suponiendo un término de error aditivo, la estimación de $a$ es un problema de regresión estándar que puede resolverse mediante la optimización de mínimos cuadrados. El principal problema es la cantidad limitada de datos, sobre todo si se tiene en cuenta la dependencia entre series. Afortunadamente, algunas consideraciones físicas nos dicen que $a$ varía exponencialmente con la temperatura: $a(\theta) = \alpha \: e^{\beta / \theta}$ .
Ahora nos interesa modelar la incertidumbre sobre $\hat{\alpha}$ y $\hat{\beta}$ los estimadores de $\alpha$ y $\beta$ . ¿Qué procedimiento recomendaría?
Una idea sería utilizar bootstrap después del ajuste de mínimos cuadrados no lineales. Sin embargo, a nosotros nos interesa principalmente el área de la extrapolación, es decir, predecir el comportamiento de $y$ para $\theta \notin [\theta_1, \theta_2]$ (en realidad $\theta \leq \theta_1 \leq \theta_2$ y probablemente podríamos proporcionar un límite inferior para $a$ ).