3 votos

¿De dónde procede esta ecuación y la razón que hay detrás de ella para modelizar una función exponencial?

Para modelizar los datos a partir de la ecuación exponencial

$$ y=Ae^{Bx} $$

En el sitio web https://mathworld.wolfram.com/LeastSquaresFittingExponential.html

En la ecuación (5)

$$ \sum_{i=1}^{n}{y_i\left(\ln{\left(y_i\right)}-a-{bx}_i\right)^2} \space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space \space\space\space\space\space\space\space\space\space\space\space (5) $$

donde

$$ \ln{\left(A\right)}=a $$

$$ B=b $$

Dice que esta suma debe reducirse al mínimo. Funciona mejor que la linealización de los datos y hacer la regresión lineal para la ecuación a continuación.

$$ \ln(y)=\ln(A)+Bx $$

Sé que esto funciona mejor, pero ¿cuál es la justificación para el uso de la ecuación (5) o cómo se derivó?

2voto

Claude Leibovici Puntos 54392

Responder a su última pregunta demostré que, si expresas el residuo como $$r_i=\log(\hat y_i)-\log( y_i)$$ asumiendo pequeños errores, tienes $$r_i \sim \frac{\hat y_i-y_i }{y_i }$$ lo que explica que la linealización conduce a la minimización de la suma de los cuadrados de relativa errores.

Entonces, si ahora, expresas el residuo como $$r_i=y_i \Big[\log(\hat y_i)-\log( y_i)\Big]$$ con los mismos supuestos, se tiene $$r_i \sim y_i \times \frac{\hat y_i-y_i }{y_i }=\hat y_i-y_i$$ lo que hace que este factor de ponderación conduzca a algo extremadamente cercano a la minimización de la suma de los cuadrados de absoluto errores.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X