En teoría, la escala no debería hacer ninguna diferencia en absoluto (más allá de cambiar la varianza residual y los posibles valores iniciales).
En práctica, escalar una serie puede hacer diferencias numéricas e incluso llevar a que se seleccionen modelos diferentes. Por ejemplo:
> library(forecast)
>
> set.seed(1)
> foo <- arima.sim(model=list(ar=c(0.4,-0.2),ma=0.2),n=1e3)
>
> auto.arima(foo)
Series: foo
ARIMA(4,0,2) con media cero
Coefficients:
ar1 ar2 ar3 ar4 ma1 ma2
-0.9584 -0.0280 -0.1519 -0.1648 1.5267 0.5473
s.e. 0.9792 0.3898 0.1981 0.2560 0.9791 0.9474
sigma^2 estimado como 1.064: log likelihood=-1447.29
AIC=2908.58 AICc=2908.69 BIC=2942.93
>
> auto.arima(1e9*foo)
Series: 1e+09 * foo
ARIMA(0,0,0) con media cero
sigma^2 estimado como 1.439e+18: log likelihood=-22324.11
AIC=44650.21 AICc=44650.22 BIC=44655.12
También he visto ejemplos patológicos en los que auto.arima()
arrojó un error para una serie, pero al escalar la serie se obtuvo un modelo estimable.