Me parece que varias de estas respuestas no entienden nada. La respuesta de Haitao aborda la computacional problemas con el ajuste de polinomios crudos, pero está claro que el OP está preguntando por el estadística diferencias entre los dos enfoques. Es decir, si tuviéramos un ordenador perfecto que pudiera representar todos los valores con exactitud, ¿por qué preferiríamos un enfoque sobre el otro?
El usuario5957401 argumenta que los polinomios ortogonales reducen la colinealidad entre las funciones polinómicas, lo que hace que su estimación sea más estable. Estoy de acuerdo con la crítica de Jake Westfall; los coeficientes de los polinomios ortogonales representan cantidades completamente diferentes de los coeficientes de los polinomios brutos. La función dosis-respuesta implícita en el modelo, $R^2$ El valor de la predicción, el MSE, los valores predichos y los errores estándar de los valores predichos serán idénticos independientemente de si se utilizan polinomios ortogonales o crudos. El coeficiente de $X$ en una regresión polinómica bruta de orden 2 tiene la interpretación de "el cambio instantáneo en $Y$ cuando $X=0$ ." Si se realizó un procedimiento de efectos marginales en el polinomio ortogonal donde $X=0$ se obtendría exactamente la misma pendiente y el mismo error estándar, aunque el coeficiente y el error estándar del término de primer orden en la regresión polinómica ortogonal sean completamente diferentes de su valor en la regresión polinómica bruta. Es decir, cuando se trata de obtener las mismas cantidades de ambas regresiones (es decir, cantidades que pueden interpretarse de la misma manera), las estimaciones y los errores estándar serán idénticos. Utilizar polinomios ortogonales no significa que mágicamente se tenga más certeza de la pendiente de $X$ en un punto determinado. La estabilidad de los modelos es idéntica. Véase a continuación:
data("iris")
#Raw:
fit.raw <- lm(Petal.Length ~ Petal.Width + I(Petal.Width^2) +
I(Petal.Width^3), data = iris)
summary(fit.raw)
#> Coefficients:
#> Estimate Std. Error t value Pr(>|t|)
#> (Intercept) 1.1034 0.1304 8.464 2.50e-14 ***
#> Petal.Width 1.1527 0.5836 1.975 0.05013 .
#> I(Petal.Width^2) 1.7100 0.5487 3.116 0.00221 **
#> I(Petal.Width^3) -0.5788 0.1408 -4.110 6.57e-05 ***
#> ---
#> Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
#>
#> Residual standard error: 0.3898 on 146 degrees of freedom
#> Multiple R-squared: 0.9522, Adjusted R-squared: 0.9512
#> F-statistic: 969.9 on 3 and 146 DF, p-value: < 2.2e-16
#Orthogonal
fit.orth <- lm(Petal.Length ~ stats::poly(Petal.Width, 3), data = iris)
#Marginal effect of X at X=0 from orthogonal model
library(margins)
summary(margins(fit.orth, variables = "Petal.Width",
at = data.frame(Petal.Width = 0)))
#> Warning in check_values(data, at): A 'at' value for 'Petal.Width' is
#> outside observed data range (0.1,2.5)!
#> factor Petal.Width AME SE z p lower upper
#> Petal.Width 0.0000 1.1527 0.5836 1.9752 0.0482 0.0089 2.2965
Creado el 2019-10-25 por el paquete reprex (v0.3.0)
El efecto marginal de Petal.Width
a 0 del ajuste ortogonal y su error estándar son exactamente iguales a los del ajuste polinómico bruto (es decir, 1.1527
. El uso de polinomios ortogonales no mejora la precisión de las estimaciones de la misma cantidad entre los dos modelos.
La clave es la siguiente: el uso de polinomios ortogonales permite aislar la contribución de cada término a la explicación de la varianza en el resultado, por ejemplo, medida por la correlación semiparcial al cuadrado. Si se ajusta un polinomio ortogonal de orden 3, la correlación semiparcial al cuadrado de cada término representa la varianza del resultado explicada por ese término en el modelo. Por lo tanto, si quiere responder a la pregunta "¿Qué parte de la varianza en $Y$ se explica la componente lineal de $X$ ?" se podría ajustar una regresión polinómica ortogonal, y la correlación semiparcial al cuadrado en el término lineal representaría esta cantidad. Esto no es así con los polinomios brutos. Si se ajusta un modelo polinómico bruto del mismo orden, la correlación parcial al cuadrado en el término lineal no representa la proporción de la varianza en $Y$ explicada por el componente lineal de $X$ . Véase más abajo.
library(jtools)
data("iris")
fit.raw3 <- lm(Petal.Length ~ Petal.Width + I(Petal.Width^2) +
I(Petal.Width^3), data = iris)
fit.raw1 <- lm(Petal.Length ~ Petal.Width, data = iris)
round(summ(fit.raw3, part.corr = T)$coef, 3)
#> Est. S.E. t val. p partial.r part.r
#> (Intercept) 1.103 0.130 8.464 0.000 NA NA
#> Petal.Width 1.153 0.584 1.975 0.050 0.161 0.036
#> I(Petal.Width^2) 1.710 0.549 3.116 0.002 0.250 0.056
#> I(Petal.Width^3) -0.579 0.141 -4.110 0.000 -0.322 -0.074
round(summ(fit.raw1, part.corr = T)$coef, 3)
#> Est. S.E. t val. p partial.r part.r
#> (Intercept) 1.084 0.073 14.850 0 NA NA
#> Petal.Width 2.230 0.051 43.387 0 0.963 0.963
fit.orth3 <- lm(Petal.Length ~ stats::poly(Petal.Width, 3),
data = iris)
fit.orth1 <- lm(Petal.Length ~ stats::poly(Petal.Width, 3)[,1],
data = iris)
round(summ(fit.orth3, part.corr = T)$coef, 3)
#> Est. S.E. t val. p partial.r part.r
#> (Intercept) 3.758 0.032 118.071 0 NA NA
#> stats::poly(Petal.Width, 3)1 20.748 0.390 53.225 0 0.975 0.963
#> stats::poly(Petal.Width, 3)2 -3.015 0.390 -7.735 0 -0.539 -0.140
#> stats::poly(Petal.Width, 3)3 -1.602 0.390 -4.110 0 -0.322 -0.074
round(summ(fit.orth1, part.corr = T)$coef, 3)
#> Est. S.E. t val. p partial.r part.r
#> (Intercept) 3.758 0.039 96.247 0 NA NA
#> stats::poly(Petal.Width, 3)[, 1] 20.748 0.478 43.387 0 0.963 0.963
Creado el 2019-10-25 por el paquete reprex (v0.3.0)
Las correlaciones semiparciales al cuadrado para los polinomios brutos cuando se ajusta el polinomio de orden 3 son $0.001$ , $0.003$ y $0.005$ . Cuando sólo se ajusta el término lineal, la correlación semiparcial al cuadrado es $0.927$ . Las correlaciones semiparciales al cuadrado para los polinomios ortogonales cuando se ajusta el polinomio de orden 3 son $0.927$ , $0.020$ y $0.005$ . Cuando sólo se ajusta el término lineal, la correlación semiparcial al cuadrado sigue siendo $0.927$ . A partir del modelo polinómico ortogonal, pero no del modelo polinómico en bruto, sabemos que la mayor parte de la varianza explicada en el resultado se debe al término lineal, con muy poco procedente del término cuadrado y aún menos del término cúbico. Los valores polinómicos brutos no cuentan esa historia.
Ahora bien, si quiere este beneficio interpretativo sobre el beneficio interpretativo de poder entender realmente los coeficientes del modelo, entonces debe utilizar polinomios ortogonales. Si prefiere mirar los coeficientes y saber exactamente lo que significan (aunque dudo que uno lo haga típicamente), entonces debería usar los polinomios brutos. Si no le importa (es decir, sólo quiere controlar la confusión o generar valores predichos), entonces realmente no importa; ambas formas llevan la misma información con respecto a esos objetivos. También diría que los polinomios ortogonales deberían ser preferidos en la regularización (por ejemplo, el lazo), porque la eliminación de los términos de orden superior no afecta a los coeficientes de los términos de orden inferior, lo que no es cierto con los polinomios crudos, y las técnicas de regularización a menudo se preocupan por el tamaño de cada coeficiente.