Todo en "regresión polinomial" para que la linealidad que importa es lineal. En la regresión lineal, el vector de mínimos cuadrados de los estimadores de $\widehat\alpha,\widehat\beta,\widehat\gamma,\ldots$ depende en forma lineal en el vector de variables de respuesta $y_1,y_2,y_3,\ldots,y_n$. Las variables de respuesta son, en efecto, tratados como al azar y las variables predictoras son, en efecto, consideran fijos, es decir, no al azar. Que puede dar sentido a pesar del hecho de que si se toma una nueva muestra, tanto las variables de respuesta y las variables predictoras de cambio. La razón para esto es que usted está interesado en la condicional de la distribución de la variable de respuesta dada a la variable predictora.
Así que decir que hemos
$$
y_i = \alpha_0 + \alpha_1 x_i + \alpha_2 x_i^2 + \mathrm{error}_i,
$$
Observamos la $x$s y $y$s y, a continuación, nos encontramos con el de mínimos cuadrados estimados $\widehat\alpha_0,\widehat\alpha_1,\widehat\alpha_2$. A continuación, tomamos una muestra con el mismo $x$s, pero en lugar de la $y$s tenemos $w_1,\ldots,w_n$, y se vuelve a encontrar de mínimos cuadrados estimados; les llamamos $\widehat\beta_0,\widehat\beta_1,\widehat\beta_2$. Ahora supongamos que en lugar de las variables de respuesta ponemos $y_1+w_1,\ldots,y_n+w_n$, y encontrar de nuevo el de mínimos cuadrados de los estimadores. ¿Qué obtenemos? La respuesta es solo $\widehat\alpha_0+\widehat\beta_0,\widehat\alpha_1+\widehat\beta_1,\widehat\alpha_2+\widehat\beta_2$. Esa es la linealidad. (Una propuesta similar se aplica a los múltiplos escalares.)
Queremos saber acerca de la distribución de probabilidad de los mínimos cuadrados estimados cuando conocemos la distribución de probabilidad conjunta de las $y$s. Linealidad hace más fácil.