13 votos

¿Por qué considera a una especie de regresión regresión polinomial?

¿Por qué considera a una especie de regresión regresión polinomial?

Esto es lo que quiero decir con regresión polinomial. Por ejemplo, la función de la hipótesis es

$$h(x; t_0, t_1, t_2) = t_0 + t_1 x + t_2 x^2 ,$$

y los puntos de muestra

$$ (x_1, y_1), (x_2, y_2), \ldots$$

17voto

JiminyCricket Puntos 143

Esta es una forma de regresión lineal porque toma la forma

$$h(x)=\sum_i t_if_i(x)\;,$$

que es una combinación lineal de funciones de $f_i(x)$ y es susceptible de una solución utilizando sólo de álgebra lineal. La no-linealidad de las funciones de $f_i(x)$ no complicar la solución; se entra sólo en el cálculo de los valores de $f_i(x_j)$, y entonces, todo es lineal en estos valores. Lo importante es que la función es lineal en los parámetros de $t_i$; de lo contrario, estos deben ser determinados por la optimización no lineal.

12voto

Michael Hardy Puntos 128804

Todo en "regresión polinomial" para que la linealidad que importa es lineal. En la regresión lineal, el vector de mínimos cuadrados de los estimadores de $\widehat\alpha,\widehat\beta,\widehat\gamma,\ldots$ depende en forma lineal en el vector de variables de respuesta $y_1,y_2,y_3,\ldots,y_n$. Las variables de respuesta son, en efecto, tratados como al azar y las variables predictoras son, en efecto, consideran fijos, es decir, no al azar. Que puede dar sentido a pesar del hecho de que si se toma una nueva muestra, tanto las variables de respuesta y las variables predictoras de cambio. La razón para esto es que usted está interesado en la condicional de la distribución de la variable de respuesta dada a la variable predictora.

Así que decir que hemos $$ y_i = \alpha_0 + \alpha_1 x_i + \alpha_2 x_i^2 + \mathrm{error}_i, $$ Observamos la $x$s y $y$s y, a continuación, nos encontramos con el de mínimos cuadrados estimados $\widehat\alpha_0,\widehat\alpha_1,\widehat\alpha_2$. A continuación, tomamos una muestra con el mismo $x$s, pero en lugar de la $y$s tenemos $w_1,\ldots,w_n$, y se vuelve a encontrar de mínimos cuadrados estimados; les llamamos $\widehat\beta_0,\widehat\beta_1,\widehat\beta_2$. Ahora supongamos que en lugar de las variables de respuesta ponemos $y_1+w_1,\ldots,y_n+w_n$, y encontrar de nuevo el de mínimos cuadrados de los estimadores. ¿Qué obtenemos? La respuesta es solo $\widehat\alpha_0+\widehat\beta_0,\widehat\alpha_1+\widehat\beta_1,\widehat\alpha_2+\widehat\beta_2$. Esa es la linealidad. (Una propuesta similar se aplica a los múltiplos escalares.)

Queremos saber acerca de la distribución de probabilidad de los mínimos cuadrados estimados cuando conocemos la distribución de probabilidad conjunta de las $y$s. Linealidad hace más fácil.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X