3 votos

Demuestra que $\hat{β}_1 = \dfrac{\sum_{i=1}^nx_iy_i}{\sum_{i=1}^nx_i^2}$ bajo el criterio de optimalidad de mínimos cuadrados.

Tengo que demostrar que $\hat{}_1 = \dfrac{\sum_{i=1}^nx_iy_i}{\sum_{i=1}^nx_i^2}$ . No he visto esto como una definición para $\hat{}_1$ antes y estoy teniendo problemas incluso para empezar esta prueba, pero debe tener algo que ver con las ecuaciones normales de mínimos cuadrados y los estimadores de mínimos cuadrados.

¿Alguna idea?

2voto

BruceET Puntos 7117

Denote los datos por $(X_i, Y_i),$ para $i = 1, 2, \dots, n.$ La línea de mínimos cuadrados es $\hat Y = \hat\beta_0 + \hat\beta_1 X_i.$ Hay que minimizar $Q = \sum_i(Y_i - \hat Y_i)^2.$

Para ello, se debe establecer la derivada parcial de $Q$ con respecto a $\hat \beta_1$ igual a $0.$ y resolver para $\hat \beta_1$ en términos de $X_i$ y $Y_i.$ Eso es: $\frac{\partial Q}{\partial \hat \beta_1} = 0.$

Por favor, compruebe cuidadosamente el contexto de este ejercicio. Puede ser que su texto haya definido $x_i = (X_i - \bar X)$ y $y_i = (Y_i - \bar Y).$ Esta convención es especialmente común en el Reino Unido, Australia y Nueva Zelanda.

Notas: Cuando encontrar $\frac{\partial Q}{\partial \hat \beta_1}\!:\,$ (1) Los datos $X_i$ y $Y_i$ se tratan como constantes . (2) $\hat \beta_0$ también se trata como una constante. Estos comentarios son obvios, pero en mi experiencia olvidar temporalmente (1) o (2) supone la mayoría de los errores en el procedimiento de minimización.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X