Quiero entender el ML de la Estimación de un modelo lineal, de arriba a abajo o viceversa ;-).
Estoy totalmente de obtener la parte de la formulación de la LogLikelihood función y cómo obtener los derivados de la beta y sigma...
Ahora tengo la fórmula para el beta=x'/XX'
Si yo produzco un simple conjunto de datos en R
:
x <- matrix(c(60, 50, 30, 120, 200, 70))
y <- matrix(c(8, 7, 5, 10, 11, 6))
Puedo obtener la pendiente de la beta 1 y la intersección beta0, a ser:
b1 <- (t(x)%*%y)/(t(x)%*%x)
b1
0.07239819
b0 <- y[1]-x[1]*b1
b0
3.656109
Si comparo que a la salida de la lm
en R
:
lm(y~x)
Coefficients:
(Intercept) x
4.89393 0.03328
Así que 1. ¿por qué hay una discrepancia? 2. El ajuste de lm
realmente es mejor si se visualiza en un gráfico.
Así que lo que soy yo no puedo llegar allí? Pensé en mi resultado no es el supuesto implícito en $y\sim N(\mu,1)$, mientras que en lm
el sigma se estima también. Pero no estoy seguro de si esto es cierto.
Por lo que he leído sobre el estado de Hesse matriz de var-cov de la matriz. No sé dónde ponerlos en este contexto...
Gracias Franz