Estoy tratando de resolver el siguiente problema.
Si $y | \beta \sim N(X \beta, I_n)$ y $\beta \sim N(0, g^{-1}(X^t X)^{-1})$ para $g>0$ . Encuentre $ \pi(\beta|y)$ y demostrar que $E(\beta|y)$ es una función de MLE de $\beta$ .
Mi enfoque,
Demostré que maximizar la probabilidad, es equivalente a minimizar el SSE, por lo que el OLS es igual al MLE.
Sé que lo normal es el previo conjugado. Así que, $$\pi(\beta|y)= \frac{f(y|\beta)\pi(\beta)}{m(y)} \propto f(y|\beta)\pi(\beta) $$
$$ \pi(\beta|y) \propto \exp\{ - \frac{1}{2}(y-X\beta)^t (y-X\beta) - \frac{1}{2}\beta^t(g^{-1}(X^tX)^{-1})^{-1}\beta \} $$ $$ = \exp\{ - \frac{1}{2}( y^t y -2y^tX \beta+(1+g)\beta^t(X^tX)\beta ) \}$$ y me quedo atascado. He leído sobre g-priors y creo que el a posterior es $N(\frac{1}{1+g}\hat{\beta}, \frac{1}{1+g} (X^t X)^{-1})$ pero no estoy seguro.