4 votos

MLE de la media de una serie temporal gaussiana heteroscedástica

Supongamos que observamos $Y_i\sim \mathcal{N}(\theta_0 + \theta_1 x_i, \sigma_i^2)$ con $x_i$ y $\sigma_i^2$ conocido por todos $i = 1,\ldots,n$ y $Y_1,\ldots,Y_n$ independiente. Supongamos que $\theta_0$ es desconocido y $\overline{x}=0.$

¿Cuál es la MLE de $\theta_1$ ? El hecho de que las desviaciones sean diferentes me despista. Al final me sale que debería maximizar $$\exp{\frac{\sum_i 2y_i(\theta_0 + \theta_1 x_i) - (\theta_0+\theta_1 x_i)^2}{2\sigma_i^2}}.$$ A partir de ahí estoy atascado porque tomar derivadas parciales no me da nada.

Merci !

1voto

Knox Puntos 1543

La función de probabilidad es

$$L(\theta_0, \theta_1) = \exp\left( -\sum_i \frac{(y_i - \theta_0 - \theta_1 x_i)^2}{2\sigma_i^2}\right)$$

y tomando las derivadas parciales se obtiene

$$\frac{\partial L}{\partial\theta_0} = \left(\sum_i \frac{y_i - \theta_0 - \theta_1 x_i}{\sigma_i^2} \right) L(\theta_0,\theta_1)$$

$$\frac{\partial L}{\partial\theta_1} = \left(\sum_i \frac{(y_i - \theta_0 - \theta_1 x_i)x_i}{\sigma_i^2} \right) L(\theta_0,\theta_1)$$

Poniendo ambos a cero, encontramos que debemos resolver

$$\theta_0 \sum_i \frac{1}{\sigma_i^2} + \theta_1 \sum_i \frac{x_i}{\sigma_i^2} = \sum_i \frac{y_i}{\sigma_i^2}$$

$$\theta_0 \sum_i \frac{x_i}{\sigma_i^2} + \theta_1 \sum_i \frac{x_i^2}{\sigma_i^2} = \sum_i \frac{x_iy_i}{\sigma_i^2}$$

lo que se hace fácilmente utilizando el álgebra lineal.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X