1 votos

Estimador GLS con un número de predictores igual al número de observaciones

Supongamos un modelo lineal $$Y = X \beta + \epsilon \\ \epsilon \sim \mathbb{N}(0, \Omega), $$ donde $\Omega$ es una matriz de covarianza conocida. El estimador GLS para $\beta$ es bien conocida: $$\widehat{\beta}_{GLS} = (X^T \Omega^{-1} X)^{-1}X^T \Omega^{-1} y$$ Ahora bien, si suponemos además $X$ sea una matriz cuadrada y de rango completo, podemos deducir una fórmula actualizada para $\widehat{\beta}_{GLS}$ :

$$\widehat{\beta}_{GLS} = X^{-1} \Omega X^{-T}X^T \Omega^{-1} y = X^{-1}y$$

Y es sólo un estimador OLS que no toma de ninguna manera la covarianza conocida $\Omega$ en una cuenta.

Naturalmente, esperaría que $\widehat{\beta}_{GLS}$ para ser corregido por $\Omega$ ya que está "codificado" en la ecuación de un modelo lineal, pero en cambio, es lo mismo que $\widehat{\beta}_{OLS}$ los residuos producidos por este estimador son ceros. Podría argumentar que había un multiplicador paramétrico delante de la matriz de covarianza $\sigma^2 \Omega$ y luego concluir que $\sigma = 0$ pero, bueno, no hay ninguno. En cierto sentido, veo que podría estar bien, ya que los residuos están exactamente en la media de $\epsilon$ y por lo tanto la probabilidad es alta.

Sin embargo, creo que no entiendo bien la intuición que hay detrás y me parece que está "roto". ¿Hay algo que se pueda hacer al respecto?

0 votos

Hola: Si el número de predictores es igual al número de observaciones, entonces es como un sistema de ecuaciones en álgebra, así que no hay error. Se necesitan más observaciones que predictores para que haya error.

0 votos

Lo entiendo, lo que no veo es que a pesar de que impongo un término de error con matriz de covarianza estricta sigue siendo cero. El caso es que mi intuición me dice que $\Omega$ debe desempeñar un papel de regularización.

0 votos

Hola: Ahora, entiendo mejor lo que dices y es un tema interesante. Pero creo que yo lo vería de la siguiente manera: Sólo hay una solución por lo que, el valor de la matriz de covarianza es irrelevante en el problema. No importa lo pequeños o grandes que sean sus elementos, la solución es la misma y exacta. No puede actuar como un regularizador porque sólo hay una solución. Espero que otros puedan decir más, pero esa es mi opinión.

0voto

blue Puntos 227

Geo: Estuve pensando más en esto y creo que es así. Cuando el número de observaciones es mayor que el número de predictores, entonces tienes espacio para moverte cuando intentas proyectar la respuesta en el espacio base del $X$ matriz. La matriz de covarianza $\Omega$ ayuda a decidir hacia dónde moverse, ya que proporciona información sobre cómo se relacionan las variables de respuesta entre sí o cómo varían individualmente. Pero, de nuevo, en el caso de que los predictores sean iguales al número de observaciones, no hay espacio para moverse. De hecho, no hay nada que proyectar porque la respuesta ya está en el espacio base de la $X$ matriz. Entonces, la matriz de covarianza, $\Omega$ no es útil en este caso.

0 votos

Creo que esta es una buena explicación. Sólo un apunte (no relacionado realmente con tu respuesta): el comportamiento que esperaba inicialmente puede modelarse mediante la imposición de una prioridad de bayes en $X \beta$ , a saber $\mathbb{N}(y, \Omega)$ .

0 votos

Gracias Geo. ¿Dices que esto es así aunque el número de predictores sea igual al número de observaciones? Yo pensaría que no porque sigue habiendo una sola solución. Por supuesto, se agradecen las correcciones a mi falta de comprensión.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X