8 votos

Comparando coeficientes de regresión dependientes de modelos con diferentes variables dependientes

Estoy buscando comparar los coeficientes de regresión entre dos modelos de regresión. Cada modelo tiene las mismas cuatro variables independientes: dos predictores de interés (los llamaremos A y B) y dos variables de control (C y D). La única diferencia entre los dos modelos es que tienen diferentes variables dependientes: el primer modelo está prediciendo DV1, mientras que el segundo modelo está prediciendo DV2. Todas las observaciones son de la misma muestra, por lo que los coeficientes de regresión son dependientes.

Creo que tanto A como B predicirán con más fuerza DV1 que DV2. En otras palabras, el coeficiente de regresión para A prediciendo DV1 (controlando por B, C y D) debería ser mayor en magnitud que el coeficiente de regresión para A prediciendo DV2 (controlando por B, C y D). De manera similar, el coeficiente de regresión para B prediciendo DV1 (controlando por A, C y D) debería ser mayor en magnitud que el coeficiente de regresión para B prediciendo DV2 (controlando por A, C y D).

Básicamente, quiero probar la diferencia entre dos coeficientes de regresión dependientes de dos modelos que comparten todas las mismas VI, pero tienen diferentes VD. ¿Existe una prueba de significancia formal que pueda utilizar?

0 votos

Si las unidades son diferentes, también podrías considerar normalizar tus datos para que estén en unidades de desviación estándar.

7voto

Bill Puntos 3605

La herramienta que desea se llama regresión aparentemente no relacionada (SUR). SUR es una forma de estimar más de una ecuación de regresión en los mismos datos al mismo tiempo. Obviamente, una cosa que puedes hacer es simplemente correr las dos regresiones por separado. ¿Qué estaría mal con eso? Vamos a escribir tu modelo como: \begin{align} DV_{1i} &= \beta_1 + \beta_2 A_i + \beta_3 B_i + \beta_4 C_i + \beta_5 D_i + \epsilon_i \\~\\ DV_{2i} &=\alpha_1 +\alpha_2 A_i +\alpha_3 B_i +\alpha_4 C_i +\alpha_5 D_i + \delta_i \\ \end{align}

Parece que estás interesado en probar hipótesis como $H_0:\beta_2=\alpha_2$. Una forma típica de probar una hipótesis como esta es mirar si un t-estadístico es mayor a 2 en valor absoluto: \begin{align} t-stat &= \frac{\hat{\beta}_2-\hat{\alpha}_2}{\sqrt{V(\hat{\beta}_2-\hat{\alpha}_2)}}\\ \strut\\ V(\hat{\beta}_2-\hat{\alpha}_2) &= V(\hat{\beta}_2)+V(\hat{\alpha}_2)-2Cov(\hat{\beta}_2,\hat{\alpha}_2) \end{align}

Cuando ejecutas los dos modelos por separado, puedes leer las estimaciones de $\sqrt{V(\hat{\beta}_2)}$ y $\sqrt{V(\hat{\alpha}_2)}$ en la salida de la regresión---los errores estándar de las estimaciones de los coeficientes. ¿Pero qué haces para obtener la covarianza? A veces puede ser razonable asumir que esta covarianza es cero, pero no a menudo. SUR calculará esta covarianza por ti, haciendo posible el cálculo del t-estadístico.

En R, creo que quieres systemfit, y en Stata definitivamente quieres sureg.

1 votos

(+1) ¿Habría alguna ventaja en el uso de regresión multivariada (como mvreg de Stata) dado que las variables del lado derecho son todas las mismas? Creo que debería ser un poco más rápido. Además, sureg lleva a cabo una prueba basada en $\chi^2$, mientras que mvreg realiza una prueba F en este caso.

0 votos

@DimitriyV.Masterov No sabía acerca de mvreg. Sí, probablemente sea más rápido ya que "sabe" que las variables de RHS son todas iguales.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X