69 votos

¿Cómo se relaciona exactamente un "modelo de efectos aleatorios" en econometría con los modelos mixtos fuera de la econometría?

Solía pensar que el "modelo de efectos aleatorios" en econometría corresponde a un "modelo mixto con intercepción aleatoria" fuera de la econometría, pero ahora no estoy seguro. ¿Es así?

La econometría utiliza términos como "efectos fijos" y "efectos aleatorios" de forma algo diferente a la literatura sobre modelos mixtos, lo que provoca una notoria confusión. Consideremos una situación sencilla en la que $y$ depende linealmente de $x$ pero con un intercepto diferente en distintos grupos de mediciones:

$$y_{it} = \beta x_{it} + u_i + \epsilon_{it}.$$

Aquí cada unidad/grupo $i$ se observa en diferentes momentos $t$ . Los economistas lo llaman "datos de panel".

  • En la terminología de los modelos mixtos, podemos tratar $u_i$ como efecto fijo o como efecto aleatorio (en este caso, es el intercepto aleatorio). Tratarlo como fijo significa ajustar $\hat \beta$ et $\hat u_i$ para minimizar el error al cuadrado (es decir, ejecutar la regresión OLS con variables ficticias de grupo). Tratarlo como aleatorio significa que asumimos adicionalmente que $u_i\sim\mathcal N(u_0,\sigma^2_u)$ y utilizar la máxima verosimilitud para ajustar $u_0$ et $\sigma^2_u$ en lugar de ajustar cada $u_i$ por su cuenta. Esto da lugar al efecto de "agrupación parcial", en el que las estimaciones $\hat u_i$ se encogen hacia su media $\hat u_0$ .

    R formula when treating group as fixed:    y ~ x + group
    R formula when treating group as random:   y ~ x + (1|group)
  • En la terminología econométrica, podemos tratar todo este modelo como un modelo de efectos fijos o como un modelo de efectos aleatorios. La primera opción es equivalente al efecto fijo anterior (pero la econometría tiene su propia forma de estimar $\beta$ en este caso, llamado "within" estimator ). Solía pensar que la segunda opción es equivalente al efecto aleatorio anterior; por ejemplo, @JiebiaoWang en su respuesta altamente votada a ¿Cuál es la diferencia entre el modelo de efectos aleatorios, el de efectos fijos y el marginal? dice que

    En econometría, el modelo de efectos aleatorios puede referirse únicamente al modelo de intercepción aleatoria como en bioestadística

Bien, probemos si esta interpretación es correcta. Aquí hay algunos datos aleatorios generados por @ChristophHanck en su respuesta a ¿Cuál es la diferencia entre los modelos de efecto fijo, efecto aleatorio y efecto mixto? (Pongo los datos aquí en pastebin para los que no utilizan R):

enter image description here

@Christoph hace dos ajustes utilizando enfoques econométricos:

fe <- plm(stackY~stackX, data = paneldata, model = "within")
re <- plm(stackY~stackX, data = paneldata, model = "random")

El primero de ellos produce una estimación de beta igual a -1.0451 El segundo 0.77031 (¡sí, positivo!). He intentado reproducirlo con lm et lmer :

l1 = lm(stackY ~ stackX + as.factor(unit), data = paneldata)
l2 = lmer(stackY ~ stackX + (1|as.factor(unit)), data = paneldata)

El primero produce -1.045 en perfecto acuerdo con el estimador interno anterior. Genial. Pero el segundo da como resultado -1.026 que está muy lejos del estimador de efectos aleatorios. ¿Eh? ¿Qué es lo que ocurre? De hecho, ¿qué es plm incluso haciendo cuando se llama con model = "random" ?

Sea lo que sea que esté haciendo, ¿se puede entender de alguna manera a través de la perspectiva de los modelos mixtos?

¿Y cuál es la intuición detrás de lo que está haciendo? He leído en un par de sitios de econometría que el estimador de efectos aleatorios es una media ponderada entre el estimador de efectos fijos y el "between" estimator que es más o menos la pendiente de la regresión si no incluimos la identidad del grupo en el modelo en absoluto (esta estimación es fuertemente positiva en este caso, alrededor de 4 .) Por ejemplo, @Andy escribe aquí :

El estimador de efectos aleatorios utiliza entonces una media ponderada matricial de la variación interna y entre los datos. [...] Esto hace que los efectos aleatorios sean más eficientes[.]

¿Por qué? ¿Por qué queremos esta media ponderada? Y en particular, ¿por qué lo queremos en lugar de ejecutar un modelo mixto?

26voto

Randel Puntos 3040

Resumen: el "modelo de efectos aleatorios" en econometría y un "modelo mixto de intercepción aleatoria" son, de hecho, los mismos modelos, pero se estiman de formas diferentes. La forma de la econometría es utilizar la FGLS, y la forma del modelo mixto es utilizar el ML. Hay diferentes algoritmos para hacer FGLS, y algunos de ellos (en este conjunto de datos) producen resultados muy cercanos a ML.


1. Diferencias entre los métodos de estimación en plm

Responderé con mis pruebas sobre plm(..., model = "random") et lmer() utilizando los datos generados por @ChristophHanck.

Según el manual del paquete plm Hay cuatro opciones para random.method : el método de estimación de los componentes de la varianza en el modelo de efectos aleatorios. @amoeba utilizó el que viene por defecto swar (Swamy y Arora, 1972).

Para los modelos de efectos aleatorios, cuatro estimadores de la transformación están disponibles estableciendo random.method a uno de "swar" (Swamy y Arora (1972)) (por defecto), "amemiya" (Amemiya (1971)) "walhus" (Wallace y Hussain (1969)), o "nerlove" (Nerlove (1971)).

He probado las cuatro opciones utilizando los mismos datos, obteniendo un error para amemiya y tres estimaciones de coeficientes totalmente diferentes para la variable stackX . Los de usar random.method='nerlove' y "amemiya" son casi equivalentes a la de lmer() , -1,029 y -1,025 frente a -1,026. Tampoco son muy diferentes del obtenido en el modelo de "efectos fijos", -1,045.

# "amemiya" only works using the most recent version:
# install.packages("plm", repos="http://R-Forge.R-project.org")

re0 <- plm(stackY~stackX, data = paneldata, model = "random") #random.method='swar'
re1 <- plm(stackY~stackX, data = paneldata, model = "random",  random.method='amemiya')
re2 <- plm(stackY~stackX, data = paneldata, model = "random",  random.method='walhus')
re3 <- plm(stackY~stackX, data = paneldata, model = "random",  random.method='nerlove')
l2  <- lmer(stackY~stackX+(1|as.factor(unit)), data = paneldata)

coef(re0)     #    (Intercept)   stackX    18.3458553   0.7703073 
coef(re1)     #    (Intercept)   stackX    30.217721   -1.025186 
coef(re2)     #    (Intercept)   stackX    -1.15584     3.71973 
coef(re3)     #    (Intercept)   stackX    30.243678   -1.029111 
fixef(l2)     #    (Intercept)   stackX    30.226295   -1.026482 

Lamentablemente no tengo tiempo ahora, pero los lectores interesados pueden encontrar las cuatro referencias, para comprobar sus procedimientos de estimación. Sería muy útil averiguar por qué hay tanta diferencia. Supongo que, en algunos casos, el plm procedimiento de estimación mediante el lm() sobre datos transformados debería ser equivalente al procedimiento de máxima verosimilitud utilizado en lmer() .

2. Comparación entre GLS y ML

Los autores de plm paquete sí comparó los dos en la sección 7 de su documento: Yves Croissant y Giovanni Millo, 2008, Panel Data Econometrics in R: El paquete plm .

La econometría se ocupa principalmente de los datos no experimentales. Se hace gran hincapié en los procedimientos de especificación y en la comprobación de errores de especificación. Por lo tanto, las especificaciones de los modelos tienden a ser muy simples, mientras que se presta gran atención a las cuestiones de endogeneidad de los regresores, las estructuras de dependencia en los errores y la robustez de los mismos. de los regresores, las estructuras de dependencia en los errores y la robustez de los estimadores en caso de desviaciones de la normalidad. El enfoque preferido suele ser semiparamétrico o no paramétrico, y las técnicas coherentes con la heteroscedasticidad se están convirtiendo en una práctica habitual tanto en la estimación como en las pruebas.

Por todas estas razones, [...] la estimación de modelos de panel en econometría se se realiza en el marco de los mínimos cuadrados generalizados basados en el Teorema de Aitken [...]. Por el contrario, los modelos de datos longitudinales de datos longitudinales en nlme et lme4 se estiman por máxima verosimilitud (restringida o no restringida). [...]

El enfoque econométrico de GLS tiene soluciones analíticas de forma cerrada que se pueden calcular mediante álgebra lineal estándar y, aunque esta última a veces puede resultar pesada desde el punto de vista informático en máquina, las expresiones de los estimadores suelen ser bastante sencillas. La estimación ML de longitudinal, por el contrario, se basa en la optimización numérica de funciones no lineales sin soluciones de forma cerrada y, por tanto, depende de aproximaciones y criterios de convergencia. de los criterios de convergencia.


3. Actualización de los modelos mixtos

Aprecio que @ChristophHanck haya proporcionado una introducción completa sobre los cuatro random.method utilizado en plm y explicó por qué sus estimaciones son tan diferentes. Como pidió @amoeba, añadiré algunas reflexiones sobre los modelos mixtos (basados en la verosimilitud) y su conexión con GLS.

El método basado en la verosimilitud suele asumir una distribución tanto para el efecto aleatorio como para el término de error. Se suele utilizar un supuesto de distribución normal, pero también hay algunos estudios que asumen una distribución no normal. Seguiré las anotaciones de @ChristophHanck para un modelo de intercepción aleatoria, y permitiré datos no equilibrados, es decir, dejaré que $T=n_i$ .

El modelo es \begin{equation} y_{it}= \boldsymbol x_{it}^{'}\boldsymbol\beta + \eta_i + \epsilon_{it}\qquad i=1,\ldots,m,\quad t=1,\ldots,n_i \end{equation} con $\eta_i \sim N(0,\sigma^2_\eta), \epsilon_{it} \sim N(0,\sigma^2_\epsilon)$ .

Para cada $i$ , $$\boldsymbol y_i \sim N(\boldsymbol X_{i}\boldsymbol\beta, \boldsymbol\Sigma_i), \qquad\boldsymbol\Sigma_i = \sigma^2_\eta \boldsymbol 1_{n_i} \boldsymbol 1_{n_i}^{'} + \sigma^2_\epsilon \boldsymbol I_{n_i}.$$ Por tanto, la función de probabilidad logarítmica es $$const -\frac{1}{2} \sum_i\mathrm{log}|\boldsymbol\Sigma_i| - \frac{1}{2} \sum_i(\boldsymbol y_i - \boldsymbol X_{i}\boldsymbol\beta)^{'}\boldsymbol\Sigma_i^{-1}(\boldsymbol y_i - \boldsymbol X_{i}\boldsymbol\beta).$$

Cuando se conocen todas las varianzas, como se muestra en Laird y Ware (1982), el MLE es $$\hat{\boldsymbol\beta} = \left(\sum_i\boldsymbol X_i^{'} \boldsymbol\Sigma_i^{-1} \boldsymbol X_i \right)^{-1} \left(\sum_i \boldsymbol X_i^{'} \boldsymbol\Sigma_i^{-1} \boldsymbol y_i \right),$$ que es equivalente al GLS $\hat\beta_{RE}$ derivado por @ChristophHanck. Así que la diferencia clave está en la estimación de las varianzas. Dado que no hay una solución de forma cerrada, hay varios enfoques:

  • maximización directa de la función log-verosimilitud mediante algoritmos de optimización;
  • Algoritmo de maximización de expectativas (EM): existen soluciones de forma cerrada, pero el estimador de $\boldsymbol \beta$ implica estimaciones empíricas bayesianas del intercepto aleatorio;
  • una combinación de los dos anteriores, el algoritmo de maximización de expectativas/condiciones (ECME) (Schafer, 1998; paquete R lmm ). Con una parametrización diferente, las soluciones de forma cerrada para $\boldsymbol \beta$ (como arriba) y $\sigma^2_\epsilon$ existe. La solución para $\sigma^2_\epsilon$ puede escribirse como $$\sigma^2_\epsilon = \frac{1}{\sum_i n_i}\sum_i(\boldsymbol y_i - \boldsymbol X_{i} \hat{\boldsymbol\beta})^{'}(\hat\xi \boldsymbol 1_{n_i} \boldsymbol 1_{n_i}^{'} + \boldsymbol I_{n_i})^{-1}(\boldsymbol y_i - \boldsymbol X_{i} \hat{\boldsymbol\beta}),$$ où $\xi$ se define como $\sigma^2_\eta/\sigma^2_\epsilon$ y se puede estimar en un marco EM.

En resumen, el MLE tiene supuestos de distribución, y se estima en un algoritmo iterativo. La diferencia clave entre MLE y GLS está en la estimación de las varianzas.

Croissant y Millo (2008) señalaron que

Mientras que en condiciones de normalidad, homocedasticidad y ausencia de correlación serial de los errores, los MCO son también el estimador de máxima verosimilitud, en todos los demás casos existen importantes diferencias.

En mi opinión, para el supuesto de la distribución, al igual que la diferencia entre los enfoques paramétricos y no paramétricos, el MLE sería más eficiente cuando se cumple el supuesto, mientras que el GLS sería más robusto.

25voto

Martin Robins Puntos 1893

Esta respuesta no comenta los modelos mixtos, pero puedo explicar lo que hace el estimador de efectos aleatorios y por qué se estropea en ese gráfico.

Resumen: el estimador de efectos aleatorios asume $E[u_i \mid x ] = 0$ , lo que no es cierto en este ejemplo.


¿Qué hace el estimador de efectos aleatorios?

Supongamos que tenemos el modelo:

$$ y_{it} = \beta x_{it} + u_i + \epsilon_{it}$$

Tenemos dos dimensiones de variación: grupos $i$ y el tiempo $t$ . Para estimar $\beta$ podríamos:

  1. Utilizar sólo la variación de las series temporales en un grupo. Esto es lo que hace el estimador de efectos fijos (y por eso también suele llamarse estimador interno).
  2. Si $u_i$ es aleatoria, podríamos utilizar sólo la variación transversal entre las medias de las series temporales de los grupos. Esto se conoce como entre estimador.

    En concreto, para cada grupo $i$ , tomar la media a lo largo del tiempo del modelo de datos de panel anterior para obtener:

    $$ \bar{y}_{i} = \beta \bar{x}_{i} + v_i \quad \quad \text{ where } v_i = u_i + \bar{\epsilon}_i$$

    Si ejecutamos esta regresión, obtenemos el estimador entre. Obsérvese que es un estimador consistente si los efectos $u_i$ son ruido blanco aleatorio, no correlacionado con $x$ ¡! Si este es el caso, entonces descartar completamente la variación entre grupos (como hacemos con el estimador de efectos fijos) es ineficiente.

El estimador de efectos aleatorios de la econometría combina el (1) estimador interno (es decir, el estimador de efectos fijos) y (2) el estimador intermedio de forma que se maximice la eficiencia. Es una aplicación de mínimos cuadrados generalizados y la idea básica es ponderación de la varianza inversa . Para maximizar la eficiencia, el estimador de efectos aleatorios calcula $\hat \beta$ como una media ponderada del estimador interno y del estimador intermedio.

Lo que sucede en ese gráfico...

Sólo con mirar ese gráfico, se puede ver claramente lo que está pasando:

  • Dentro de cada grupo $i$ (es decir, puntos del mismo color), una mayor $x_{it}$ se asocia a una menor $y_{it}$
  • Un grupo $i$ con una mayor $\bar{x}_i$ tiene una mayor $u_i$ .

El supuesto de efectos aleatorios que $E[u_i \mid x ] = 0$ claramente no se satisface. Los efectos de grupo $u_i$ no son ortogonales a $x$ (en sentido estadístico), sino que los efectos de grupo tienen una clara relación positiva con $x$ .

El estimador entre asume $E[u_i \mid x ] = 0$ . El entre estimador dice, "claro que puedo imponer $E[u_i \mid x ] = 0$ haciendo $\hat \beta$ positivo".

Entonces, a su vez, el estimador de efectos aleatorios está desactivado porque es una media ponderada del estimador interno y del estimador intermedio.

21voto

Christoph Hanck Puntos 4143

En esta respuesta, me gustaría profundizar un poco en la respuesta +1 de Matthew sobre la perspectiva de GLS en lo que la literatura econométrica llama el estimador de efectos aleatorios.

Perspectiva de GLS

Considere el modelo lineal \begin{equation} y_{it}=\alpha + X_{it}\beta+u_{it}\qquad i=1,\ldots,m,\quad t=1,\ldots,T \end{equation} Si sostuviera que $E(u_{it}\vert X_{it})=0$ podríamos simplemente estimar el modelo mediante OLS agrupado lo que equivale a ignorar la estructura de datos del panel y simplemente agrupar todos los $n=mT$ observaciones en conjunto.

Modelamos el $u_{it}$ utilizando el modelo de componente de error \begin{equation} u_{it}=\eta_i+\epsilon_{it} \end{equation}

En notación matricial, el modelo puede escribirse como \begin{equation} y=\alpha \iota_{mT}+X\beta+D\eta+\epsilon \end{equation} donde $y$ et $\epsilon$ son $n$ -vectores con elementos típicos $y_{it}$ et $\epsilon_{it}$ y $D$ es un $n \times m$ (una columna por unidad) matriz de variables ficticias. $D$ es tal que si una fila corresponde a una observación perteneciente a la unidad $i$ entonces $D$ tiene un uno en la columna $i$ y 0 si no, $i=1,\ldots,m$ .

Además, suponemos que $$ E(\epsilon\epsilon^\prime)=\sigma_\epsilon^2I $$

Los efectos específicos del individuo $\eta$ debe ser independiente del $\epsilon_{it}$ . Sin embargo, el estimador de efectos aleatorios, a diferencia del de efectos fijos (de nuevo, terminología econométrica), requiere además el supuesto más fuerte de que \begin{equation} E(\eta_i\vert X)=0 \end{equation} Bajo este supuesto, los OLS agrupados serían insesgados, pero podemos derivar un estimador GLS. Supongamos que el $\eta_i$ son IID con media cero y varianza $\sigma^2_\eta$ .

Esta suposición explica el término efectos aleatorios . Suponiendo, además, que los dos componentes del error son independientes, es fácil ver que \begin{align*} \operatorname{Var}(u_{it})&=\sigma^2_\eta+\sigma^2_\epsilon\\ \operatorname{Cov}(u_{it},u_{is})&=\sigma^2_\eta\\ \operatorname{Cov}(u_{it},u_{js})&=0\qquad\text{for all } i\neq j \end{align*}

A continuación, obtenemos lo siguiente $n\times n$ matriz de varianza-covarianza $\Omega$ : $$ \Omega= \begin{pmatrix} \Sigma&O&\cdots&O\\ O&\Sigma&\cdots&O\\ \vdots&\vdots&&\vdots\\ O&O&\cdots&\Sigma \end{pmatrix} $$ Aquí, $$ \Sigma=\sigma^2_\eta \iota\iota^\prime+\sigma^2_\epsilon I_T $$ con $\iota$ a $T$ -vector de unos. Por lo tanto, podemos escribir $$ \Omega=\sigma^2_\eta (I_m\otimes\iota\iota^\prime)+\sigma^2_\epsilon (I_m\otimes I_T) $$ Para el estimador GLS $$ \hat\beta_{RE}=(X'\Omega^{-1}X)^{-1}X'\Omega^{-1}y $$ requerimos $\Omega^{-1}$ . Para ello, dejemos que $J_T=\iota\iota^\prime$ , $\bar J_T=J_T/T$ et $E_T=I_T-\bar J_T$ . Entonces, escribe $$ \Omega=T\sigma^2_\eta (I_m\otimes\bar J_T)+\sigma^2_\epsilon (I_m\otimes E_T)+\sigma^2_\epsilon (I_m\otimes \bar J_T) $$ o bien, la recopilación de términos con las mismas matrices, $$ \Omega=(T\sigma^2_\eta+\sigma^2_\epsilon) (I_m\otimes\bar J_T)+\sigma^2_\epsilon (I_m\otimes E_T) $$ Idempotencia de $P=I_m\otimes\bar J_T$ et $Q=I_m\otimes E_T$ entonces nos permite demostrar que $$\Omega^{-1}=\frac{1}{\sigma^2_1}P+\frac{1}{\sigma^2_\epsilon}Q= -\frac{\sigma^2_\eta}{\sigma^2_1\sigma^2_\epsilon}(I_m\otimes\iota\iota^\prime) + \frac{1}{\sigma^2_\epsilon}(I_m\otimes I_T),$$ donde $\sigma^2_1=T\sigma^2_\eta+\sigma^2_\epsilon$ .

La lógica de Gauss-Markov explica entonces por qué el estimador de efectos aleatorios puede ser útil, ya que es un estimador más eficiente que los MCO agrupados o los efectos fijos bajo los supuestos dados (siempre y cuando, lo cual es un gran "si" en muchas aplicaciones de datos de panel, que el $\eta_i$ no están correlacionados con los regresores). En resumen, el GLS es más eficiente porque la matriz de covarianza del error no es homocedástica en este modelo.

Se puede demostrar que la estimación GLS se puede obtener ejecutando OLS en los datos parcialmente degradados: $$(y_{it}-\theta \bar y_{i\cdot}) = (X_{it} - \theta \bar X_{i\cdot})\beta + (u_{it} - \theta u_{i\cdot}),$$ donde $\theta = 1-\sigma_\eta/\sigma_1$ . Para $\theta=1$ se obtiene el estimador de efecto fijo ("dentro"). Para $\theta\to -\infty$ se obtiene el estimador "entre". El estimador GLS es una media ponderada entre los dos. (Para $\theta=0$ se obtiene el estimador OLS agrupado).

GLS factible

Para que un enfoque FGLS sea práctico, necesitamos estimadores de $\sigma^2_1$ et $\sigma^2_\epsilon$ . Baltagi, Econometric Analysis of Panel Data, p. 16 (cita de la 3ª edición), analiza las siguientes opciones sobre cómo proceder.

Supongamos que primero observamos $u_{it}$ . Entonces,

$$\hat\sigma^2_1=T\frac{1}{m}\sum_{i=1}^m\bar{u}_{i\cdot}^2$$ y $$\hat\sigma^2_\epsilon=\frac{1}{m(T-1)}\sum_{i=1}^m\sum_{t=1}^T\left(u_{it}-\frac{1}{m}\sum_{i=1}^m\bar{u}_{i\cdot}\right)^2$$ serían buenos estimadores de sus parámetros, con $\bar{u}_{i\cdot}$ la media temporal correspondiente a las observaciones de la unidad $i$ .

El Wallace y Hussein (1969) consiste en sustituir $u$ con los residuos de una regresión OLS combinada (que, después de todo, sigue siendo insesgada y consistente bajo los supuestos actuales).

El Amemiya (1971) sugiere utilizar los residuos de la EF (o LSDV) en su lugar. Como cuestión de cálculo, imponemos la restricción de que $\sum_i\eta_i=0$ para eludir la trampa de la variable ficticia y poder obtener $\hat\alpha=\bar y_{\cdot\cdot}-\bar X_{\cdot\cdot}'\hat\beta_{FE}$ con $\cdot\cdot$ indicando las medias generales sobre $i$ et $t$ para los residuos LSDV $\hat u=y-\hat\alpha-X\hat\beta_{FE}$ .

El valor por defecto Swamy y Arora (1972) estimaciones de enfoque $$ \hat\sigma^2_\epsilon=[y'Q(I-X(X'QX)^{-1}X'Q)y]/[m(T-1)-K] $$ y $$ \hat\sigma^2_1=[y'P(I-Z(Z'PX)^{-1}Z'P)y]/[m-K-1] $$ Aquí, $Z=(\iota_{mT}\quad X)$ .

El Nerlove (1971) estimaciones de enfoque $\sigma_\eta^2$ de $\sum_{i=1}^m(\hat\eta_i-\bar{\hat\eta})^2/(m-1)$ donde el $\hat\eta_i$ son variables ficticias de una regresión de efectos fijos y $\hat\sigma^2_\epsilon$ se estima a partir de las sumas de cuadrados residuales internas de esta regresión, con $mT$ en el denominador.

También estoy muy sorprendido de que éstas supongan una diferencia tan grande como muestran los cálculos de Randel.

EDITAR:

En cuanto a las diferencias, las estimaciones de los componentes de error pueden recuperarse en el plm y, de hecho, arrojan resultados muy diferentes, lo que explica la diferencia en las estimaciones puntuales para $\beta$ (según la respuesta de @Randel, amemiya arroja un error que no he intentado solucionar):

> ercomp(stackY~stackX, data = paneldata, method = "walhus")
                  var std.dev share
idiosyncratic 21.0726  4.5905 0.981
individual     0.4071  0.6380 0.019
theta:  0.06933  
> ercomp(stackY~stackX, data = paneldata, method = "swar")
                 var std.dev share
idiosyncratic 0.6437  0.8023 0.229
individual    2.1732  1.4742 0.771
theta:  0.811  
> ercomp(stackY~stackX, data = paneldata, method = "nerlove")
                   var  std.dev share
idiosyncratic   0.5565   0.7460 0.002
individual    342.2514  18.5000 0.998
theta:  0.9857  

Sospecho que los estimadores de los componentes del error tampoco son consistentes en mi ejemplo en el hilo conductor donde pretendo demostrar las diferencias entre EF y ER utilizando datos en los que los efectos individuales y $X$ están correlacionados. (De hecho, no pueden estarlo, porque en última instancia alejan la estimación de RE de la estimación de FE, ya que RE es una media ponderada de FE y entre la estimación con pesos determinados por las estimaciones del componente de error. Por lo tanto, si la ER no es consistente, eso debe deberse en última instancia a estas estimaciones).

Si sustituyes la característica "ofensiva" de ese ejemplo,

alpha = runif(n,seq(0,step*n,by=step),seq(step,step*n+step,by=step))

simplemente, digamos,

alpha = runif(n)

por lo que los efectos aleatorios que no están correlacionados con $X$ se obtienen estimaciones puntuales de RE para $\beta$ muy cerca del valor real $\beta=-1$ para todas las variantes de estimación de los componentes del error.


Referencias

Amemiya, T., 1971, La estimación de las varianzas en un modelo de componentes de la varianza , Revista Económica Internacional 12, 1-13.

Baltagi, B. H., Econometric Analysis of Panel Data, Wiley.

Nerlove, M., 1971a, Más pruebas sobre la estimación de las relaciones económicas dinámicas a partir de una serie temporal de cortes transversales , Econometrica 39, 359-382.

Swamy, P.A.V.B. y S.S. Arora, 1972, Las propiedades exactas de muestra finita de los estimadores de los coeficientes en los modelos de regresión de componentes de error , Econometrica 40, 261-275.

Wallace, T.D. y A. Hussain, 1969, El uso de modelos de componentes de error en la combinación de datos de sección transversal y de series temporales , Econometrica 37, 55-72.

11voto

Neal Puntos 316

No estoy lo suficientemente familiarizado con R para comentar su código, pero el modelo mixto de intercepción aleatoria simple debería ser idéntico al estimador RE MLE, y muy cercano al estimador RE GLS, excepto cuando el total $N = \sum_i T_i$ es pequeño y los datos están desequilibrados. Esperemos que esto sea útil para diagnosticar el problema. Por supuesto, todo esto es asumiendo que el estimador RE es apropiado.

Aquí hay un poco de Stata que muestra la equivalencia (requiere esttab et eststo de SSC):

set more off
estimates clear
webuse nlswork, clear
eststo, title(mixed): mixed ln_w grade age c.age#c.age ttl_exp tenure c.tenure#c.tenure || id: // Mixed estimator
eststo, title(MLE): xtreg ln_w grade age c.age#c.age ttl_exp tenure c.tenure#c.tenure, i(id) mle // MLE RE estimator 
eststo, title(GLS): xtreg ln_w grade age c.age#c.age ttl_exp tenure c.tenure#c.tenure, i(id) re // GLS RE estimato
esttab *, b(a5) se(a5) mtitle 

Aquí está la salida de la última línea:

. esttab *, b(a5) se(a5) mtitle 

------------------------------------------------------------
                      (1)             (2)             (3)   
                    mixed             MLE             GLS   
------------------------------------------------------------
main                                                        
grade            0.070790***     0.070790***     0.070760***
              (0.0017957)     (0.0017957)     (0.0018336)   

age              0.031844***     0.031844***     0.031906***
              (0.0027201)     (0.0027202)     (0.0027146)   

c.age#c.age   -0.00065130***  -0.00065130***  -0.00065295***
             (0.000044965)    (0.000044971)    (0.000044880)   

ttl_exp          0.035228***     0.035228***     0.035334***
              (0.0011382)     (0.0011392)     (0.0011446)   

tenure           0.037134***     0.037134***     0.037019***
              (0.0015715)     (0.0015723)     (0.0015681)   

c.tenure#c~e   -0.0018382***   -0.0018382***   -0.0018387***
             (0.00010128)    (0.00010128)    (0.00010108)   

_cons             0.14721***      0.14721***      0.14691** 
               (0.044725)      (0.044725)      (0.044928)   
------------------------------------------------------------
lns1_1_1                                                    
_cons            -1.31847***                                
               (0.013546)                                   
------------------------------------------------------------
lnsig_e                                                     
_cons            -1.23024***                                
              (0.0046256)                                   
------------------------------------------------------------
sigma_u                                                     
_cons                             0.26754***                
                              (0.0036240)                   
------------------------------------------------------------
sigma_e                                                     
_cons                             0.29222***                
                              (0.0013517)                   
------------------------------------------------------------
N                   28099           28099           28099   
------------------------------------------------------------
Standard errors in parentheses
* p<0.05, ** p<0.01, *** p<0.001

En sus datos, no se cumplen los supuestos para utilizar el estimador RE, ya que el efecto de grupo está claramente correlacionado con x, por lo que se obtienen estimaciones muy diferentes. El estimador GLS RE es en realidad un estimador del método generalizado de momentos (GMM) que es una media ponderada de la matriz de los estimadores entre y dentro. El estimador dentro va a estar bien aquí, pero el entre va a estar profundamente jodido, mostrando grandes efectos positivos de X. Así que GLS será principalmente el estimador entre. El MLE RE es un MLE que maximiza la probabilidad del modelo de efectos aleatorios. Ya no se espera que produzcan la misma respuesta. Aquí el estimador mixto está dando algo muy cercano al estimador FE "Within":

. esttab *, b(a5) se(a5) mtitle 

----------------------------------------------------------------------------
                      (1)             (2)             (3)             (4)   
                    mixed             GLS             MLE          Within   
----------------------------------------------------------------------------
main                                                                        
x                -1.02502***      0.77031**       3.37983***     -1.04507***
               (0.092425)       (0.26346)       (0.20635)      (0.093136)   

_cons             30.2166***      18.3459***      0.49507         30.3492***
                (5.12978)       (2.31566)             (.)       (0.62124)   
----------------------------------------------------------------------------
lns1_1_1                                                                    
_cons             2.87024***                                                
                (0.20498)                                                   
----------------------------------------------------------------------------
lnsig_e                                                                     
_cons            -0.22598**                                                 
               (0.077195)                                                   
----------------------------------------------------------------------------
sigma_u                                                                     
_cons                                             2.40363                   
                                                (1.28929)                   
----------------------------------------------------------------------------
sigma_e                                                                     
_cons                                             4.23472***                
                                                (0.37819)                   
----------------------------------------------------------------------------
N                      96              96              96              96   
----------------------------------------------------------------------------
Standard errors in parentheses
* p<0.05, ** p<0.01, *** p<0.001

Este es el código de Stata para la tabla anterior:

clear
set more off
estimates clear

input int(obs id t) double(y x)
1      1           1  2.669271  0.5866982
2      1           2  1.475540  1.3500454
3      1           3  4.430008  0.6830919
4      1           4  2.162789  0.5845966
5      1           5  2.678108  1.0038879
6      1           6  3.456636  0.5863289
7      1           7  1.769204  2.3375403
8      1           8  3.413790  0.9640034
9      2           1  4.017493  1.5084121
10     2           2  4.218733  2.8982499
11     2           3  4.509530  3.2141335
12     2           4  6.106228  2.0317799
13     2           5  5.161379  2.1231733
14     2           6  2.724643  4.3369017
15     2           7  4.500306  1.9141065
16     2           8  4.119322  2.8667938
17     3           1  9.987779  2.3961969
18     3           2  7.768579  3.5509275
19     3           3  9.379788  3.3284869
20     3           4 10.035937  2.2997389
21     3           5 11.752360  2.8143474
22     3           6  9.500264  2.1825704
23     3           7  8.921687  5.0126462
24     3           8  8.269932  3.4046339
25     4           1 12.101253  3.2928033
26     4           2 11.482337  3.1645218
27     4           3 10.648010  4.8073987
28     4           4  9.687320  5.3394193
29     4           5 12.796925  3.1197431
30     4           6  9.971434  4.6512983
31     4           7 10.239717  4.7709378
32     4           8 12.245207  2.7952426
33     5           1 18.473320  5.8421967
34     5           2 19.097212  4.9425391
35     5           3 19.460495  4.9166172
36     5           4 18.642305  4.9856035
37     5           5 17.723912  5.0594425
38     5           6 16.783248  4.8615618
39     5           7 16.100984  6.2069167
40     5           8 18.851351  3.8856152
41     6           1 19.683171  7.5568816
42     6           2 21.104231  6.7441900
43     6           3 22.115529  6.4486514
44     6           4 22.061362  5.3727434
45     6           5 22.457905  5.8665798
46     6           6 21.424413  6.0578997
47     6           7 23.475946  4.4024323
48     6           8 24.884950  4.1596914
49     7           1 25.809011  7.6756255
50     7           2 25.432828  7.7910756
51     7           3 26.790387  7.3858301
52     7           4 24.640850  8.2090606
53     7           5 26.050086  7.3779219
54     7           6 25.297148  6.8098617
55     7           7 26.551229  7.6694272
56     7           8 26.669760  6.4425772
57     8           1 26.409669  8.3040894
58     8           2 26.570003  8.4686087
59     8           3 29.018818  7.2476785
60     8           4 30.342613  4.5207729
61     8           5 26.819959  8.7935557
62     8           6 27.147711  8.3141224
63     8           7 26.168568  9.0148308
64     8           8 27.653552  8.2081808
65     9           1 34.120485  7.8415520
66     9           2 31.286463  9.7234259
67     9           3 35.763403  6.9202442
68     9           4 31.974599  9.0078286
69     9           5 32.273719  9.4954288
70     9           6 29.666208 10.2525763
71     9           7 30.949857  9.4751679
72     9           8 33.485967  8.1824810
73    10           1 36.183128 10.7891587
74    10           2 37.706116  9.7119548
75    10           3 38.582725  8.6388290
76    10           4 35.876781 10.8259279
77    10           5 37.111179  9.9805046
78    10           6 40.313149  7.7487456
79    10           7 38.606329 10.2891107
80    10           8 37.041938 10.3568765
81    11           1 42.617586 12.1619185
82    11           2 41.787495 11.1420338
83    11           3 43.944968 11.1898730
84    11           4 43.446467 10.8099599
85    11           5 43.420819 11.2696770
86    11           6 42.367318 11.6183869
87    11           7 43.543785 11.1336555
88    11           8 43.750271 12.0311065
89    12           1 46.122429 12.3528733
90    12           2 47.604306 11.4522787
91    12           3 45.568748 13.6906476
92    12           4 48.331177 12.3561907
93    12           5 47.143246 11.7339915
94    12           6 44.461190 13.3898768
95    12           7 46.879044 11.4054972
96    12           8 46.314055 12.3143487
end

eststo, title(mixed): mixed y x || id:, mle // Mixed estimator
eststo, title(GLS): xtreg y x, i(id) re     // GLS RE estimato
eststo, title(MLE): xtreg y x, i(id) mle    // MLE RE estimator 
eststo, title(Within): xtreg y x, i(id) fe  // FE Within estimator 
eststo, title(Between): xtreg y x, i(id) be // Between estimator 

esttab *, b(a5) se(a5) mtitle

10voto

Jeff Bauer Puntos 236

Permítanme confundir aún más las cosas:

ECONOMETRÍA - ENFOQUE DE EFECTOS FIJOS
El enfoque de "efectos fijos" en econometría para datos de panel, es una forma de estimar los coeficientes de pendiente (las betas), "obviando" la existencia de la variable de efectos individuales $\alpha_i$ y, por lo tanto, sin hacer ninguna suposición sobre si es "fijo" o "aleatorio". Esto es lo que hacen el estimador "First Difference" (que utiliza las primeras diferencias de los datos) y el estimador "Within" (que utiliza las desviaciones de las medias temporales): consiguen estimar sólo las betas.

Para un enfoque más tradicional que trata explícitamente los efectos individuales (los "interceptos") como constantes, utilizamos el Estimador de Variable Dummy de Mínimos Cuadrados (LSDV), que proporciona también estimaciones para el $\alpha_i$ 's Nota: en el modelo lineal los tres estimadores coinciden algebraicamente en cuanto a las estimaciones producidas para las betas - pero sólo en el modelo lineal.

Discusión (extraído parcialmente de los apuntes de clase)

"La principal ventaja del enfoque de efectos fijos es que no necesitamos hacer ninguna suposición sobre la naturaleza de los efectos individuales efectos individuales. Debemos aplicarlo siempre que sospechemos que estos últimos son correlacionados con uno o más de los regresores, ya que en este caso ignorando la presencia de dicha correlación y aplicando ingenuamente OLS en el modelo agrupado produce estimadores inconsistentes. A pesar de su atractivo de los efectos individuales, el enfoque de los efectos fijos no es el más adecuado. los efectos individuales, el enfoque de efectos fijos tiene ciertas limitaciones. En primer lugar, no se pueden estimar los coeficientes de los regresores invariantes en el tiempo estimar los coeficientes de los regresores invariantes en el tiempo, ya que estas variables se diferencian de los efectos individuales no observables. efectos individuales inobservables. En segundo lugar, los efectos individuales (en caso de que utilicemos el estimador LSDV) no se pueden estimar de forma consistente (excepto si dejamos que la dimensión temporal sea infinita)".

ECONOMETRÍA - ENFOQUE DE EFECTOS ALEATORIOS
En el enfoque econométrico "tradicional" de efectos aleatorios suponemos que los "interceptos" individuales $\alpha_i$ son "componentes aleatorios permanentes" mientras que los términos de error "habituales" son componentes de error "transitorios".

En una interesante extensión, la aleatoriedad adicional surge de la existencia de un efecto del tiempo común a todas las secciones transversales pero que varía en el tiempo junto con un efecto individual fijo (constante) y el término de error. Este "efecto temporal", por ejemplo, puede representar una perturbación agregada a nivel de toda la economía que afecta por igual a todos los hogares. Tales perturbaciones agregadas se observan efectivamente, por lo que parece ser una opción de modelización realista.

En este caso, el estimador de "efectos aleatorios" es un estimador de mínimos cuadrados generalizados (GLS), para aumentar la eficacia.

Ahora, un estimador más concebido, el estimador "Between", realiza OLS en las observaciones promediadas en el tiempo. Como cuestión de álgebra, se ha demostrado que el estimador GLS puede obtenerse como una media ponderada de los estimadores Within y Between, donde las ponderaciones no son arbitrarias, sino que están relacionadas con las matrices VCV de ambos.

...y también existen las variantes de los modelos "Efectos aleatorios no correlacionados" y "Efectos aleatorios correlacionados".

Espero que lo anterior ayude a establecer el contraste con los modelos de "efectos mixtos".

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X