6 votos

¿Cómo puedo calcular el error estándar del estimador Wald?

Según Cameron y Trivedi Microeconometría de 2006, página 98-99, la Wald estimador puede ser escrita :

$$ \widehat{\beta}_{Wald} = \frac{(\bar{y_1} - \bar{y_0})}{(\bar{x_1} - \bar{x_0})} $$

con :

  • $\bar{y_1}$ : la media de y para personas con Z = 1
  • $\bar{y_0}$ : la media de y para personas con Z = 0
  • $\bar{x_1}$ : la media de x para los individuos con Z = 1
  • $\bar{x_0}$ : la media de x para los individuos con Z = 0

Yo estoy en un caso especial donde $y_i$ es una variable dicotómica. Me gustaría saber si hay una fórmula para calcular el error estándar en este caso simple.

PS : sé que hay una pregunta similar (questions60893), pero mi pregunta es, realmente, sobre el álgebra y cómo calcular sabiendo que sólo $\bar{y_1}$, $\bar{y_0}$, $\bar{x_1}$, $\bar{x_0}$, $N_1$ el número de personas con $Z=1$ $N_0$ el número de personas con $Z=0$, no acerca de los comandos de stata.

8voto

mstrobl Puntos 1571

Aquí está mi respuesta a mi pregunta. Espero que no haya ningún error en el cálculo.

Tenemos :

  • $y_{1,i}$ un dicotómica variable aleatoria siguiendo una distribución de Bernouilli con el parámetro $\mu_{y_1}$
  • $y_{0,i}$ un dicotómica variable aleatoria siguiendo una distribución de Bernouilli con el parámetro $\mu_{y_0}$
  • $x_{1,i}$ un dicotómica variable aleatoria siguiendo una distribución de Bernouilli con el parámetro $\mu_{x_1}$
  • $x_{0,i}$ un dicotómica variable aleatoria siguiendo una distribución de Bernouilli con el parámetro $\mu_{x_0}$

El Wald estimador se define como :

$$ \beta_{Wald} = \frac{\mu_{y_1} - \mu_{y_0}}{\mu_{x_1} - \mu_{x_0}} $$

This can be estimated using the plug-in estimator :

$$ \widehat{\beta_{Wald}} = \frac{\bar{y_1} - \bar{y_0}}{\bar{x_1} - \bar{x_0}} $$

I want to know the distribution of $\widehat{\beta_{Wald}}$. Since $\bar{y_1} - \bar{y_0}$ and $\bar{x_1} - \bar{x_0}$ converge to a normal distribution, I know that I can derive the distribution of $\widehat{\beta_{Wald}}$ using the Delta method (See Larry Wasserman, All of Statistics : A Concise Course in Statistical Inference, Springer, coll. « Springer Texts in Statistics », 2004, page 79).

I define two new variables :

  • $U = \bar{y_1} - \bar{y_0}$
  • $V = \bar{X_1} - \bar{X_0}$

Yo sé que :

  • $U \xrightarrow{L}\, \mathcal{N}(\mu_U, \sigma^2_U)$
  • $V \xrightarrow{L}\, \mathcal{N}(\mu_V, \sigma^2_V)$

Yo defino la función de $g(U,V) = U/V$. De acuerdo con el método Delta, yo sé que :

$$ g(U,V) \xrightarrow{L}\, \mathcal{N}\left(g(\mu_U, \mu_V), Dg(\mu_U, \mu_V)^T\Sigma Dg(\mu_U, \mu_V)\right) $$

with $Dg(\mu_U, \mu_V)$ the Jacobian matrix of function g and $Sigma$ the variance-covariance matrix of vector $(U,V)$.

So I compute the Jacobian :

$$Dg \left( \begin{array}{c} \mu_U \\ \mu_V \end{array} \right) = \left(\begin{array}{rcl} \frac{1}{\mu_V} \\ \frac{-\mu_U}{\mu_V^2} \end{array} \right) $$

and I have the variance-covariance matrix :

$$ \Sigma = \left( \begin{array}{cc} \sigma^2_U & \sigma_{U,V} \\ \sigma_{U,V} & \sigma^2_V \end{array} \right) $$

So the variance of $g(U/V)$ is :

$$ Dg(\mu_U, \mu_V)^T \Sigma Dg(\mu_U, \mu_V) = \frac{\sigma^2_U}{\mu_V^2} - 2 \frac{\mu_U}{\mu_V^3} \sigma_{U,V} + \frac{\mu_U^2}{\mu_V^4} \sigma^2_V $$

In this case, since $y_i$ follow a Bernouilli distribution, its variance is just $\mu_{y_i} (1-\mu_{y_i})$ and can be estimated using the plug-in estimator as $\bar{y_i} (1-\bar{y_i})$. Therefore I can estimate the following quantities :

$$ \begin{eqnarray} \sigma^2_U & = & V(\bar{y_1} - \bar{y_0})\\ & = & V(\bar{y_1}) + V(\bar{y_0}) & = & \frac{1}{N_1} \bar{y_1} (1 - \bar{y_1}) + \frac{1}{N_0} \bar{y_0} (1 - \bar{y_0}) \end{eqnarray} $$

$$ \begin{eqnarray} \sigma^2_V & = & V(\bar{x_1} - \bar{x_0})\\ & = & V(\bar{x_1}) + V(\bar{x_0}) & = & \frac{1}{N_1} \bar{x_1} (1 - \bar{x_1}) + \frac{1}{N_0} \bar{x_0} (1 - \bar{x_0}) \end{eqnarray} $$

$$ \begin{eqnarray} \sigma_{U,V} & = & cov(\bar{y_1} - \bar{y_0}, \bar{x_1} - \bar{x_0})\\ & = & \beta_1 V(\bar{x_1}) + \beta_1 V(\bar{x_0})\\ & = & \beta_1 \left( \frac{1}{N_1} \bar{x_1} (1 - \bar{x_1}) + \frac{1}{N_0} (\bar{x_0} (1-\bar{x_0}))\right) \end{eqnarray} $$

So I can have sample estimates of all quantities in the equation $\frac{\sigma^2_U}{\mu_V^2} - 2 \frac{\mu_U}{\mu_V^3} \sigma_{U,V} + \frac{\mu_U^2}{\mu_V^4} \sigma^2_V$. Por lo tanto se puede obtener la varianza de mi Wald estimador de la informática y de mi error estándar !

2voto

Novice Puntos 30

Examinar páginas 287-290 en el documento original de Wald(1994) . Camina a través de la derivación de la varianza.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X