6 votos

Demostrar que la potencia de una prueba acerca a 1 como el tamaño de muestra acerca a infinito

Estoy trabajando en algunos de los ejercicios para mi clase de econometría y estoy un poco confundido. Yo estoy destinado a considerar un modelo de

$$Y=\beta_0 +\beta_1X+u$$

y proponer una prueba estadística de prueba y el valor crítico) de $H_0:\beta_1 =0$ contra $H_1:\beta_1 \ne 0$ de manera tal que el error de Tipo 1 va a 5% y la potencia de la prueba va a 1 como el tamaño de la muestra tiende a infinito.

Bastante estándar creo, estoy bastante seguro de que sólo queremos utilizar la prueba estadística de $\tau=| \frac {\hat{\beta_1}}{\hat{SE}(\beta_1)}|$ con un valor crítico de 1.96. Por el teorema del límite central, bajo la hipótesis nula, tenemos

$\frac {\hat{\beta_1}}{\hat{SE}(\beta_1)}\longrightarrow_d N(0,1)$

y por lo que puede mostrar el error de tipo 1 en el límite bastante fácil.

Si algo está mal hasta ahora, por favor hágamelo saber.

El problema que estoy teniendo es que muestra que la potencia de la prueba enfoques 1. En $H_1$, para tamaños de muestra grandes

$\frac {\hat{\beta_1}}{\hat{SE}(\beta_1)}\approx \frac {\hat{\beta_1}}{{SE}(\beta_1)}=\frac{\hat{\beta_1}}{\sqrt{\frac{\sigma^2}{nVar(X)}}}\longrightarrow_d ???????$

Ahora esto es donde estoy confundido... ¿que plazo convergen para algo? Estoy destinado a hacer un argumento acerca de la convergencia en distribución?

La única cosa que estaba pensando es que podemos afirmar que la

$$\frac{\hat{\beta_1}}{\sqrt{\frac{\sigma^2}{nVar(X)}}}\longrightarrow_p \frac{\beta_1}{\sqrt{\frac{\sigma^2}{nVar(X)}}}$$

Y que este número es claramente creciente con n, por lo que el estadístico de prueba se extiende hacia el infinito en el límite. Es este un argumento correcto, aunque? Mi problema con esto es que, ¿por qué no se dice entonces que eso implica que el estadístico de prueba se va a 0 en el límite bajo $H_0$? Nosotros no decimos eso, decir que va a una distribución, no es un número, pero

2voto

Jamie Brennan Puntos 86

Usted está casi allí, pero usted necesita para hacer que sus argumentos más formal.

Reescribir la nula y la hipótesis alternativa más en general, para que se lea $$ \begin{align} \mathfrak{h}_0{}:{}\beta_1 &= \beta^0_1\\ \mathfrak{h}_a{}:{}\beta_1&=\beta_1^a \end{align} $$


Entonces, usando el estándar de la maquinaria, y bajo el modelo de regresión lineal, se puede demostrar que bajo la nula: $$ \begin{align} \dfrac{\sqrt{n}\left(\widehat{\beta}_1- \beta_1^0\right)}{\widehat{\text{a.var.}}(\widehat{\beta}_1)} &\rightarrow^d X\\ &{\sim}\text{t}(n-K) \end{align} $$ donde $t(n-K)$ es la distribución t con $n-K$ grados de libertad, y $K$ es igual al número total de regresores ($K=2$). Ahora, recuerda que la definición de la convergencia en probabilidad es que las funciones de distribución de la secuencia de estadísticas converge a la función de distribución de la limitante de la variable aleatoria en cada una continuidad punto de la limitación de la distribución. En este caso,

$$ \scriptstyle \begin{align} \lim_{n\to\infty}\mathbb{P}\left[\left|\frac{\sqrt{n}\left(\widehat{\beta}_1- \beta_1^0\right)}{\widehat{\text{a.var.}}(\widehat{\beta}_1)} \right| > t_{1-\tfrac{\alpha}{2}}(n-K)\right] &= \lim_{n\to \infty}\mathbb{P}\left[\frac{\sqrt{n}\left(\widehat{\beta}_1- \beta_1^0\right)}{\widehat{\text{a.var.}}(\widehat{\beta}_1)} > t_{1-\tfrac{\alpha}{2}}(n-K)\right] \\ &\quad+ \lim_{n\to \infty}\mathbb{P}\left[\frac{\sqrt{n}\left(\widehat{\beta}_1- \beta_1^0\right)}{\widehat{\text{a.var.}}(\widehat{\beta}_1)} \leq -t_{1-\tfrac{\alpha}{2}}(n-K)\right] \\ &= \mathbb{P}\left[X > t_{1-\tfrac{\alpha}{2}}(n-K) \right] + \mathbb{P}\left[X \leq -t_{1-\tfrac{\alpha}{2}(n-K)} \right] \\ %&= 1-\Phi(z_{1-\tfrac{\alpha}{2}}) + \Phi(z_{\tfrac{\alpha}{2}}) \\ &= \alpha \end{align} $$ donde $\alpha$ es el tamaño nominal de la prueba, y $t_\alpha(d)$ $\alpha$- ésimo cuantil de la distribución t con $d$ grados de libertad. Esto demuestra que la prueba de t tiene el tamaño correcto asintóticamente.


Ahora, bajo la alternativa, tenemos que $$ \begin{align} \dfrac{\sqrt{n}\left(\widehat{\beta}_1- \beta_1^a\right)}{\widehat{\text{a.var.}}(\widehat{\beta}_1)} &\rightarrow^d X\\ &{\sim}\text{t}(n-K) \end{align} $$

Esto implica que $$ \begin{align} \dfrac{\sqrt{n}\left(\widehat{\beta}_1- \beta_1^0\right)}{\widehat{\text{a.var.}}(\widehat{\beta}_1)} &=\dfrac{\sqrt{n}\left(\widehat{\beta}_1- \beta_1^a\right)}{\widehat{\text{a.var.}}(\widehat{\beta}_1)}+\dfrac{\sqrt{n}\left(\beta^a_1- \beta_1^0\right)}{\widehat{\text{a.var.}}(\widehat{\beta}_1)} \\ &= \mathcal{O}_p(1)+ \mathcal{O}_p(\sqrt{n}) \\ &= \mathcal{O}_p(\sqrt{n}) \end{align} $$ Por definición de los órdenes de magnitud, esto significa que w.p.una. 1 en la alternativa, el t-estadístico es mayor que la de cualquier fijo (finito) valor crítico.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X