4 votos

Prueba de hipótesis para una combinación lineal de coeficientes $c_0\beta_0 +c_1\beta_1$

Me dan un modelo de regresión lineal sime $$y_i=\beta_0+\beta_1x_i+\epsilon_i$$

donde $\epsilon_i\sim N(0,\sigma)$ y tengo que crear una prueba de hipótesis para contrastar

$$H_0: c_0\beta_0+c_1\beta_1=h$$

donde $c_0,c_1, h$ son constantes dadas.

Mi intento:

Sabemos que el estimador $\hat{\beta_0}\sim N\left(\beta_0,\sigma^2(\frac{1}{n}+\frac{\bar{x}^2}{S_{xx}})\right)$ y que el estimador $\hat{\beta_1}\sim N\left(\beta_1,\frac{\sigma^2}{S_{xx}}\right)$ así que la combinación $c_0\beta_0+c_1\beta_1$ sigue una distribución normal (ya que es una combinación lineal de distribuciones normales) con media

$$\mu=c_0\beta_0+c_1\beta_1$$

y la varianza

$$Var[c_0\hat{\beta_0}+c_1\hat{\beta_1}]$$

No veo ninguna razón para que $\hat{\beta_0}$ y $\hat{\beta_1}$ debe ser incorrecto, por lo que no puedo decir que la varianza de la suma es la suma de las varianzas. Entonces $$Var[c_0\hat{\beta_0}+c_1\hat{\beta_1}]=Var[c_0\hat{\beta_0}]+Var[c_1\hat{\beta_1}]+2Cov(c_0\hat{\beta_0},c_1\hat{\beta_1})$$

Ahora

$$Cov(c_0\hat{\beta_0},c_1\hat{\beta_1})=c_0c_1Cov(\bar y-\hat{\beta_1}\bar x,\hat{\beta_1})=c_0c_1\left(Cov(\bar y, \hat{\beta_1})-\bar xCov(\hat{\beta_1},\hat{\beta_1})\right)$$

Pero $Cov(\bar y, \hat{\beta_1})=0$ y $Cov(\hat{\beta_1},\hat{\beta_1})=Var[\hat{\beta_1}]$ así que

$$Var[c_0\hat{\beta_0}+c_1\hat{\beta_1}]=c_0^2\sigma^2\left(\frac{1}{n}+\frac{\bar x^2}{S_{xx}}\right)+c_1^2\frac{\sigma^2}{S_{xx}}-2c_0c_1\bar x \frac{\sigma^2}{S_{xx}}$$

Si no me he equivocado, esa debería ser la expresión para la varianza, pero no puedo simplificar esto para obtener un $N(0,1)$ distribución.

Mi pregunta es entonces si hay una forma más sencilla de obtener la prueba de hipótesis, por lo que cualquier pista que me indique la dirección correcta sería muy apreciada.

Nota: He visto una pregunta similar aquí, pero la respuesta implica la notación matricial, y eso es algo que aún no hemos cubierto en clase.

4voto

jayk Puntos 1065

Método sencillo

Si hubieras cubierto un poco más estarías ahí. Empieza por asumir el nulo: $$ h=c_0\beta_0+c_1\beta_1 $$ entonces, como usted ha señalado $c_0\hat\beta_0+c_1\hat\beta_1-h\sim\mathcal{N}(0,V)$ donde $V$ es una varianza desconocida. Así que hay que encontrar $V$ . La ecuación con la que has empezado también es correcta: $$ V=\text{Var}[c_0\hat\beta_0+c_1\hat\beta_1-h] = c_0^2\text{Var}[\hat\beta_0]+c_1^2\text{Var}[\hat\beta_1] +2c_0c_1\text{Cov}(\hat\beta_1,\hat\beta_2) $$

Para completar este método directo, una cosa que podrías utilizar es la matriz de varianza-covarianza de los regresores, que supongo que no has cubierto todavía (si lo has hecho, esto debería ser sencillo, la covarianza que necesitas es sólo una entrada). Alternativamente, puede derivar $\text{Cov}(\hat\beta_0,\hat\beta_1)$ . Para derivar $\text{Cov}(\hat\beta_0,\hat\beta_1)$ tenga en cuenta que..:

$$ \hat\beta_1 = \dfrac{\sum_{i=1}^N x_i-\bar x}{\sum_{i=1}^N (x_i-\bar x)^2}y_i \quad \text{and} \quad \hat\beta_0 = \frac{1}{n}\sum_{i=1}^N y_i -\hat\beta_1 \bar x $$ y averiguar hacia dónde puedes ir a partir de ahí, teniendo en cuenta las suposiciones que te han dado. Desgraciadamente, no puedes asumir que $\text{Cov}(\bar y, \hat\beta_1)=0$ . $\text{Cov}(\bar y, \hat\beta_1)$ no tiene por qué ser cero, ya que ambas son estimaciones, por lo que su covarianza puede ser, en general, distinta de cero. Si puede justificar por qué debe ser 0, entonces has terminado. Una forma de enfocar esto sería pensar en lo que pasaría si se ejecuta esta regresión en datos degradados, y pasar de ahí a un argumento formal.

En el futuro también aprenderás que es mucho más fácil hacer este tipo de restricción con una prueba de Wald o un $F$ prueba. Este método, una vez que se ha utilizado la matriz de varianza-covarianza, es algebraicamente equivalente a una prueba de Wald y asintóticamente equivalente a una $F$ prueba.

El método difícil puede ser más fácil

Ahora mismo tu modelo es:

$$ y_i = \beta_0 + \beta_1 x_i + \epsilon $$

Bajo la nulidad, recuerde que $\beta_1- (h-c_0\beta_0)/c_1=0$ . Intente manipular la ecuación de regresión, y redefina las variables en su regresión añadiendo y restando cosas a la ecuación de regresión que sean iguales, de tal manera que pueda probar esta restricción exacta como $t$ prueba en una regresión ligeramente diferente formada con los mismos datos y equivalente a su modelo original. Mientras hace esto, recuerde que $h$ , $c_0$ y $c_1$ son constantes conocidas, no variables aleatorias. Sin darte la respuesta, es un truco que podría facilitarte la vida.

El método al que llegarás si utilizas bien este truco también es algebraicamente equivalente a una prueba de Wald.

0voto

tristanojbacon Puntos 6

Utilizando la suma de la distribución normal sabiendo que $\epsilon_i \sim N(0,1)$ Si $$y_i=\beta_0+\beta_1x_i+\epsilon_i$$ Entonces, dados dos puntos, $$y_i-y_j-\beta_1(x_i-x_j)=\epsilon_i-\epsilon_j$$ Donde $\epsilon_i-\epsilon_j \sim N(0,2)$

Así, se puede comprobar si $$y_i-y_j-\beta_1(x_i-x_j)\sim N(0,2)$$

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X