Tengo entendido que la prueba de Wald para los coeficientes de regresión se basa en la siguiente propiedad que se mantiene asintóticamente (por ejemplo, Wasserman (2006): Todas las estadísticas , páginas 153, 214-215): $$ \frac{(\hat{\beta}-\beta_{0})}{\widehat{\operatorname{se}}(\hat{\beta})}\sim \mathcal{N}(0,1) $$ Donde $\hat{\beta}$ denota el coeficiente de regresión estimado, $\widehat{\operatorname{se}}(\hat{\beta})$ denota el error estándar del coeficiente de regresión y $\beta_{0}$ es el valor de interés ( $\beta_{0}$ suele ser 0 para comprobar si el coeficiente es significativamente diferente de 0). Por lo tanto, el tamaño $\alpha$ La prueba de Wald es: rechazar $H_{0}$ cuando $|W|> z_{\alpha/2}$ donde $$ W=\frac{\hat{\beta}}{\widehat{\operatorname{se}}(\hat{\beta})}. $$
Pero cuando se realiza una regresión lineal con lm
en R, un $t$ -en lugar de un $z$ -se utiliza para comprobar si los coeficientes de regresión difieren significativamente de 0 (con summary.lm
). Además, la salida de glm
en R a veces da $z$ - y a veces $t$ -como estadísticas de prueba. Aparentemente, $z$ -se utilizan cuando se supone que el parámetro de dispersión es conocido y $t$ -se utilizan cuando se calcula el parámetro de dispersión (véase este enlace ).
¿Podría alguien explicar, por qué un $t$ -¿se utiliza a veces para una prueba de Wald aunque se suponga que la relación del coeficiente y su error estándar se distribuyen como normal estándar?
Editar después de que la pregunta fue contestada
Este puesto también aporta información útil a la pregunta.