27 votos

Pruebas estadísticas comunes como modelos lineales

(ACTUALIZACIÓN: He profundizado en este tema y y publicó los resultados aquí )

La lista de pruebas estadísticas con nombre propio es enorme. Muchas de las pruebas comunes se basan en la inferencia a partir de modelos lineales simples, por ejemplo, una prueba t de una muestra es simplemente y = + que se compara con el modelo nulo y = + es decir, que \= donde es algún valor nulo - típicamente =0.

Esto me parece mucho más instructivo para la enseñanza que aprender de memoria los modelos nombrados, cuándo utilizarlos y sus supuestos como si no tuvieran nada que ver entre sí. Ese enfoque no favorece la comprensión. Sin embargo, no encuentro un buen recurso que lo recoja. Me interesan más las equivalencias entre los modelos subyacentes que el método de inferencia de ellos. Aunque, por lo que veo, las pruebas de razón de verosimilitud en todos estos modelos lineales arrojan los mismos resultados que la inferencia "clásica".

Éstas son las equivalencias que he aprendido hasta ahora, ignorando el término de error $\varepsilon \sim \mathcal N(0, \sigma^2)$ y asumiendo que todas las hipótesis nulas son la ausencia de efecto:

Prueba t de una muestra: $y = \beta_0 \qquad \mathcal{H}_0: \beta_0 = 0$ .

Prueba t de muestras pareadas: $y_2-y_1 = \beta_0 \qquad \mathcal{H}_0: \beta_0 = 0$

Esto es idéntico a una prueba t de una muestra sobre diferencias por pares.

Prueba t de dos muestras: $y = \beta_1 * x_i + \beta_0 \qquad \mathcal{H}_0: \beta_1 = 0$

donde x es un indicador (0 o 1).

Correlación de Pearson: $y = \beta_1 * x + \beta_0 \qquad \mathcal{H}_0: \beta_1 = 0$

Observe la similitud con una prueba t de dos muestras, que no es más que una regresión sobre un eje x binario.

Correlación de Spearman: $rank(y) = \beta_1 * rank(x) + \beta_0 \qquad \mathcal{H}_0: \beta_1 = 0$

Esto es idéntico a una correlación de Pearson en x e y transformadas por rangos.

ANOVA unidireccional: $y = \beta_1*x_1 + \beta_2*x_2 + \beta_3*x_3 +... \qquad \mathcal{H}_0: \beta_1, \beta_2, \beta_3, ... = \beta$

donde $x_i$ son indicadores que seleccionan los $\beta$ (una $x$ es 1; los demás son 0). El modelo podría escribirse probablemente en forma matricial como $Y = \beta * X$ .

ANOVA de dos vías: $y = \beta_1 * X_1 + \beta_2 * X_2 + \beta_3 * X_1 * X_2 \qquad \mathcal{H}_0: \beta_3 = 0$

para dos factores de dos niveles. Aquí $\beta_i$ son vectores de betas donde uno es seleccionado por el vector indicador $X_i$ . En $\mathcal{H}_0$ que se muestra aquí es el efecto de interacción.

¿Podríamos añadir más "pruebas con nombre" a esta lista de modelos lineales? Por ejemplo, ¿regresión multivariante, otras pruebas "no paramétricas", pruebas binomiales o RM-ANOVA?

ACTUALIZACIÓN: se han planteado y respondido preguntas sobre ANOVA y pruebas t como modelos lineales aquí en SO. Véase esta pregunta y las preguntas relacionadas etiquetadas .

9voto

alexs77 Puntos 36

No es una lista exhaustiva, pero si incluye generalizado modelos lineales, el alcance de este problema se amplía considerablemente.

Por ejemplo:

En Prueba de tendencia de Cochran-Armitage puede formularse mediante: $$E[\mbox{logit} (p) | t] = \beta_0 + \beta_1 t \qquad \mathcal{H}_0: \beta_1 = 0$$

En Prueba Chi-Cuadrado de Pearson de independencia para a $p \times k$ tabla de contingencia es un modelo log-lineal para las frecuencias celulares dado por:

$$E[\log (\mu)] = \beta_0 + \beta_{i.} + \beta_{.j} + \gamma_{ij} \quad i,j > 1 \qquad\mathcal{H}_0: \gamma_{ij} = 0, \quad i,j > 1$$

También la prueba t para varianzas desiguales se aproxima bien utilizando la estimación de error robusta de Huber White.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X