14 votos

La adición de coeficientes para obtener efectos de la interacción - ¿qué hacer con SEs?

Tengo un multivariante de regresión, que incluye la interacción. Por ejemplo, para obtener la estimación del efecto del tratamiento para el quintil más pobre es necesario agregar los coeficientes del tratamiento regresor para el coeficiente de la variable de interacción (que interactúa el tratamiento y el quintil 1). Cuando la adición de dos coeficientes de una regresión, ¿cómo hace uno para obtener los errores estándar? Es posible añadir los errores estándar de los dos coeficientes? Lo del t-stats? Es posible añadir estas así? Supongo que no, pero no puedo encontrar ninguna orientación acerca de esto.

Muchas gracias de antemano por su ayuda!

10voto

merriam Puntos 67

Creo que la expresión de $SE_{b_{new}}$:

$$\sqrt{SE_1^2 + SE_2^2+2Cov(b_1,b_2)}$$

Usted puede trabajar con este nuevo estándar de error para buscar su nueva prueba estadística para la prueba de $H_o: \beta=0$

5voto

dan90266 Puntos 609

Supongo que te refieres a 'multivariable de regresión, no 'multivariante'. 'Multivariante" se refiere a tener varias variables dependientes.

No se considera aceptable de la práctica de la estadística para tomar un predictor continuo y se trocean en intervalos. Esto dará como resultado residual de confusión y hacer que las interacciones engañosamente importantes como algunas interacciones pueden simplemente reflejar una falta de ajuste (aquí, underfitting) de algunos de los principales efectos. Hay un montón de inexplicable variación en el exterior de los quintiles. Además, es realmente imposible, precisamente interpretar el "quintil de efectos."

Para las comparaciones de interés, es más fácil imaginar como las diferencias en los valores de la predicción. Aquí hay un ejemplo de uso de la R rms paquete.

require(rms)
f <- ols(y ~ x1 + rcs(x2,3)*treat)  # or lrm, cph, psm, Rq, Gls, Glm, ...
# This model allows nonlinearity in x2 and interaction between x2 and treat.
# x2 is modeled as two separate restricted cubic spline functions with 3
# knots or join points in common (one function for the reference treatment
# and one function for the difference in curves between the 2 treatments)
contrast(f, list(treat='B', x2=c(.2, .4)),
            list(treat='A', x2=c(.2, .4)))
# Provides a comparison of treatments at 2 values of x2
anova(f) # provides 2 d.f. interaction test and test of whether treatment
# is effective at ANY value of x2 (combined treat main effect + treat x x2
# interaction - this has 3 d.f. here)

2voto

simmosn Puntos 304

Para ser más general, si se puede crear un (fila) del vector para la estimación de que usted se preocupa por $R$, de modo que su estimador es igual a $R\beta$, entonces la varianza de que el estimador es $R\hat{V}R^\prime$ donde $\hat{V}$ es la estimación de la varianza-covarianza de la matriz de su regresión. Su estimación se distribuye Normal o t, dependiendo de la suposición de que usted está haciendo (Ley de los Grandes Números v. suponiendo normalidad de los errores en el modelo de regresión). Alternativamente, usted puede probar múltiples estimaciones si dejas $R$ ser una matriz. Esto se conoce como una prueba de Wald. La distribución en este caso es una $\chi^2_r$ donde $r$ es el número de filas de la matriz (suponiendo que las filas son linealmente independientes).

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X