¿Cuál es el método preferido para realizar análisis post-hoc en pruebas con sujetos específicos? He visto trabajos publicados en los que se emplea el HSD de Tukey, pero una revisión de Keppel y Maxwell & Delaney sugiere que la probable violación de la esfericidad en estos diseños hace que el término de error sea incorrecto y que este enfoque sea problemático. Maxwell & Delaney ofrecen un enfoque del problema en su libro, pero nunca he visto que se haga así en ningún paquete estadístico. ¿Es apropiado el enfoque que ofrecen? ¿Sería razonable aplicar una corrección de Bonferroni o Sidak a múltiples pruebas t de muestras pareadas? Una respuesta aceptable proporcionará un código R general que pueda llevar a cabo análisis post-hoc en diseños simples, de múltiples vías y mixtos como los producidos por el programa ezANOVA
en la función ez
y citas apropiadas que puedan ser aceptadas por los revisores.
Respuestas
¿Demasiados anuncios?Actualmente estoy escribiendo un artículo en el que tengo el placer de realizar comparaciones entre sujetos y dentro de un mismo sujeto. Tras discutirlo con mi supervisor, decidimos realizar t -prueba y utiliza el Holm-Bonferroni method
( wikipedia ) para corregir la acumulación de errores alfa. Controla la tasa de error familiar, pero tiene mayor potencia que el procedimiento ordinario de Bonferroni. Procedimiento:
- Ejecuta el t -prueba todas las comparaciones que quieras hacer.
- Usted pide el p -valores según su valor.
- Pruebas el más pequeño p -valor contra alfa / k el segundo más pequeño contra alfa /( k - 1), y así sucesivamente hasta que la primera prueba resulte no significativa en esta secuencia de pruebas.
Cite Holm (1979), que puede descargarse a través del siguiente enlace wikipedia .
Eche un vistazo al multcomp -paquete y su viñeta Inferencia simultánea en modelos paramétricos generales . Creo que debe hacer lo que wan't y la viñeta tiene muy buenos ejemplos y amplias referencias.
Recuerdo algún debate sobre este tema en el pasado; no conozco ninguna aplicación del enfoque de Maxwell y Delaney, aunque no debería ser demasiado difícil. Eche un vistazo a " ANOVA de medidas repetidas con R ", que también muestra un método para abordar la cuestión de la esfericidad en HSD de Tukey .
También puede encontrar esta descripción de la prueba de Friedman de interés.
Existen DOS opciones para las pruebas F inferenciales en SPSS. Multivariante NO asume esfericidad, por lo que hace uso de una correlación por pares diferente para cada par de variables. Las "pruebas de efectos intra-sujetos", incluidas las pruebas post hoc, asumen la esfericidad y realizan algunas correcciones para utilizar una correlación común en todas las pruebas. Estos procedimientos son un legado de la época en la que los cálculos eran caros, y son una pérdida de tiempo con las modernas instalaciones informáticas.
Mi recomendación es tomar la F MULTIVARIATE omnibus para cualquier medida repetida. A continuación, realice una prueba t post hoc por pares, o ANOVA con sólo 2 niveles en cada comparación de medidas repetidas si también hay factores entre sujetos. Yo haría la simple corrección bon ferroni de dividir el nivel alfa por el número de pruebas.
Fíjate también en el tamaño del efecto [disponible en el cuadro de diálogo de opciones]. Los tamaños de efecto grandes que están "cerca" de ser significativos pueden merecer más atención [y futuros experimentos] que los efectos pequeños pero significativos.
Existe un enfoque más sofisticado en el procedimiento MIXED de SPSS, y también en paquetes menos fáciles de usar [pero gratuitos] como R.
En resumen, en SPSSS, F multivariante seguido de post hoc por pares o Bon Ferroni con Bonferroni debería ser suficiente para la mayoría de las necesidades.
Utilizaré la función de R qtukey(1-alfa, medias, df) para realizar los IC por familias.
Por ejemplo, la función de R qtukey(1-0.05, nmeans=4, df=16) dio el valor crítico $tukey_{0.05,4,16}$ =4.046093.
Dado un diseño entre sujetos con k=4 grupos, 5*k=20 tamaño de la muestra p.ej. (5-1)*k=16 df para $MS_{Error}$ , $\begin{align} & Tuke{{y}_{k,df}}=\frac{Ma{{x}_{j=1,2,\ldots ,k}}\left\{ {{z}_{j}} \right\}-Mi{{n}_{j=1,2,\ldots ,k}}\left\{ {{z}_{j}} \right\}}{\sqrt{\chi _{df}^{2}/df}} \\ & =\frac{Rang{{e}_{j=1,2,\ldots ,k}}\left\{ \frac{{{M}_{j}}-{{\mu }_{j}}}{{{\sigma }_{M}}} \right\}}{S{{E}_{M}}/{{\sigma }_{M}}} \\ & =\frac{Rang{{e}_{j=1,2,\ldots ,k}}\left\{ {{M}_{j}}-{{\mu }_{j}} \right\}}{S{{E}_{M}}} \\ & =\frac{Ma{{x}_{1\le {{j}_{1}},{{j}_{2}}\le k}}\left\{ \left| \left( {{M}_{{{j}_{1}}}}-{{\mu }_{{{j}_{1}}}} \right)-\left( {{M}_{{{j}_{2}}}}-{{\mu }_{{{j}_{2}}}} \right) \right| \right\}}{S{{E}_{M}}} \\ & =\frac{Ma{{x}_{1\le {{j}_{1}},{{j}_{2}}\le k}}\left\{ \left| \left( {{M}_{{{j}_{1}}}}-{{M}_{{{j}_{2}}}} \right)-\left( {{\mu }_{{{j}_{1}}}}-{{\mu }_{{{j}_{2}}}} \right) \right| \right\}}{S{{E}_{M}}} \\ \end{align}$
El radio de la familia 1-α CIs es $S{{E}_{M}}\times tuke{{y}_{\alpha ,4,16}}=\sqrt{\frac{M{{S}_{Error}}}{5}}\times tuke{{y}_{\alpha ,4,16}}$ porque $$ \begin{align} & \left\{ Tuke{{y}_{k,df}}\le tuke{{y}_{0.05,4,16}} \right\} \\ & =\left\{ \frac{Ma{{x}_{1\le {{j}_{1}},{{j}_{2}}\le k}}\left\{ \left| \left( {{M}_{{{j}_{1}}}}-{{M}_{{{j}_{2}}}} \right)-\left( {{\mu }_{{{j}_{1}}}}-{{\mu }_{{{j}_{2}}}} \right) \right| \right\}}{S{{E}_{M}}}\le tuke{{y}_{.05,4,16}} \right\} \\ & ={{\cap }_{1\le {{j}_{1}},{{j}_{2}}\le k}}\left\{ \left| \left( {{M}_{{{j}_{1}}}}-{{M}_{{{j}_{2}}}} \right)-\left( {{\mu }_{{{j}_{1}}}}-{{\mu }_{{{j}_{2}}}} \right) \right|\le S{{E}_{M}}\times tuke{{y}_{.05,4,16}} \right\} \\ \end{align} $$
Dado un diseño dentro de un sujeto con k=4 niveles, 17 tamaño de muestra, por ejemplo (17-1)=16 df para $MS_{Error}$ y ${{X}_{i,j}}=\left( {{\mu }_{j}}+{{v}_{i}} \right)+{{\varepsilon }_{i,j}}={{\widetilde{X}}_{i,j}}+{{\varepsilon }_{i,j}}$ el radio de los IC de la familia (1-α) es $\sqrt{M{{S}_{Error}}/17}\times tuke{{y}_{\alpha ,4,16}}$ porque
$$\begin{align} & Tuke{{y}_{k,df}}=\frac{Ma{{x}_{j=1,2,\ldots ,k}}\left\{ {{z}_{j}} \right\}-Mi{{n}_{j=1,2,\ldots ,k}}\left\{ {{z}_{j}} \right\}}{\sqrt{\chi _{df}^{2}/df}} \\ & =\frac{Rang{{e}_{j=1,2,\ldots ,k}}\left\{ \frac{Mea{{n}_{1\le i\le n}}\left\{ {{\widetilde{X}}_{i,j}}+{{\varepsilon }_{i,j}} \right\}-Mea{{n}_{1\le i\le n}}\left\{ {{\widetilde{X}}_{i,j}} \right\}}{{{\sigma }_{Mea{{n}_{1\le i\le n}}\left\{ {{\varepsilon }_{i,j}} \right\}}}} \right\}}{{{{\hat{\sigma }}}_{Mea{{n}_{1\le i\le n}}\left\{ {{\varepsilon }_{i,j}} \right\}}}/{{\sigma }_{Mea{{n}_{1\le i\le n}}\left\{ {{\varepsilon }_{i,j}} \right\}}}} \\ & =\frac{Rang{{e}_{j=1,2,\ldots ,k}}\left\{ {{M}_{j}}-\left( {{\mu }_{j}}+Mea{{n}_{1\le i\le n}}\left\{ {{v}_{i}} \right\} \right) \right\}}{{{{\hat{\sigma }}}_{Mea{{n}_{1\le i\le n}}\left\{ {{\varepsilon }_{i,j}} \right\}}}} \\ & =\frac{Rang{{e}_{j=1,2,\ldots ,k}}\left\{ {{M}_{j}}-{{\mu }_{j}} \right\}}{\sqrt{M{{S}_{Error}}/n}} \\ & =\frac{Ma{{x}_{1\le {{j}_{1}},{{j}_{2}}\le k}}\left\{ \left| \left( {{M}_{{{j}_{1}}}}-{{M}_{{{j}_{2}}}} \right)-\left( {{\mu }_{{{j}_{1}}}}-{{\mu }_{{{j}_{2}}}} \right) \right| \right\}}{\sqrt{M{{S}_{Error}}/n}} \\ \end{align}$$