Tengo el siguiente problema: he realizado 3200 correlaciones entre una determinada medida de conectividad y 1 resultado conductual en una muestra de sujetos. Como las correlaciones individuales (representadas por R y p) no son independientes entre sí, la corrección de Bonferroni o FDR (con valores p dados) no dejó ninguna correlación significativa.
Así que intenté seguir este enfoque de permutación: Mientras permutaba los datos de conectividad de los sujetos disponibles, por un lado, y también permutaba los datos de comportamiento, por otro, creé una nueva pseudo-muestra (en la que la conectividad y el comportamiento de los sujetos ya no coinciden) para la que calculé de nuevo todas las correlaciones (3200). Hice esto 10000 veces y así generé 10000x3200 valores p aleatorios basados en el conjunto de datos reales. Una vez ordenados todos los valores p (de menor a mayor), miré el 5% más bajo de esos valores p (alfa): Las correlaciones aleatorias alcanzarían un valor p de 0,01 por un 5% de azar. En otro grupo, el 5% del valor p más bajo sólo alcanzaría 0,052.
Mi pregunta sería si ésta sería una forma plausible de corregir las correlaciones múltiples en un conjunto de datos con muchas correlaciones simples no independientes. En particular, ¿es razonable utilizar un valor p ajustado que sea incluso más alto que el original, 0,05? Tal vez la probabilidad de alcanzar el 0,05 en ese conjunto de datos sea incluso inferior al 5% debido a la varianza, etc.
Espero sus respuestas y comentarios.
Muchas gracias
Best, Robert