3 votos

Ajuste del valor p mediante permutación para correlaciones múltiples

Tengo el siguiente problema: he realizado 3200 correlaciones entre una determinada medida de conectividad y 1 resultado conductual en una muestra de sujetos. Como las correlaciones individuales (representadas por R y p) no son independientes entre sí, la corrección de Bonferroni o FDR (con valores p dados) no dejó ninguna correlación significativa.

Así que intenté seguir este enfoque de permutación: Mientras permutaba los datos de conectividad de los sujetos disponibles, por un lado, y también permutaba los datos de comportamiento, por otro, creé una nueva pseudo-muestra (en la que la conectividad y el comportamiento de los sujetos ya no coinciden) para la que calculé de nuevo todas las correlaciones (3200). Hice esto 10000 veces y así generé 10000x3200 valores p aleatorios basados en el conjunto de datos reales. Una vez ordenados todos los valores p (de menor a mayor), miré el 5% más bajo de esos valores p (alfa): Las correlaciones aleatorias alcanzarían un valor p de 0,01 por un 5% de azar. En otro grupo, el 5% del valor p más bajo sólo alcanzaría 0,052.

Mi pregunta sería si ésta sería una forma plausible de corregir las correlaciones múltiples en un conjunto de datos con muchas correlaciones simples no independientes. En particular, ¿es razonable utilizar un valor p ajustado que sea incluso más alto que el original, 0,05? Tal vez la probabilidad de alcanzar el 0,05 en ese conjunto de datos sea incluso inferior al 5% debido a la varianza, etc.

Espero sus respuestas y comentarios.

Muchas gracias

Best, Robert

1voto

mat_geek Puntos 1367

Westfall y Young han propuesto enfoques de remuestreo para el ajuste del valor p que se aplican en SAS mediante el procedimiento MULTTEST. Se utilizan métodos de permutación y bootstrap, pero pueden ser diferentes de lo que usted está haciendo. Puede consultar la guía del usuario de SAS para el procedimiento MULTTEST o leer su libro. Aquí hay un enlace de amazon a su libro. http://www.amazon.com/Resampling-Based-Multiple-Testing-Adjustment-Probability/dp/0471557617/ref=sr_1_1?s=books&ie=UTF8&qid=1340734744&sr=1-1&keywords=Westfall+y+Joven

0voto

JohnRos Puntos 3211

Antes de intentar hacer cálculos pesados, podrías probar con métodos más potentes. Sólo puedo suponer que ha utilizado Benjamini-Hochberg para el control de FDR. Hay varios métodos "adaptativos" en el sentido de que intentan estimar la proporción de hipótesis nulas verdaderas, y utilizan esa proporción para un control FDR más estricto. Busque en Google "FDR adaptativo" o eche un vistazo al vídeo de introducción de Blanchard: http://videolectures.net/acs07_blanchard_apc/

Re permutaciones--admito que no entendí del todo lo que intentaste pero aquí hay algunas ideas:

  1. Sólo puedo suponer que las 3200 correlaciones son lugares diferentes y que quieres conservar la dependencia espacial.
  2. Bajo una hipótesis nula global de no correlación en ninguna parte, la asignación de la conectividad al comportamiento es arbitraria, por lo que se puede reasignar permutar el comportamiento o la conectividad sobre los sujetos.
  3. Tenga en cuenta que debe permutar todas las ubicaciones de forma similar para conservar la dependencia espacial.
  4. Se puede controlar el FWE asumiendo el nulo global, permutando como se ha descrito y fijando el corte en el percentil 1 de la distribución del valor p mínimo. Tenga en cuenta que su conclusión sería: "hay correlación en alguna parte".
  5. El uso de permutaciones para el control de la FDR es más delicado, ya que no querrá asumir un nulo global, por lo que no puede permutar libremente en todos los lugares. Admito que no veo cómo hacerlo.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X