Gran pregunta! Vamos un paso atrás y entender lo que Bonferroni hizo, y por qué era necesario para Benjamini y Hochberg para desarrollar una alternativa.
Se ha convertido en necesaria y obligatoria en los últimos años para realizar un procedimiento llamado de múltiples pruebas de corrección. Esto es debido a la creciente cantidad de pruebas que se realiza simultáneamente con un alto rendimiento de las ciencias, especialmente en la genética con la llegada de todo el genoma estudios de asociación (GWAS). Disculpe mi referencia a la genética, como es mi área de trabajo. Si estamos realizando 1.000.000 de pruebas simultáneamente en $P = 0.05$, sería de esperar que $50,000$ de falsos positivos. Este es ridículamente grande, y por lo tanto se debe controlar el nivel de significancia es evaluado. La corrección de bonferroni, que es, dividiendo el umbral de aceptación (0,05) por el número de pruebas independientes $(0.05/M)$ corrige para la familia sabia de la tasa de error ($FWER$).
Esto es cierto porque la FWER es relativa a la prueba de sabios de la tasa de error ($TWER$) por la ecuación de $FWER = 1 - (1 - TWER)^M$. Es decir, el 100 por ciento menos de 1 reste la prueba sabio de la tasa de error elevado a la potencia del número de pruebas independientes realizadas. Haciendo la suposición de que $(1- 0.05)^{1/M} = 1-\frac{0.05}{M}$ da $TWER \approx \frac{0.05}{M}$, que es la aceptación de valor P ajustado para M completamente independiente de pruebas.
El problema que nos encontramos ahora, como lo hizo Benjamini y Hochberg, es que no todas las pruebas son completamente independientes. Por lo tanto, la corrección de Bonferroni, aunque robusto y flexible, es una sobrecorrección. Considere el caso de la genética, donde dos genes están ligados en un caso llamado desequilibrio de ligamiento; es decir, cuando un gen tiene una mutación, la otra es más probable que se expresa. Estos son, obviamente, no pruebas independientes, aunque en la corrección de bonferroni se supone que para ser. Es aquí donde empezamos a ver que dividir el valor de P por M es la creación de un umbral que es artificialmente baja, debido a la asumida pruebas independientes que realmente influyen mutuamente, ergo la creación de un M que es demasiado grande para nuestra situación real, donde las cosas no son independientes.
El procedimiento sugerido por Benjamini y Hochberg, y aumentada por Yekutieli (y muchos otros) es más liberal que la de Bonferroni, y de hecho la corrección de Bonferroni, sólo se utiliza en la gran mayoría de los estudios ahora. Esto es debido a que, en el FDR, suponemos cierta interdependencia en la parte de las pruebas y por lo tanto una M que es demasiado grande y poco realista, y deshacerse de los resultados que nosotros, en realidad, importa. Por lo tanto, en el caso de 1000 pruebas que no son independientes, el verdadero M no sería 1000, pero algo más pequeño debido a las dependencias. Así, cuando dividimos 0.05 por 1000, el umbral es demasiado estricta y evita algunas de las pruebas que puedan ser de su interés.
No estoy seguro de si la atención acerca de la mecánica detrás de la de control de la dependencia, aunque si he vinculado la Yekutieli de papel para su referencia. Yo también voy a adjuntar un par de otras cosas para su información y la curiosidad.
Espero que esto ha ayudado de alguna manera, si he tergiversado nada por favor, hágamelo saber.
~ ~ ~
Referencias
Yekutieli papel en positivo dependencias -- http://www.math.tau.ac.il/~ybenja/MyPapers/benjamini_yekutieli_ANNSTAT2001.pdf
( ver 1.3 -- El Problema. )
Explicación de la corrección de Bonferroni y otras cosas de interés ... la Naturaleza Genética de los comentarios. El Poder estadístico y pruebas de significación en gran escala de los estudios genéticos -- Pak C Farsa y Shaun M Purcell
( ver el cuadro 3. )
http://en.wikipedia.org/wiki/Familywise_error_rate
EDITAR:
En mi respuesta anterior, yo no directamente definir positivo de dependencia, que fue lo que se preguntó. En el Yekutieli papel, sección 2.2
es el derecho Positivo de la dependencia, y me sugieren que este, está muy detallado. Sin embargo, creo que podemos hacer un poco más breve.
El papel al principio comienza hablando sobre positivas de dependencia, se utiliza como un término vago que es interpretable, pero no es específico. Si usted lee las pruebas, lo que se menciona como positivo la dependencia que se llama partido de lo postula, definido anteriormente como "regresión Positivo de dependencia en cada uno de ellos a partir de un subconjunto $I_0$". $I_0$ es el subconjunto de pruebas que permiten correctamente la hipótesis nula (0). PRD se define como la siguiente.
$X$ es nuestro conjunto de pruebas estadísticas, y $I_0$ es nuestro conjunto de pruebas estadísticas que permiten correctamente el valor null. Así, por $X$ PRD (positivamente dependiente) en $I_0$, la probabilidad de $X$ ser un elemento de $I_0$ (null) aumenta en la no disminución de conjunto de la estadística de prueba $x$ (elementos de $X$).
La interpretación de este, como hemos pedido a nuestros $P$-valores de menor a mayor, la probabilidad de ser parte de la nula conjunto de la estadística de prueba es la más baja en el menor valor de P, y aumenta a partir de ahí. El FDR establece un límite en esta lista de la estadística de prueba, tales que la probabilidad de ser parte de la nula conjunto es de 0.05. Esto es lo que estamos haciendo cuando el control de FDR.
En suma, la propiedad de dependencia positiva es realmente propiedad de regresión positivo de la dependencia de nuestro conjunto de pruebas estadísticas sobre nuestro conjunto de true null de la estadística de prueba, y el control de un FDR de 0,05; así como los valores de P ir de abajo hacia arriba (el paso del procedimiento), aumento en la probabilidad de ser parte del conjunto null.
Mi anterior respuesta en los comentarios acerca de la matriz de covarianza no era incorrecta, sólo un poco vaga. Espero que esto ayude un poco más.