Muchas veces me he encontrado con advertencias informales contra el "espionaje de datos" (aquí está un ejemplo divertido ), y creo que tengo una idea intuitiva de lo que significa, aproximadamente, y de por qué puede ser un problema.
Por otro lado, el "análisis exploratorio de datos" parece ser un procedimiento perfectamente respetable en estadística, al menos a juzgar por el hecho de que un libro con ese título sigue siendo citado reverencialmente como un clásico.
En mi trabajo me encuentro a menudo con lo que me parece un "espionaje de datos" desenfrenado, o quizás sería mejor describirlo como "datos tortura ", aunque quienes lo hacen parecen ver la misma actividad como una "exploración" totalmente razonable y sin problemas.
Este es el escenario típico: se lleva a cabo un costoso experimento (sin pensar mucho en el análisis posterior), los investigadores originales no pueden discernir fácilmente una "historia" en los datos recogidos, se trae a alguien para que aplique alguna "magia estadística", y que, después de cortar en rodajas y en cubos los datos en todos los sentidos, finalmente consigue extraer de ellos alguna "historia" publicable.
Por supuesto, suele haber alguna "validación" en el informe/documento final para demostrar que el análisis estadístico es correcto, pero la descarada actitud de publicar a toda costa que hay detrás me hace dudar.
Por desgracia, mi limitada comprensión de lo que hay que hacer y lo que no hay que hacer en el análisis de datos me impide ir más allá de esas vagas dudas, por lo que mi respuesta conservadora es básicamente ignorar esos hallazgos.
Mi esperanza es que no sólo una mejor comprensión de la distinción entre exploración y fisgoneo/tortura, sino también, y lo que es más importante, una mejor comprensión de los principios y las técnicas para detectar cuándo se ha cruzado esa línea, me permitirá evaluar tales hallazgos de una manera que pueda dar cuenta razonablemente de un procedimiento analítico menos que óptimo, y así poder ir más allá de mi actual respuesta bastante simplista de incredulidad general.
EDIT: Gracias a todos por los interesantes comentarios y respuestas. A juzgar por su contenido, creo que no he explicado suficientemente bien mi pregunta. Espero que esta actualización aclare las cosas.
Mi pregunta aquí no se refiere tanto a lo que I debe hacer para no torturar mi datos (aunque esta es una cuestión que también me interesa), sino más bien: ¿cómo debo considerar (o evaluar) los resultados que Sé que es un hecho han llegado a través de esa "tortura de datos".
La situación se vuelve más interesante en aquellos casos (mucho más raros) en los que, además, estoy en condiciones de opinar sobre esos "hallazgos" antes de que se presenten para su publicación.
En este punto el más Lo que puedo hacer es decir algo así como "no sé cuánta credibilidad puedo dar a estas conclusiones, dado lo que sé sobre las suposiciones y los procedimientos que se utilizaron para obtenerlas". Esto es demasiado vago para que valga la pena siquiera decirlo. Querer ir más allá de esa vaguedad fue la motivación de mi post.
Para ser justos, mis dudas aquí se basan en algo más que en métodos estadísticos aparentemente cuestionables. De hecho, veo esto último más bien como consecuencia del problema más profundo: una combinación de una actitud arrogante hacia el diseño experimental junto con un compromiso categórico de publicar los resultados tal cual (es decir, sin más experimentos). Por supuesto, siempre se prevén proyectos de seguimiento, pero es simplemente fuera de toda duda que no salga ni un solo papel de, por ejemplo, "una nevera llena de 100.000 muestras".
La estadística sólo entra en escena como medio para cumplir este objetivo supremo. La única justificación para aferrarse a las estadísticas (que son secundarias en todo el escenario) es que un desafío frontal al supuesto de "publicación a toda costa" es simplemente inútil.
De hecho, sólo se me ocurre una respuesta eficaz en estas situaciones: proponer alguna prueba estadística (que no requiera experimentación adicional) que ponga realmente a prueba la calidad del análisis. Pero no tengo los conocimientos de estadística para ello. Mi esperanza (ingenua en retrospectiva) era averiguar qué podía estudiar que me permitiera proponer tales pruebas...
Mientras escribo esto se me ocurre que, si no existe ya, al mundo le vendría bien una nueva sub-rama de la estadística, dedicada a las técnicas para detectar y exponer la "tortura de datos". (Por supuesto, no me refiero a dejarme llevar por la metáfora de la "tortura": la cuestión no es la "tortura de datos" en sí, sino los "hallazgos" espurios a los que puede conducir).