Esta es una cuestión amplia, pero dado el Box, Hunter y Hunter cita es verdad creo que lo que se pretende es
1) La calidad del diseño experimental
- la aleatorización, los tamaños de las muestras, control de factores de confusión,...
2) La calidad de la implementación del diseño.
- la adherencia al protocolo, el error de medición, manejo de datos, ...
3) La calidad del modelo para reflejar con precisión el diseño.
- el bloqueo de las estructuras están fielmente representadas, apropiado de grados de libertad asociados con los efectos, los estimadores son insesgados, ...
En el riesgo de afirmar lo obvio voy a tratar de golpear en los puntos clave de cada uno de ellos:
(1) es un sub-campo de la estadística, pero en su forma más básica, pienso que todo se reduce al hecho de que al momento de realizar la inferencia causal podemos comenzar idealmente con unidades idénticas que son monitoreados en entornos idénticos aparte de ser asignados a un tratamiento. Sistemática de las diferencias entre los grupos después de la asignación son entonces lógicamente atribuible al tratamiento (podemos inferir la causa). Pero, el mundo no es agradable y que las unidades difieren antes del tratamiento y evironments durante los experimentos no están perfectamente controlados. Así que "el control de lo que podemos y desordenar lo que no se puede", que ayuda a asegurar que no habrá sesgo sistemático debido a la confusión que hemos controlado o al azar. Uno de los problemas es que los experimentos que tienden a ser difícil (imposible) y caro y una gran variedad de diseños han sido desarrollados de manera eficiente extraer tanta información como sea posible en tan cuidadosamente controladas de un ajuste como sea posible, dados los costos. Algunos de estos son bastante rigurosos (por ejemplo, en la medicina de la doble-ciego, aleatorizado, controlado con placebo) y otros menos (por ejemplo, diversas formas de "cuasi-experimentos").
(2) también es un gran problema y que los estadísticos en general, no pensar...aunque debería. En estadística aplicada trabajo puedo recordar incidentes en que los 'efectos' que se encuentra en los datos eran falsos resultados de la inconsistencia de la recopilación de datos o la manipulación. También me pregunto cómo a menudo la información sobre la verdadera causal de los efectos de interés se pierde debido a estos problemas (creo que los estudiantes en las ciencias aplicadas generalmente tienen poca, o ninguna formación sobre las maneras en que los datos pueden resultar dañados - pero me estoy saliendo del tema aquí...)
(3) es otra gran técnica, y otro paso necesario en el objetivo de la inferencia causal. A un cierto grado esto se realiza debido a que el diseño de la multitud desarrollar diseños y modelos juntos (ya que la inferencia a partir de un modelo es la meta, los atributos de los estimadores de la unidad de diseño). Pero esto sólo nos lleva tan lejos, porque en el 'mundo real' terminamos el análisis de datos experimentales de la no-diseños de libros de texto y, a continuación, no tenemos que pensar mucho acerca de cosas como los controles adecuados y cómo se debe ingresar el modelo y lo asocia grados de libertad debe ser y si la hipótesis se cumple si si no cómo ajustar de violaciones y el grado de robustez de los estimadores son para cualquier resto de violaciones y...
De todos modos, es de esperar que algunos de los de arriba ayuda en la forma de pensar acerca de las consideraciones en la toma de la inferencia causal a partir de un modelo. Me olvido de algo grande?