Esta sería la opción más básica de procedimiento detrás de cualquier simulación de este tipo:
Los errores de tipo I:
- Tener una computadora que genere un conjunto (de tamaño $n$) de números pseudo aleatorios que se ajusten a una distribución particular (el normal sería de lo más típico).
- Generar un segundo conjunto idéntico (es decir, la misma distribución, parámetros, y el tamaño).
- Llevar a cabo una prueba estadística de estos datos (como he descrito esto, un t-test sería apropiado).
- Almacenar el resultado p-valor.
- Repetir (repeat) el procedimiento anterior muchas veces (por ejemplo, 10k es popular).
- Determinar la proporción observada de p-valores caen por debajo de su elegida $\alpha$ (por lo general .05).
(Tenga en cuenta que esta proporción observada debe estar muy cerca de $\alpha$.)
Tipo II errores (modificar el procedimiento anterior como sigue):
Para el segundo paso: Generar un segundo conjunto de números pseudo aleatorios que difieren desde el primer set en un pre-especificado de forma (normalmente la media se diferencian por una cierta cantidad).
En el sexto paso: la proporción observada de los valores de p por debajo de $\alpha$ casi seguro que difieren de $\alpha$ por una gran cantidad. La proporción observada es una estimación de la potencia estadística de la prueba para que la situación exacta (es decir, los datos de esas distribuciones, con esos parámetros, con los $n$'s).
El uso de simulaciones en la manera como este para explorar las propiedades de las pruebas o situaciones, o para conducir energía de análisis es muy común. Además, han sido comúnmente utilizadas en este sitio para demostrar / explicar los conceptos estadísticos. Aquí son algunos de los mensajes que usted puede explorar si usted desea: