Supongamos que tenemos un conjunto de independientes, idénticamente distribuidas univariante observaciones $x$ y dos hipótesis acerca de cómo $x$ fue generado:
$H_0$: $x$ se extrae de una sola distribución de Gauss con desconocidos media y la varianza.
$H_A$: $x$ se dibuja a partir de una mezcla de dos Gaussianas con desconocidos media, la varianza y el coeficiente de mezcla.
Si entiendo correctamente, estos son modelos anidados, puesto que el modelo que $H_0$ representa puede ser descrito en términos de $H_A$ si se limitan los parámetros de las dos Gaussianas para ser idénticos o restringir la mezcla coeficiente a cero para uno de los dos Gaussianas.
Por lo tanto, parece que debería ser capaz de utilizar el E-M algoritmo para la estimación de los parámetros de $H_A$ y, a continuación, utilizar Wilks' Teorema para determinar si la probabilidad de los datos en virtud de $H_A$ es significativamente mayor que la de $H_0$. Hay un pequeño salto de la fe en la asunción de que el E-M algoritmo converge a la máxima probabilidad de aquí, pero es que yo estoy dispuesto a hacer.
He intentado esto en una simulación de monte carlo, suponiendo que $H_A$ tiene más de 3 grados de libertad de $H_0$ (la media y la varianza para el segundo de Gauss y la mezcla de parámetro). Cuando me simulada de los datos de $H_0$, tengo un P-valor de la distribución que fue sustancialmente no uniforme y se enriquece de los pequeños P-valores. (Si E-M no convergen a la verdad de máxima verosimilitud, el opuesto exacto sería de esperar.) ¿Qué pasa con mi solicitud de Wilks' teorema de que la creación de este sesgo?