En la estimación de máxima verosimilitud, se trata de maximizar $nC_x~p^x(1-p)^{n-x}$ Sin embargo, maximizar esto es equivalente a maximizar $p^x(1-p)^{n-x}$ para un fijo $x$ .
En realidad, la probabilidad para la gaussiana y la poisson tampoco implican sus constantes principales, por lo que este caso es igual que aquellos como w
Respondiendo al comentario de la OP
Aquí hay un poco más de detalle:
Primero, $x$ es el total número de aciertos mientras que $x_i$ es un único ensayo (0 o 1). Por lo tanto:
$$\prod_{i=1}^np^{x_i}(1-p)^{1-x_i} = p^{\sum_1^n x_i}(1-p)^{\sum_1^n1-x_i} = p^{x}(1-p)^{n-x}$$
Esto muestra cómo se obtienen los factores de la probabilidad (ejecutando los pasos anteriores hacia atrás).
¿Por qué desaparece la constante? Informalmente, y lo que la mayoría de la gente hace (incluyéndome a mí), es simplemente notar que la constante principal no afecta al valor de $p$ que maximiza la probabilidad, por lo que simplemente lo ignoramos (efectivamente lo ponemos a 1).
Podemos derivar esto tomando el logaritmo de la función de probabilidad y encontrando dónde su derivada es cero:
$$\ln\left(nC_x~p^x(1-p)^{n-x}\right) = \ln(nC_x)+x\ln(p)+(n-x)\ln(1-p)$$
Tome la derivada wrt $p$ y se ajusta a $0$ :
$$\frac{d}{dp}\ln(nC_x)+x\ln(p)+(n-x)\ln(1-p) = \frac{x}{p}- \frac{n-x}{1-p} = 0$$
$$\implies \frac{n}{x} = \frac{1}{p} \implies p = \frac{x}{n}$$
Obsérvese que la constante principal se ha eliminado del cálculo de la MLE.
Desde un punto de vista más filosófico, una probabilidad sólo tiene sentido para la inferencia hasta una constante multiplicadora, de manera que si tenemos dos funciones de probabilidad $L_1,L_2$ y $L_1=kL_2$ entonces son inferencialmente equivalentes. Esto se denomina Ley de Probabilidad . Por lo tanto, si estamos comparando diferentes valores de $p$ utilizando la misma función de probabilidad, el término principal se vuelve irrelevante.
A nivel práctico, la inferencia mediante la función de probabilidad se basa en realidad en el cociente de probabilidad, no en el valor absoluto de la probabilidad. Esto se debe a la teoría asintótica de los cocientes de probabilidad (que son asintóticamente chi-cuadrados, sujetos a ciertas condiciones de regularidad que suelen ser apropiadas). Las pruebas de razón de verosimilitud se ven favorecidas por la Lemma de Neyman-Pearson . Por lo tanto, cuando intentemos probar dos hipótesis simples, tomaremos el cociente y el factor principal común se cancelará.
NOTA: Esto no sucedería si se compararan dos modelos diferentes, digamos un binomio y un poisson. En ese caso, las constantes son importantes.
De las razones anteriores, la primera (irrelevancia para encontrar el maximizador de L) es la que responde más directamente a tu pregunta.