Primero de todo, este es un auto-estudio de la cuestión, así que me voy a ir demasiado en cada uno y cada pequeño detalle técnico, pero yo no voy de una derivación frenesí. Hay muchas maneras de hacer esto. Voy a ayudar a usted por el uso general de las propiedades del estimador de máxima verosimilitud.
Información de fondo
En orden a resolver su problema creo que es necesario para el estudio de máxima verosimilitud desde el principio. Usted probablemente se está utilizando algún tipo de libro de texto, y la respuesta debe realmente estar allí en algún lugar. Voy a ayudarte a encontrar lo que busca.
La máxima Probabilidad es un método de estimación que es básicamente lo que nosotros llamamos un M-estimador de (pensar en la "M" como "maximizar/minimizar"). Si las condiciones requeridas para utilizar estos métodos están satisfechos, podemos demostrar que las estimaciones de los parámetros son consistentes y asintóticamente una distribución normal, por lo tanto tenemos:
$$
\sqrt{N}(\hat\theta\theta_0)\desbordado{d} {\}\text{Normal}(0,A_0^{-1}B_0A_0^{-1}),
$$
donde $A_0$ $B_0$ son algunas de las matrices. Cuando se utiliza de máxima verosimilitud, podemos mostrar que $A_0=B_0$, y así tenemos que una simple expresión:
$$
\sqrt{N}(\hat\theta\theta_0)\desbordado{d} {\}\text{Normal}(0,A_0^{-1}).
$$
Tenemos que $A_0\equiv -E(H(\theta_0))$ donde $H$ indica el estado de hesse. Esto es lo que usted necesita para estimar con el fin de obtener su varianza.
Su problema específico
Entonces, ¿cómo podemos hacerlo? Aquí vamos a llamar a nuestro vector de parámetros $\theta$ lo que hace: $p$. Esto es sólo un escalar, por lo que nuestro "score" es simplemente la derivada y la "hesse" es sólo el de segundo orden derivados. Nuestra probabilidad de la función se puede escribir como:
$$
l(p)=(p)^x (1-p)^{n-x},
$$
que es lo que queremos maximizar. Se utiliza la primera derivada de esta en el registro o en la probabilidad de encontrar su $p^*$. En lugar de establecer la primera derivada es igual a cero, podemos diferenciar de nuevo, para encontrar el segundo orden derivados de $H(p)$. En primer lugar tomamos registros:
$$
ll(p)\equiv\log(l(p))=x\log(p)+(n-x)\log(1-p)
$$
A continuación, nuestro 'score' es:
$$
ll'(p)=\frac{x}{p}+\frac{n-x}{1-p},
$$
y nuestro 'saco':
$$
H(p)=ll"(p)=-\frac{x}{p^2}-\frac{n-x}{(1-p)^2}.
$$
A continuación, nuestra teoría general de arriba le dice simplemente que se encontrar $(-E(H(p)))^{-1}$. Ahora sólo tienes que tomar la expectativa de $H(p)$ (Sugerencia: use $E(x/n)=p$), multiplique por $-1$ y tome la inversa. Entonces usted tendrá su varianza del estimador.