Loading [MathJax]/jax/element/mml/optable/BasicLatin.js

6 votos

¿Cómo calcular la eficiencia?

Supongamos que en lugar de maximizar la probabilidad de que me maximizar alguna otra función g. Como probabilidad, esta función se descompone más de x (es decir, g({x1,x2})=g({x1})g({x2}), y "máximo-g" estimador es consistente. ¿Cómo puedo calcular asintótica de la varianza de este estimador?

Actualización 8/24/10: Percy Liang pasa a través de la derivación de la varianza asintótica en un contexto similar en Un análisis asintótico de la generativa, discriminativo, y pseudolikelihood estimadores.

Actualización 9/14/10: Más útil teorema parece ser de Van der Vaart es "Asintótico"Estadísticas de

Bajo algunas condiciones de regularidad, la distribución de este estimador enfoques normal, centrado alrededor de su valor esperado θ0 con matriz de covarianza

¨g(θ0)1E[˙g˙gT]¨g(θ0)1n

Donde ¨g es una matriz de las segundas derivadas, ˙g está degradado, n es el número de muestras

5voto

Kristof Provost Puntos 293

Creo que la solución estándar va como sigue. Sólo voy a hacer el escalar caso, el multi parámetro caso es similar. Su función objetivo es gN(p,X1,,XN) donde p es el parámetro que se desea estimar y X1,,XN son observados de las variables aleatorias. Por simplicidad de notación que me limitaré a escribir la función objetivo como g(p) a partir de ahora.

Tenemos algunos de los supuestos. En primer lugar, voy a asumir que usted ya ha demostrado que el maximizador de g es un estimador consistente (de hecho, esto tiende a ser la parte más difícil!). Por lo tanto, si el "verdadero" valor del parámetro es p0 y el estimador es ˆp=argmax entonces tenemos que \hat{p} \rightarrow p_0 casi seguramente como N \rightarrow \infty. Nuestra segunda hipótesis es que el g es dos veces derivable en un barrio acerca de la p_0 (a veces se puede salir sin esta suposición, pero la solución se vuelve más dependiente del problema). En vista de la consistencia fuerte que puede y va a suponer que \hat{p} es dentro de este barrio.

Denotar por g' g'' la primera y la segunda derivadas de g con respecto al p. Entonces g'(p_0) - g'(\hat{p}) = (p_0 - \hat{p})g''(\bar{p}) donde \bar{p} se encuentra entre \hat{p}p_0. Ahora ya \hat{p} maximiza g tenemos g'(\hat{p}) = 0, por lo que (p_0 - \hat{p}) = \frac{g'(p_0)}{g''(\bar{p})} y debido a que \hat{p} \rightarrow p_0 casi seguramente, a continuación, \bar{p} \rightarrow p_0 casi seguramente por lo g''(\bar{p}) \rightarrow g''(p_0) casi seguramente y (p_0 - \hat{p}) \rightarrow \frac{g'(p_0)}{g''(p_0)} casi seguramente. Así, con el fin de describir la distribución de las p_0 - \hat{p}, es decir, los estimadores teorema central del límite, usted necesita para encontrar la distribución de \frac{g'(p_0)}{g''(p_0)}. Ahora, esto se convierte en dependiente del problema.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X