17 votos

Imposible estimación problema?

Pregunta

La varianza de una binomial negativa (NB) la distribución es siempre mayor que su media. Cuando la media de una muestra es mayor que su varianza, tratando de adaptarse a los parámetros de una NOTA con la máxima probabilidad o con el momento de la estimación fallará (no hay solución con finito de parámetros).

Sin embargo, es posible que una muestra tomada de una NOTA de distribución tiene una media mayor que la variación. Aquí está una reproducible ejemplo, en R.

set.seed(167)
x = rnbinom(100, size=3.2, prob=.8);
mean(x) # 0.82
var(x) # 0.8157576

Hay una probabilidad no nula de que la NOTA va a producir una muestra de que los parámetros no pueden ser estimados (por máxima verosimilitud y el momento de los métodos).

  1. Puede decente estimaciones dadas para esta muestra?
  2. Lo que hace la teoría de la estimación decir cuando los peritos no están definidos para todas las muestras?

Acerca de la respuesta

Las respuestas de @MarkRobinson y @Yves me hizo darme cuenta de que la parametrización es el principal problema. La densidad de probabilidad de las NB se suele escribir como

$$P(X = k) = \frac{\Gamma(r+k)}{\Gamma(r)k!}(1-p)^rp^k$$ o como $$P(X = k) = \frac{\Gamma(r+k)}{\Gamma(r)k!} \left(\frac{r}{r+m}\right)^r \left(\frac{m}{r+m}\right)^k.$$

Under the first parametrization, the maximum likelihood estimate is $(\infty, 0)$ whenever the variance of the sample is smaller than the mean, so nothing useful can be said about $p$. Under the second, it is $(\infty, \bar{x})$, so we can give a reasonable estimate of $m$. Por último, @MarkRobinson muestra que podemos resolver el problema de los infinitos valores mediante el uso de $\frac{r}{1+r}$ en lugar de $r$.

En conclusión, no hay nada fundamentalmente malo con esta estimación problema, excepto que usted no siempre puede dar valiosas interpretaciones de $r$ $p$ para cada muestra. Para ser justos, las ideas están presentes en ambas respuestas. Yo elegí la de @MarkRobinson como la correcta para los complementos que se le de.

11voto

amoeba Puntos 464

enter image description hereBásicamente, para el ejemplo, la estimación del parámetro de tamaño está en el límite del espacio de parámetros. También se podría considerar la posibilidad de un reajuste de parámetros tales como d = tamaño / (tamaño+1); cuando el tamaño=0, d=0, cuando el tamaño tiende a infinito, d enfoques 1. Resulta que, para la configuración de los parámetros que le han dado, las estimaciones del tamaño del infinito (d cercano a 1) pasan aproximadamente el 13% del tiempo de la Cox-Reid ajustar el perfil de la probabilidad (APL) de las estimaciones, que es una alternativa a la MLE estimaciones para NB (en el ejemplo mostrado aquí). Las estimaciones de la media del parámetro (o 'problemas') parecen estar bien (ver la figura, las líneas azules son los verdaderos valores, el punto rojo es la estimación de su semilla=167 de la muestra). Más detalles sobre la APL teoría están aquí.

Así que, yo diría que 1.: Decente estimaciones de los parámetros se puede tener .. size=infinito o dispersión=0 es una estimación razonable dado el ejemplo. Considere la posibilidad de un parámetro diferente del espacio y de las estimaciones será finito.

8voto

user10479 Puntos 395

En la Binomial Negativa (NB) ejemplo, la probabilidad puede tener su máximo a una distancia infinita de $p \to 0$$r \to \infty$, en el límite del dominio $\Theta := (0,\,1)\times(0,\,\infty)$. Si resulta que la distribución de Poisson lleva para algunos significa $\lambda >0$ un riesgo que es mayor que el NB, entonces la probabilidad puede aumentar al $[p,\,r] \in \Theta$ se mueve a lo largo de una ruta con $p \to 0$, $r \to \infty$ $rp/(1-p) \to \lambda$ . La probabilidad de que el de máxima verosimilitud, se encuentra en el límite no es cero.

Un problema similar pero con más simples de diagnóstico es para el Lomax distribución: se sabe que el ML estimación de la forma es infinita cuando la muestra el coeficiente de variación $\text{CV} < 1$. Sin embargo, el la probabilidad de este evento es positivo para cualquier tamaño de muestra, y es por ejemplo,$>0.3$$\alpha = 20$$n = 200$.

ML propiedades son de un gran tamaño de la muestra: bajo la regularidad de las condiciones, un ML de cálculo se muestra a existir, a ser único y tienden a la verdadera parámetro. Sin embargo, para un finito dado tamaño de la muestra, la estimación ML puede no existir en el dominio, por ejemplo, dado que el máximo se alcanza en la frontera. También puede existen en un dominio que es más grande que el utilizado para la maximización.

En la Lomax ejemplo, algunas personas decidieron utilizar la exponencial la distribución, que es el límite de $\alpha \to \infty$ y $\lambda / \alpha \a \theta >0$. Esto se reduce a la aceptación de una infinita ML la estimación. Desde la Lomax es un re-parametrización de la dos parámetros Generalizada de Pareto Distribución $\text{GPD}(\sigma,\,\xi)$ con forma de $\xi >0$, podríamos como ajuste de una GPD, encontrar $\widehat{\xi} < 0$ en lugar de la exponencial $\widehat{\xi} = 0$. Para el NB ejemplo, podemos elegir para ajustarse a una distribución de Poisson aceptando un valor de límite de la NB parámetro.

Por el bien de la invariancia por reparametrización, creo que infinito de parámetros puede tener sentido en algunos casos.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X