Pregunta
La varianza de una binomial negativa (NB) la distribución es siempre mayor que su media. Cuando la media de una muestra es mayor que su varianza, tratando de adaptarse a los parámetros de una NOTA con la máxima probabilidad o con el momento de la estimación fallará (no hay solución con finito de parámetros).
Sin embargo, es posible que una muestra tomada de una NOTA de distribución tiene una media mayor que la variación. Aquí está una reproducible ejemplo, en R.
set.seed(167)
x = rnbinom(100, size=3.2, prob=.8);
mean(x) # 0.82
var(x) # 0.8157576
Hay una probabilidad no nula de que la NOTA va a producir una muestra de que los parámetros no pueden ser estimados (por máxima verosimilitud y el momento de los métodos).
- Puede decente estimaciones dadas para esta muestra?
- Lo que hace la teoría de la estimación decir cuando los peritos no están definidos para todas las muestras?
Acerca de la respuesta
Las respuestas de @MarkRobinson y @Yves me hizo darme cuenta de que la parametrización es el principal problema. La densidad de probabilidad de las NB se suele escribir como
$$P(X = k) = \frac{\Gamma(r+k)}{\Gamma(r)k!}(1-p)^rp^k$$ o como $$P(X = k) = \frac{\Gamma(r+k)}{\Gamma(r)k!} \left(\frac{r}{r+m}\right)^r \left(\frac{m}{r+m}\right)^k.$$
Under the first parametrization, the maximum likelihood estimate is $(\infty, 0)$ whenever the variance of the sample is smaller than the mean, so nothing useful can be said about $p$. Under the second, it is $(\infty, \bar{x})$, so we can give a reasonable estimate of $m$. Por último, @MarkRobinson muestra que podemos resolver el problema de los infinitos valores mediante el uso de $\frac{r}{1+r}$ en lugar de $r$.
En conclusión, no hay nada fundamentalmente malo con esta estimación problema, excepto que usted no siempre puede dar valiosas interpretaciones de $r$ $p$ para cada muestra. Para ser justos, las ideas están presentes en ambas respuestas. Yo elegí la de @MarkRobinson como la correcta para los complementos que se le de.