14 votos

Estimador de máxima verosimilitud para la distribución binomial negativa

La pregunta es la siguiente:

Se recoge una muestra aleatoria de n valores de una distribución binomial negativa con parámetro k = 3.

  1. Encuentre el estimador de máxima verosimilitud del parámetro .
  2. Encuentre una fórmula asintótica para el error estándar de este estimador.
  3. Explica por qué la distribución binomial negativa será aproximadamente normal si el parámetro k es suficientemente grande. ¿Cuáles son los parámetros de esta aproximación normal?

Mi trabajo ha sido el siguiente:
1. Siento que esto es lo que se quiere, pero no estoy seguro de si soy preciso aquí o si puedo llevar esto más allá dada la información proporcionada? $$p(x) = {x-1 \choose k-1}\pi^k(1-\pi)^{x-k}\\ L(\pi) = \Pi_i^n p(x_n|\pi)\\ \ell(\pi) = \Sigma_i^n\ln(p(x_n|\pi))\\ \ell`(\pi) = \Sigma_i^n\dfrac{k}{\pi}-\dfrac{(x-k)}{(1-\pi)}$$

  1. Creo que lo que se pide es lo siguiente. Para la parte final me parece que tengo que sustituir $\hat{\pi}$ con $\dfrac{k}{x}$ $$\ell``(\hat{\pi}) = -\dfrac{k}{\hat{\pi}^2} + \dfrac{x}{(1-\hat{\pi})^2}\\ se(\hat{\pi}) = \sqrt{-\dfrac{1}{\ell``(\hat{\pi})}}\\ se(\hat{\pi}) = \sqrt{\dfrac{\hat{\pi}^2}{k} - \dfrac{(1-\hat{\pi})^2}{x}}\\$$

  2. No estoy muy seguro de cómo probar esto y todavía estoy investigando. Cualquier pista o enlace útil sería muy apreciado. Creo que está relacionado con el hecho de que una distribución binomial negativa puede ser vista como una colección de distribuciones geométricas o la inversa de una distribución binomial, pero no estoy seguro de cómo abordarlo.

Cualquier ayuda sería muy apreciada

0 votos

(1) Para encontrar la estimación de máxima verosimilitud $\hat \pi$ hay que encontrar el punto en el que la función de probabilidad logarítmica alcanza su máximo. Calculando la puntuación (la primera derivada de la función log-verosimilitud con respecto a $\pi$ ) es un comienzo - ¿qué valor tomará esto al máximo? (Y recuerde que no necesita estimar $k$ .)

0 votos

Se me olvidó añadir la derivada de la log-verosimilitud = 0 a efectos de calcular el máximo. Si he calculado esto correctamente (he estado trabajando en ello todavía desde la publicación), lo que tengo es $\dfrac{k}{\pi}-\dfrac{\Sigma_{i=0}^n(x_i-k)}{(1-\pi)} = 0$

0 votos

Tengan cuidado: $\sum_{i=1}^n \frac{k}{\pi} - \sum_{i=1}^n{\frac{(x_i-k)}{(1-\pi)}} = \ ?$ También hay que tener en cuenta que $i$ comienza a la 1.

7voto

Deep North Puntos 1260

1.

$p(x) = {x_i-1 \choose k-1}\pi^k(1-\pi)^{x_i-k}$

$L(\pi;x_i) = \prod_{i=1}^{n}{x_i-1 \choose k-1}\pi^k(1-\pi)^{x_i-k}\\$

$ \ell(\pi;x_i) = \sum_{i=1}^{n}[log{x_i-1 \choose k-1}+klog(\pi)+(x_i-k)log(1-\pi)]\\ \frac{d\ell(\pi;x_i)}{d\pi} = \sum_{i=1}^{n}[\dfrac{k}{\pi}-\dfrac{(x_i-k)}{(1-\pi)}]$

Ponerlo a cero,

$\frac{nk}{\pi}=\frac{\sum_{i=1}^nx_i-nk}{1-\pi}$

$\therefore$ $\hat\pi=\frac{nk}{\sum_{i=1}^nx}$

2.

Para la segunda parte hay que utilizar el teorema de que $\sqrt{n}(\hat\theta-\theta) \overset{D}{\rightarrow}N(0,\frac{1}{I(\theta)})$ , $I(\theta)$ es la información del pescador aquí. Por lo tanto, la desviación estándar de la $\hat\theta$ será $[nI(\theta)]^{-1/2}$ . O lo llamas como error estándar ya que aquí usas CLT.

Así que tenemos que calcular la información de Fisher para la distribución binomial negativa.

$\frac{\partial^2 \log(P(x;\pi))}{\partial\pi^2}=-\frac{k}{\pi^2}-\frac{x-k}{(1-\pi)^2}$

$I(\theta)=-E(-\frac{k}{\pi^2}-\frac{x-k}{(1-\pi)^2})=\frac{k}{\pi^2}+\frac{k(1-\pi)}{(1-\pi)^2\pi}$

Nota: $E(x) =\frac{k}{\pi}$ para la pmf binomial negativa

Por lo tanto, el error estándar para $\hat \pi$ es $[n(\frac{k}{\pi^2}+\frac{k(1-\pi)}{(1-\pi)^2\pi})]^{-1/2}$

Simplificando obtenemos $se(\pi)=\sqrt{\dfrac{\pi^2(\pi-1)}{kn}}$

3.

La distribución geométrica es un caso especial de la distribución binomial negativa cuando k = 1. Nota: $\pi(1-\pi)^{x-1}$ es una distribución geométrica

Por lo tanto, la variable binomial negativa puede escribirse como una suma de k variables aleatorias independientes e idénticamente distribuidas (geométricas).

Por tanto, según la CLT, la distribución binomial negativa será aproximadamente normal si el parámetro k es lo suficientemente grande

2 votos

Por favor, lea ¿Qué temas puedo preguntar aquí? sobre cuestiones de autoaprendizaje: en lugar de hacer los deberes por la gente, tratamos de ayudarles a hacerlos por sí mismos.

3 votos

Usted hacer es necesario tener en cuenta el tamaño de la muestra $n$ al calcular la MLE. Puede estar confundiendo una cuenta de $n$ observaciones independientes, cada uno de los números de ensayos necesarios para alcanzar $k$ fallos ( $x_1, x_2, \ldots, x_n$ ) con el relato de una única observación del número de ensayos necesarios para alcanzar $k$ fallos ( $n$ ). El primero da una probabilidad de $\sum_{i=1}^n{\pi^(1-\pi)^{x_i-k}}$ ; este último, $\pi^k(1-\pi)^{n-k}$ .

2 votos

Tienes razón, siempre me confundo en esta parte. Muchas gracias. También hago muchas preguntas en este tablero, pero realmente espero que la gente pueda darme una respuesta muy detallada, entonces puedo estudiarlo por mí mismo paso a paso.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X