20 votos

Derivando Momento generadora de funciones de la binomial negativa?

Mi libro de texto hizo la derivación de la distribución binomial, pero omite las derivaciones para la Distribución Binomial Negativa.

Sé que se supone que debe ser similar a la Geométrica, pero no se limita sólo a uno de éxito/fracaso. (me.e de la manera que yo entiendo es que la binomial negativa es la suma de independiente geométricas variables aleatorias). Por ejemplo: $Y_1 +Y_2 +Y_3+\cdots $ donde $Y_i$ es un geométrica de parámetro. Me parece que no puede encontrar en línea para la binomial negativa y estoy teniendo problemas con hacer el geométrica.

Puede que alguien me muestre una derivación de la binomial negativa?

Edit: Mi libro se llama la binomial negativa como la distribución del número de ensayos necesarios para obtener un determinado número r de éxitos.

19voto

JohnK Puntos 1840

Para derivar la mgf de la binomial negativa de distribución vamos a utilizar la siguiente identidad:

$$\binom{-r}{y}=\left( -1 \right)^y \binom{r+y-1}{y} $$

Podemos demostrar que en la siguiente forma:

$$\begin{align} \binom{-r}{y} & = \frac{ \left( -r \right) \left(-r-1 \right) \ldots \left(-r-y+1 \right)}{y!}\\ & = \left(-1 \right)^y \frac{ \left(r+y-1 \right) \ldots \left( r+1 \right)r}{y!} \\ & = \left(-1 \right)^y \binom{r+y-1}{y} \end{align}$$

Ahora

$$M \left( t \right)=\sum_{y=0}^{\infty} e^{ty} \binom{y+r-1}{r-1} \left( 1-p \right)^y \times p^r $$

La agrupación de los términos y con la identidad que tenemos:

$$\begin{align} M \left( t \right)& =p^r \sum_{y=0}^{\infty} \binom{y+r-1}{r-1} \left[ e^t \left( 1-p \right) \right]^y \\&=p^r\sum_{y=0}^{\infty} \binom{-r}{y}\left( -1 \right)^y\left[ e^t \left( 1-p \right) \right]^y \\& =p^r\sum_{y=0}^{\infty} \binom{-r}{y}\left[ -e^t \left( 1-p \right) \right]^y \end{align} $$

A continuación, usando el Teorema del Binomio de Newton: $\left( x+1 \right)^r= \sum_{i=0}^\infty {r\choose i}x^i$ que $|x|<1$, el último término se convierte en:

$$M \left(t \right)= \frac{p^r}{\left[ 1- \left(1-p \right)e^t \right]^r}$$

siempre que $t<-\log(1-p)$

Tenga en cuenta que la binomial negativa distributioon puede venir con algo un poco diferente parametrización así, como se ha señalado en los comentarios. Yo se lo dejo a usted para derivar la mgf para el otro caso.

Espero que esto ayude.

13voto

Michael Hardy Puntos 128804

La MGF de una suma de variables aleatorias independientes es sólo el producto de sus MGF, por lo $$ M_ {y_1 \ cdots Y_r} (t) = \ left (M_ {y_1} (t) \ right) ^ r. $$ \begin{align} M_{Y_1}(t) & = \mathbb E(e^{tY_1}) = \sum_{y=1}^\infty e^{ty} \Pr(Y_1=y) = \sum_{y=1}^\infty e^{ty} p(1-p)^{y-1} = \frac{p}{1-p} \sum_{y=1}^\infty \left(e^t(1-p)\right)^y \\[10pt] & = \frac{p}{1-p} \cdot \frac{\text{first term}}{1-\text{common ratio}} = \frac{p}{1-p}\cdot\frac{e^t(1-p)}{1-e^t(1-p)} = \frac{e^tp}{1-e^t(1-p)}. \end {Align}

(A continuación, recuerde que debe elevar el asunto a la potencia$r$).

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X