4 votos

Si $S_n$ es Binomio $(n,p)$ entonces $\mathbb P(S_n=k)\approx \frac{(np)^k}{k!}e^{-np}$ .

Estaba leyendo este puesto y tengo que admitir que estaba bastante confundido.

La pregunta era: Si $S_n$ es una v.r. binomial con parámetro $(n,p)$ s.t. $n$ grande, $p$ muy pequeño y $np$ no demasiado grande (por ejemplo $np\leq 10$ ), entonces $$\mathbb P(S_n=k)\approx \frac{(np)^k}{k!}e^{-np}.$$


Lo que estoy completamente de acuerdo es (usando la notación del enlace que puse) si $(B_m)$ es una secuencia de $Binomial(m,p_m)$ donde $\lim_{m\to \infty }mp_m=\lambda $ entonces $$\lim_{m\to \infty }\mathbb P(B_m=k)=\frac{\lambda ^k}{k!}e^{-\lambda }.$$ Puedo probarlo sin ningún problema. Ahora bien, si $np\leq 10$ , $n$ grande y $p$ pequeño, estoy efectivamente confundido con $\mathbb P(S_n=k)\approx \frac{(np)^k}{k!}e^{-(np)}$ .

Intentos

Dejemos que $n\in\mathbb N$ grande y $p$ pequeña s.t. $np\leq 10$ . He puesto $\lambda =np$ . A continuación, defina la secuencia $p_m=\frac{\lambda }{m}$ es decir $mp_m=\lambda $ para todos $m$ . Así que ahora, $\mathbb E[S_n]=\mathbb E[B_m]$ para todos $m$ y si $p_m$ es muy pequeño, entonces $p_m\approx p$ y por lo tanto $$\text{Var}(S_n)=np(1-p)=mp_m(1-p)\underset{(*)}{\approx} mp_m(1-p_m)=\text{Var}(B_m).$$

Por lo tanto, si $m$ es lo suficientemente grande, entonces $B_m$ y $S_n$ se distribuyen de forma binomial con la misma expectativa y una varianza muy próxima.

Q1) ¿Implica esto que $$\mathbb P(S_n=k)\approx \mathbb P(B_m=k) \ \ ?$$ es decir, que una Binomial está determinada únicamente por su varianza y su expectativa?

Q2) En lo que el hecho de que $np\leq 10$ ¿es relevante?

Espero que mi pregunta sea clara, y si no es así, por favor, hágamelo saber.

1voto

Claude Leibovici Puntos 54392

Usando, como en el post enlazado, $p=\frac \lambda n$ $$A=p^k \binom{n}{k}p^k (1-p)^{n-k}=\binom{n}{k} \left(\frac{\lambda }{n}\right)^k \left(1-\frac{\lambda}{n}\right)^{n-k}$$ Tomando logaritmos y expandiendo como una serie de Taylor para valores grandes de $n$ para conseguir $$\log(A)=\left(k \log (\lambda )+\log \left(\frac{e^{-\lambda }}{k!}\right)\right)+\frac{-k^2-\lambda ^2+2 \lambda k+k}{2 n}+O\left(\frac{1}{n^2}\right)$$ Continuando con Taylor $$A=e^{\log(A)}=\frac{e^{-\lambda } \lambda ^k}{k!}\left(1+\frac{-k^2-\lambda ^2+2 \lambda k+k}{2 n} \right)+O\left(\frac{1}{n^2}\right)$$ es decir $$A=\frac{e^{-\lambda } \lambda ^k}{k!}+O\left(\frac{1}{n}\right)$$ Volver a $\lambda=pn$ , $$A=\frac{ (n p)^k}{k!}e^{-n p}+O\left(\frac{1}{n}\right)$$

0voto

algui91 Puntos 156

Creo que necesitas una suposición extra aquí, como $k=o(\sqrt n)$ . Bajo este supuesto, usted tiene $kp=o(1)$ y luego $$ \binom nk=\frac{n(n-1)\dotsb(n-(k-1)}{k!} = (1+o(1))\frac{n^k}{k!}, $$ $$ (1-p)^n = (1+o(1)) e^{-np}, $$ y $$ (1-p)^k = 1+o(1). $$ Todo esto no es completamente trivial, pero tampoco es difícil; digamos que la primera estimación se deduce de \begin {multline*} n^k \ge n(n-1) \dotsb (n-(k-1)> \left (1- \frac kn \right )^k n^k \\ = e^{k \log (1-k/n)} n^k = e^{o(1)}n^k = (1+o(1))n^k \end {multline*} en vista de $\log(1-k/n)=(1+o(1))(-k/n)=o(1/k)$ .

Como resultado, $$ \mathbb P(S_n=k) = \binom nk p^k(1-p)^{n-k} = (1+o(1))\frac{n^k}{k!}\cdot p^k\cdot e^{-np} = (1+o(1))\frac{(np)^k}{k!}\,e^{-np}. $$

La suposición $k=o(\sqrt n)$ es esencial y no puede dejarse de lado: digamos que la aproximación $\mathbb P(S_n=k)\approx \frac{(np)^k}{k!}e^{-np}$ se equivoca si $k=n$ .

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X