29 votos

¿Qué es la intuición detrás de la distribución de Poisson ' función?

Estoy tratando de comprender intuitivamente la distribución de Poisson la distribución de probabilidad de la función de masa. Al$X \sim \mathrm{Pois}(\lambda)$,$P(X=k)=\frac{\lambda^k e^{-k}}{k!}$, pero no veo el razonamiento detrás de esta fórmula. En otras distribuciones discretas, es decir, la binomial, geométrica, binomial negativa, y hipergeométrica distribuciones, tengo una interfaz intuitiva, la combinatoria basada en la comprensión de por qué cada distribución del pmf se define de la manera que es.

Es decir, si $Y \sim\mathrm{Bin}(n,p)$$P(Y=k)=\binom{n}{k}p^k(1-p)^{n-k}$, y esta ecuación es clara: hay $\binom{n}{k}$ formas de elegir el $k$ el éxito de los ensayos, y tenemos las pruebas para triunfar $k$ veces y fallar $n-k$ veces.

¿Cuál es la correspondiente intuición para la distribución de Poisson?

23voto

Avraham Puntos 2126

Explicación basada en la DeGroot, segunda edición, página 256. Considerar la distribución binomial con la fija $p$ $$ P(X = k) = {n \elegir k}p^k(1-p)^{n-k} $$

Ahora defina $\lambda = np$ e lo $p = \frac{\lambda}{n}$.

$$ \begin{align} P(X = k) &= {n \choose k}p^k(1-p)^{n-k}\\ &=\frac{n(n-1)(n-2)\cdots(n-k+1)}{k!}\frac{\lambda^k}{n^k}\left(1-\frac{\lambda}{n}\right)^{n-k}\\ &=\frac{\lambda^k}{k!}\frac{n}{n}\cdot\frac{n-1}{n}\cdots\frac{n-k+1}{n}\left(1-\frac{\lambda}{n}\right)^n\left(1-\frac{\lambda}{n}\right)^{-k} \end{align} $$ Deje $n \to \infty$ $p \to 0$ $np$ permanece constante e igual a $\lambda$.

Ahora $$ \lim_{n \to \infty}\frac{n}{n}\cdot\frac{n-1}{n}\cdots\frac{n-k+1}{n}\left(1-\frac{\lambda}{n}\right)^{-k} = 1 $$ ya que en todas las fracciones, $n$ sube en la misma proporción en la que el numerador y el denominador y el último paréntesis tiene la fracción de ir a $0$. Además $$ \lim_{n \to \infty}\left(1-\frac{\lambda}{n}\right)^n = e^{-\lambda} $$ así que bajo nuestras definiciones $$ \lim_{n \to \infty} = {n \elegir k}p^k(1-p)^{n-k} = \frac{\lambda^k}{k!}e^{-\lambda} $$ En otras palabras, como la probabilidad de éxito se convierte en una tasa aplicada a un continuum, como contraposición a las selecciones, el binomio se convierte en la distribución de Poisson.

9voto

Oli Puntos 89

Deje $p_k(t)$ la probabilidad de $k$ eventos en el tiempo $t$. Lo primero que nos encontramos $p_0(t)$. Deje $h$ ser pequeño. Por la independencia de $p_0(t+h)=p_0(t)p_0(h)$. La probabilidad de un suceso en el tiempo $h$ donde $h$ es muy pequeña, es aproximadamente el $\lambda h$. Con más precisión, $\lim_{h\to 0^+}\frac{1-p_0(h)}{h}=\lambda$. Por lo $p_0(h)\approx 1-\lambda h$. Sustituto. Tenemos $$\frac{p_0(t+h)-p_0(t)}{h}\approx -\lambda p_0(t).$$ Deje $h\to 0$. Llegamos a la conclusión de que $p_0'(t)=-\lambda p_0(t)$. Este es un familiar de la ecuación diferencial. Desde $p_0(0)=1$, tiene solución $p_0(t)=e^{-\lambda t}$.

Ahora hay que hacer un argumento similar para general $k$. Si $h$ es un pequeño intervalo de tiempo, entonces la probabilidad de a $2$ o más eventos en el intervalo de tiempo $h$ es insignificante en comparación con la probabilidad de $1$ evento. Así $$p_k(t+h)\approx p_{k}(t)(1-\lambda h)+p_{k-1}(t)\lambda h.$$ Simplificando, y dejando $h\to 0$, nos encontramos con que $$p_k'(t)=-\lambda p_k(t)+\lambda p_{k-1}(t).$$ Esto DE puede ser resuelto, mediante la inducción de la hipótesis de $p_{k-1}(t)=e^{-\lambda t}\frac{(\lambda t)^{k-1}}{(k-1)!}$. O bien puede verificar por sustitución de la norma expresiones satisfacen la DE.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X