18 votos

Derivar la distribución de Poisson de la probabilidad por tiempo del evento

Supongamos que tenemos una probabilidad por tiempo $\lambda$ de que ocurra algo (por ejemplo, una desintegración nuclear, un paseo aleatorio, etc.). Es un resultado conocido que la probabilidad de que $n$ los eventos ocurren en un intervalo de tiempo de longitud $T$ viene dada por la distribución de Poisson $$P(n) = \frac{e^{-\lambda T} (\lambda T)^n}{n!} \, .$$ ¿Cómo lo demostramos?

2 votos

Ja - Vi esta pregunta y pensé "raro, habría esperado que Daniel supiera la respuesta a esto". Entonces me desplacé hacia abajo...

0 votos

@Floris pues me costó un poco conseguir ayuda en la integral...

0 votos

He escrito una alternativa que no necesita explícitamente integrales

15voto

DanielSank Puntos 9248

Distribución de probabilidad del tiempo hasta el siguiente evento

Primero calculamos la densidad de probabilidad de que un tiempo $t$ pasa sin que ocurra ningún evento. Dividir $t$ en $N$ pequeños intervalos de longitud cada uno $dt = t/N$ . Definición de $\lambda$ como la probabilidad por tiempo de que ocurra el suceso, la probabilidad de que no ocurra ningún suceso en un intervalo de tiempo corto es aproximadamente $(1 - \lambda dt)$ . Por lo tanto, la probabilidad de que no ocurra ningún suceso en ninguno de los intervalos, pero entonces hace ocurren en un intervalo de longitud $dt$ justo al final de todos los intervalos es $$\left( \prod_{i=1}^N \left( 1 - \lambda dt \right) \right) \lambda dt = \left( 1 - \frac{\lambda t}{N} \right)^N \lambda dt \stackrel{N\rightarrow \infty}{=} \lambda dt \exp \left( - \lambda t \right) \, .$$ En otras palabras, dada una hora de inicio $0$ la probabilidad densidad que no ha ocurrido ningún evento después de un tiempo $t$ , pero luego sucede justo en $t$ es $\lambda \exp(-\lambda t)$ .

Probabilidad de eventos múltiples

Ahora preguntamos la probabilidad de que obtengamos $n$ eventos en el intervalo de tiempo $T$ . Supongamos que el primer evento ocurre en $t_1$ el segundo incluso ocurre en $t_2$ etc. Por lo tanto, tenemos una serie de intervalos $$\{[0, t_1], [t_1, t_2], \ldots [t_n, T] \} $$ con eventos que ocurren al final de cada intervalo. La probabilidad de que nuestros eventos ocurran de esta manera es $$P(t_1, t_2, \ldots t_n) = \lambda \exp(-\lambda t_1) \lambda \exp(-\lambda (t_2 - t_1)) \cdots \lambda \exp(-\lambda(T - t_n)) = \lambda^n \exp(-\lambda T) \, .$$ Por supuesto, cualquier acuerdo de $\{t_1, t_2, \ldots t_n \}$ tal que $t_1 < t_2 < \ldots < t_n$ cuenta como un $n$ -por lo que tenemos que sumar las probabilidades de todos estos posibles arreglos, es decir, la probabilidad de $n$ eventos es \begin{align} P(n \text{ events}) &= \int_0^T dt_1 \int_{t_1}^T dt_2 \cdots \int_{t_{n-1}}^T dt_n P(t_1, t_2, \ldots t_n) \\ &= \lambda^n \exp(-\lambda T) \int_0^T dt_1 \int_{t_1}^T dt_2 \cdots \int_{t_{n-1}}^T dt_n \, . \end{align} La integral múltiple es la volumen de un simplex derecho y tiene valor $T^n/n!$ , por lo que el resultado final es $$P(n\text{ events}) = \frac{(\lambda T)^n \exp(-\lambda T)}{n!} $$ que es la distribución de Poisson con media $\lambda T$ .

Relacionado

0 votos

En su primera derivación debería $\lambda =1$ producen una densidad de probabilidad de 1 en todas partes. Si la densidad de probabilidad de que el evento ocurra en $t=t'$ y no antes, es $\lambda e^{-\lambda t'} dt$ entonces $lambda = 1 \implies PDF(t)=e^{-t} dt$ entonces para cualquier $t'$ debemos conseguir $ p(t') = \int_{0}^{t'} PDF(t) = -e^{-t'} + 1$ no $1$ . [mod editar para arreglar MathJax - DZ]

0 votos

@D.W. No entiendo este comentario. $\lambda$ tiene dimensiones de 1/tiempo, por lo que no puede tener valor 1. ¿Podría aclararlo?

0 votos

Perdóname, no estoy criticando tu respuesta, ni sugiriendo que estés equivocado, sólo estoy tratando de entender tu derivación por mí mismo. ¿No es $\lambda$ ¿la probabilidad por unidad de tiempo de que ocurra algo? ¿Y si está garantizado que algo ocurra? ¿No correspondería eso a un valor de $\lambda = 1$ (la probabilidad por unidad de tiempo de que ocurra el evento es 1)

8voto

Floris Puntos 54054

La distribución de Poisson describe la probabilidad de que un determinado número ( $n$ ) de eventos improbables ( $p\ll 1$ ) que se da $N$ oportunidades.

Esto es como hacer un lanzamiento de moneda muy injusto $N$ veces, con la probabilidad $p$ de que la moneda salga cara. El número de caras seguiría la distribución binomial:

$$P(n|p,N) = ~^{N}C_n~p^n (1-p)^{N-n} =\frac{N!}{(N-n)!~n!} p^n (1-p)^{N-n}$$

Ahora queda por demostrar que cuando $N\rightarrow \infty$ y $p\rightarrow 0$ mientras que $Np\rightarrow \lambda T$ que lo anterior converge al resultado conocido. En esencia, sostengo que cuando se hace que el número de oportunidades tienda al infinito, se pasa de un enfoque discreto a uno continuo; pero mientras se tenga cuidado con los infinitos, el resultado debería seguir siendo válido.

En primer lugar, encontramos una aproximación para $(1-p)^{N-n}$ . Tomando el registro, obtenemos

$$\log\left((1-p)^{N-n}\right) = (N-n)\log(1-p)\approx (N-n)\cdot (-p)$$

Desde $N\gg n$ obtenemos $(1-p)^{N-n}\approx e^{-Np}$

A continuación, aproximamos el $~^N C_n$ término utilizando la aproximación de Stirling que $\log N! \approx N\log N - N$ y señalando que $n\ll N$

Entonces

$$\begin{align} \log\left(\frac{N!}{(N-n)!}\right) &= N\log N - N - (N-n)\log(N-n) + (N-n) \\ &=N\log N - (N-n)\log(N-n) - n\\ &= N \log N -(N-n)\left(\log(N)+\log\left(1-\frac{n}{N}\right)\right) - n\\ &\approx N\log N -(N-n)\left(\log(N)-\frac{n}{N}\right) - n\\ &\approx n\log N + n -n \log n - n\\ &=n\log(N-n)\end{align}$$

De ello se desprende que $\frac{N!}{(N-n)! n!} \approx \frac{N^n}{n!}$

Por último, observamos que $pN = \lambda T$ y obtenemos

$$P(n|N,p) = \frac{N^n p^n e^{-Np}}{n!}$$

esto se reordena fácilmente a

$$P(n) = \frac{(\lambda T)^n e^{-\lambda T}}{n!}$$

Que es el resultado que nos propusimos demostrar.

Hice uso de este artículo para recordarme algunos de los pasos de esto.

0 votos

Un pequeño detalle: en realidad es la aproximación de Stirling, no la de Sterling

4 votos

En realidad, no te preocupes si te parece mal, durante años escribí el nombre de Max Planck igual que el trozo de madera o el título del cortometraje de Eric Sykes. Y sé alemán bastante bien (o lo suficientemente bien para gran parte de mis comunicaciones para mi trabajo). Tenía 50 años antes de que me corrigieran. Eso no es lo peor. Había hecho varias visitas de un mes o más al Instituto Max Planck antes de darme cuenta.

0 votos

Me gusta esta respuesta. Estaría bien explicar por qué $pN = \lambda T$ es la forma correcta de pasar del límite de la distribución binomial discreta al caso continuo. De lo contrario, se siente un poco de la mano.

6voto

Dejemos que $A^n_t$ sea el evento: exactamente $n$ eventos puntuales ocurridos en un intervalo de tiempo $t$ . Entonces, para las pequeñas $\Delta t$

$$\begin{align}P(A^n_{t+\Delta t}) &= P( A^n_t \cap A^0_{\Delta t }) + P(A^{n-1}_t \cap A^1_{\Delta t }) \\ &= P(A^n_t) P (A^0_{\Delta t }) + P(A^{n-1}_t )P( A^1_{\Delta t })\\ \end{align} $$ donde hemos utilizado la independencia de ocurrencia. Ahora, definiendo $p_n(t) \equiv P( A^n_t)$ y $\lambda = \lim_{\Delta t\to 0} p_1(\Delta t)/\Delta t$ y tomando el límite para $\Delta t \to 0$ obtenemos

$$ p_n(t+\delta t)=p_n(t)(1 - \lambda \, \delta t) + p_{n-1}(t) \lambda \, \delta t $$

lo que conduce a las ecuaciones diferenciales:

$$p'_n(t)= \begin{cases} -\lambda ( p_n(t) - p_{n-1}(t) ) & n>0\\ -\lambda p_n(t) & n=0 \end{cases}$$

con las condiciones iniciales $$p_n(0)=\begin{cases}0 & n>0\\1 & n=0 \, .\end{cases}$$

La solución viene dada por la distribución de Poisson:

$$p_n(t)=\frac{(\lambda t)^n \exp(-\lambda t)}{n!} \, .$$

2 votos

Hoy he aprendido dos nuevas formas de demostrarlo, aparte de la respuesta de Floris, que era la que ya conocía :). ¡Muy elegante!

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X