6 votos

Independencia de las variables aleatorias de Poisson procedentes del muestreo de Poisson

Contexto:

Dejemos que $x \in \mathbb{R}^n$ sea el vector de probabilidad desconocido de una distribución discreta finita $X$ . Podemos tomar muestras $X$ y queremos aprender $x$ .

Poissonización:

Cada observación pertenece al $i^\text{th}$ categoría con probabilidad $x_i$ por lo que para una muestra de tamaño $m \in \mathbb{N}$ la suma de los $i^\text{th}$ sigue una distribución binomial $B(x_i\ ,\ m)$ . Estas variables aleatorias binomiales no son independientes ya que su suma es $m$ ( $X$ es una distribución). Sin embargo, he encontrado un truco en Internet: si se suma sobre un $M \sim \mathrm{Poisson}(m)$ tamaño de la muestra en lugar de $m$ la suma $M_i$ de la $i^\text{th}$ ya no es un binomio, sino que sigue $\mathrm{Poisson}(m \times x_i)$ derecho. Además, estos $n$ Las variables aleatorias de Poisson son independientes. Trato de demostrarlo.

Mi enfoque

He demostrado que $M_i \sim \mathrm{Poisson}(m \times x_i)$ para cualquier $i$ : $$ \sum_{j=0}^\infty \left(\ P[\mathrm{Poisson}(m)=j] \times P[B(p,j)=k]\ \right) = P[\mathrm{Poisson}(p\times m)=k]$$ $\iff$ $$ \sum_{j=k}^{\infty} \left(\ P[\mathrm{Poisson}(m)=j] \times P[B(p,j)=k]\ \right) = P[\mathrm{Poisson}(p\times m)=k]$$ $\iff$ $$ \sum_{j=k}^{\infty} \left(\frac{e^{-m} m^j}{j!} \times \frac{j!\ p^k (1-p)^{j-k}}{k!\ (j-k)!} \right) = \frac{e^{-pm} (p m)^k}{k!}$$ $\iff$ $$e^{-m} \sum_{j=k}^\infty \left(\frac{m^j (1-p)^{j-k}}{(j-k)!} \right) = e^{-pm} m^k$$ $\iff$ $$e^{-m} \sum_{j'=0}^\infty \left(\frac{m^{j'+k} (1-p)^{j'}}{j'!} \right) = e^{-pm} m^k$$ $\iff$ $$e^{-m} e^{m(1-p)} m^k = e^{-pm}m^k $$ $\square$

Ahora, ¿cómo puedo probar que todos esos $n$ ¿las variables aleatorias son independientes? He encontrado este documento que establece que incluso si $X_1$ , $X_2$ y $X_1 + X_2$ son $\mathrm{Poisson}$ , $X_1$ y $X_2$ no tienen que ser independientes. Pero aquí no estamos en el caso general ya que tenemos $\sum\limits_{i=1}^n x_i = 1$ .

0 votos

No estás usando la palabra "muestra" correctamente. Si lanzo un dado 100 veces y veo cuántas veces obtengo cada uno de los seis resultados posibles, eso es un muestra, de tamaño 100, no 100 muestras. ${}\qquad{}$

0 votos

Tal vez debería leer todas las respuestas antes de aceptar una. A veces una respuesta posterior es mejor porque se publica más tarde.

0 votos

@MichaelHardy Corregido, ¿está más clara la pregunta ahora? Finalmente elegí la respuesta que resalta el punto (trivial) que me faltaba : $M_i$ conociendo $(M=k)$ es Binomio.

3voto

air Puntos 1369

Bien, empecemos por exponer el resultado que se busca (según mi interpretación):

Dejemos que $\lambda >0 $ , $m \sim \text{Pois}(\lambda)$ y también dejar que $p_i> 0 \;,\; i \in \{1,\dotsc,n\}$ tal que $\sum_{i=1}^n p_i = 1$ . Además, deja que $X = (X_1, \dotsc, X_n) \big\vert m \sim \text{Multinomial}(m, (p_1,\dotsc,p_n))$ . De ello se desprende que: $X_i \sim \text{Pois}(p_i\lambda)$ y el $X_i$ son todos independientes.

Mostraré el resultado para $n=2$ es sencillo generalizarlo a $n \geq 2$ . En el caso $n=2$ podemos plantear el resultado de una forma más sencilla, a saber

$$ m \sim \text{Pois}(\lambda)$$

y condicionado a $m$ : $$ \begin{align} X_1 &\sim \text{Binomial}(m, p_1) \\ X_2 = m - X_1 &\sim \text{Binomial}(m, 1-p_1) \end{align} $$

Ahora dejemos que $k,l \in \mathbb N$ . Como ya has derivado las distribuciones marginales, se deduce que:

$$\Pr\left[X_1=k\right] = \frac{e^{-p_1\lambda}(p_1\lambda)^k}{k!} \;,\; \Pr\left[X_2=l\right] = \frac{e^{-(1-p_1)\lambda}((1-p_1)\lambda)^l}{l!}$$

También sostiene que:

$$ \begin{align} \Pr\left[X_1=k, X_2=l\right] &= \Pr\left[X_1=k, m=k+l\right] \\ &= \Pr\left[X_1=k \; \vert \; m=k+l\right]\Pr\left[m=k+l\right] \\ &= \binom{k+l}{k}p_1^k(1-p_1)^l \frac{e^{-\lambda}\lambda^{k+l}}{(k+l)!} \\ &= \Pr\left[X_1=k\right]\Pr\left[X_2=l\right] \end{align} $$

De la segunda a la tercera línea he utilizado el hecho de que $m \sim \text{Pois}(\lambda)$ y que $X_1 \big\vert m = k+l \sim \text{Binomial}(k+l, p_1)$ .

Esto demuestra la independencia de $X_1$ y $X_2$ .

2voto

Michael Hardy Puntos 128804

Parece que lo que tiene en mente es que $x_1+\cdots+x_n=1$ y $x_1,\ldots,x_n$ son todos no negativos. Usted utiliza algunas palabras de forma ligeramente no estándar; en particular, dice $x$ es una distribución. Habría dicho $x$ es un parámetro. El número de observaciones es $M\sim\mathrm{Poisson}(m)$ y cada observación está en el $i$ categoría con probabilidad $x_i$ . Si dejas que $M_i$ sea el número de la $i$ categoría, entonces $M_i\sim\mathrm{Poisson}(mx_i)$ .

Si he entendido bien, su pregunta es cómo demostrar que $M_1,\ldots,M_n$ son independientes. Usted tiene $M_1+\cdots+M_n=M$ .

\begin{align} & \Pr(M_1=k_1\ \&\ \cdots\ \&\ M_n=k_n) \\[6pt] = {} & \Pr(M=k)\cdot\Pr(M_1=k_1\ \&\ \cdots\ \&\ M_n=k_n\mid M=k) \\[6pt] = {} & \frac{m^k e^{-m}}{k!} \cdot \frac{k!}{k_1!\cdots k_n!} x_1^{k_1}\cdots x_n^{k_n} \\[6pt] = {} & m^{k_1+\cdots+k_n} e^{-mx_1-\cdots-mx_n} \frac 1 {k_1!\cdots k_n!} x_1^{k_1}\cdots x_1^{k_n} \\[6pt] = {} & \frac{(mx_1)^{k_1} e^{-mx_1}}{k_1!} \cdots \frac{(mx_n)^{k_n} e^{-mx_n}}{k_n!} \\[6pt] = {} & \Pr(M_1=k_1)\cdots\Pr(M_n=k_n). \end{align}

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X