10 votos

Propiedades de un mínimo de dos Variables aleatorias de Poisson

Me topé con el siguiente problema en mi investigación. Estamos tratando de analizar $Z=\min(X,Y)$ donde$X \sim Pois(p\lambda)$$Y\sim Pois((1-p)\lambda)$. Tenga en cuenta que la RVs expectativa es relacionados pero no idénticos , pero son independientes.

Lo que nos interesa más es una forma cerrada de expresión para $\mathbb{E}Z$. O, alternativamente, una expresión lo suficientemente simple como para demostrar que la expectativa $\mathbb{E}Z$ es alcanzado en $p=\frac{1}{2}$

Me las arreglé para encontrar muy poca literatura sobre el tema. He visto que en algunos lugares esta situación se llama un "Poisson Raza", pero no podía encontrar nada de lo que es relevante para mí.

Traté de ir de la forma manual: \begin{equation} \begin{split} \mathbb{E} Z & = \sum_{n\geq 1} \Pr(min(X,Y) \geq n) \\ & = \sum_{n\geq 1} \Pr(X\geq n\ \text{and}\ Y\geq n) \\ & = \sum_{n\geq 1} \Pr(X\geq n)\cdot \Pr(Y\geq n) \\ & = \sum_{n\geq 1}\Bigg[\Bigg(\sum_{i\geq n} \frac{(p \lambda)^i e^{-p\lambda}}{i!} \Bigg)\Bigg(\sum_{i\geq n} \frac{((1-p) \lambda)^i e^{-(1-p)\lambda}}{i!} \Bigg)\Bigg] \\ & = e^{-\lambda}\sum_{n\geq 1}\Bigg[\Bigg(\sum_{i\geq n} \frac{(p \lambda)^i}{i!} \Bigg)\Bigg(\sum_{i\geq n} \frac{((1-p) \lambda)^i }{i!} \Bigg)\Bigg] \\ \end{split} \end{equation}

Pero esto no lleva a ninguna términos relativamente sencillos. Intentado buscar en Gamma Taylor sumas parciales de $e^x$ y funciones Gamma,$\Gamma (x)$, pero de nuevo, sin ningún resultado.

Lo que es obvio, debido a la simetría de la función es que el máximo se alcanza en $p=\frac{1}{2}$. Puede uno ver alguna manera de demostrarlo sin tener que derivar de una vez y dos veces, y hacer todo el trabajo sucio?

4voto

Felix Marin Puntos 32763

$\newcommand{\bbx}[1]{\,\bbox[8px,border:1px groove armada]{\displaystyle{#1}}\,} \newcommand{\llaves}[1]{\left\lbrace\,{#1}\,\right\rbrace} \newcommand{\bracks}[1]{\left\lbrack\,{#1}\,\right\rbrack} \newcommand{\dd}{\mathrm{d}} \newcommand{\ds}[1]{\displaystyle{#1}} \newcommand{\expo}[1]{\,\mathrm{e}^{#1}\,} \newcommand{\ic}{\mathrm{i}} \newcommand{\mc}[1]{\mathcal{#1}} \newcommand{\mrm}[1]{\mathrm{#1}} \newcommand{\pars}[1]{\left(\,{#1}\,\right)} \newcommand{\partiald}[3][]{\frac{\partial^{#1} #2}{\parcial #3^{#1}}} \newcommand{\raíz}[2][]{\,\sqrt[#1]{\,{#2}\,}\,} \newcommand{\totald}[3][]{\frac{\mathrm{d}^{#1} #2}{\mathrm{d} #3^{#1}}} \newcommand{\verts}[1]{\left\vert\,{#1}\,\right\vert}$ \begin{align} \mathbb{E}\bracks{Z} & = \mathbb{E}\bracks{\min\braces{X,Y}} = \mathbb{E}\bracks{X + Y - \verts{X - Y} \over 2} = {1 \over 2}\,\mathbb{E}\bracks{X} + {1 \over 2}\,\mathbb{E}\bracks{Y} - {1 \over 2}\,\mathbb{E}\bracks{\verts{X - Y}} \\[5mm] & = {1 \over 2}\,p\lambda + {1 \over 2}\,\pars{1 - p}\lambda - {1 \over 2}\,\mathbb{E}\bracks{\verts{X - Y}} = {1 \over 2}\lambda - {1 \over 2}\,\color{#66f}{\mathbb{E}\bracks{\verts{X - Y}}} \end{align}


Con $\ds{x \equiv p\lambda}$$\ds{y \equiv \pars{1 - p}\lambda}$: \begin{align} \color{#66f}{\mathbb{E}\bracks{\verts{X - Y}}} & = \sum_{m = 0}^{\infty}{x^{m}\expo{-p\lambda} \over m!} \sum_{n = 0}^{\infty}{y^{n}\expo{-\pars{1 - p}\lambda} \over n!}\,\verts{m - n} \\[5mm] & = \expo{-\lambda} \sum_{m = 0}^{\infty}\sum_{n = 0}^{m}{x^{m}\,y^{n} \over m!\,n!}\pars{m - n} + \expo{-\lambda} \sum_{m = 0}^{\infty}\sum_{n = m}^{\infty}{x^{m}\,y^{n} \over m!\,n!} \pars{n - m} \\[5mm] & = \expo{-\lambda} \sum_{n = 0}^{\infty}\sum_{m = n}^{\infty}{x^{m}\,y^{n} \over m!\,n!} \pars{m - n} + \expo{-\lambda} \sum_{m = 0}^{\infty}\sum_{n = m}^{\infty}{x^{m}\,y^{n} \over m!\,n!} \pars{n - m} \\[5mm] & = \expo{-\lambda}\sum_{n = 0}^{\infty}\sum_{m = n}^{\infty} {x^{m}\,y^{n} + x^{n}\,y^{m} \over m!\,n!}\pars{m - n} = \expo{-\lambda}\sum_{n = 0}^{\infty}\sum_{m = 0}^{\infty} {x^{m + n}\,y^{n} + x^{n}\,y^{m + n} \over \pars{m + n}!\,n!}m \\[5mm] & = \sum_{m = 0}^{\infty}m\pars{x^{m} + y^{m}} \sum_{n = 0}^{\infty}{\pars{xy}^{n} \over \pars{m + n}!\,n!} \\[5mm] & = \sum_{m = 0}^{\infty}m\bracks{\pars{x \over y}^{m/2} + \pars{y \over x}^{m/2}} \,\mrm{I}_{m}\pars{2\root{xy}} \end{align}

donde $\ds{\,\mrm{I}_{\nu}}$ es la Función Bessel modificada de Primera Especie.

Nuestro resultado, '$so\ far$', está dada por \begin{align} \mathbb{E}\bracks{Z} & = \mathbb{E}\bracks{\min\braces{X,Y}} \\[5mm] & = {1 \over 2}\lambda - {1 \over 2} \sum_{m = 0}^{\infty}m \bracks{\pars{p \over 1 - p}^{m/2} + \pars{1 - p \over p}^{m/2}} \,\mrm{I}_{m}\pars{2\root{p\bracks{1 - p}}\lambda} \end{align}

1voto

BruceET Puntos 7117

Comentario. He jugado con este sin conseguir nada casi tan elegante como @FelixMartin la Respuesta (+1). Hice una rápida simulación y se encontró que la relación entre el $\mu = E(Z)$ $p$ depende del valor de $\lambda.$ (En vista de @Misha del resultado, me había inicial esperanzas $\lambda$ podría no ser importante, pero lo que parecía contrario a la intuición.) Por lo que puede ser vale la pena, puedo publicar gráficos de $\mu/\lambda$ contra $p$ para los seis valores de $\lambda.$ (Los valores simulados debe ser precisa en la resolución de las parcelas.)

enter image description here

Adenda. Crudo R código se proporciona a continuación, como se pide en el Comentario. Hay dos líneas alternativas principio z = replicate.... El uno con pmin fue mi método inicial. El uno con abs fue para comprobar que @FelixMartin la fórmula de ofrece los mismos resultados que la mía. Poner # al principio de la línea que desea omitir. (Incremento 10^3 a 10^4 y 5000 a 10000 para los más pequeños simulación de error; más lento y no es necesario para los gráficos). Por supuesto, la simulación es para visualización y comprobación.

par(mfrow=c(2,3))  # enables six panels per plot
lamb = c(.5, 1, 10, 25, 100, 1000); m=6
for(j in 1:m)      # outer loop for 6 values of lambda
  {
  lam = lamb[j]
  p=seq(.0, 1, by=.05); B = length(p); mu=numeric(B)
  for(i in 1:B)    # inner loop for B values of p
    {   
    pp=p[i]
    z = replicate( 10^3, lam/2 - .5*mean(abs(rpois(5000,pp*lam)-rpois(5000,(1-pp)*lam))) )
    # z = replicate( 10^3, mean(pmin(rpois(5000,pp*lam),rpois(5000,(1-pp)*lam))) )
    # 2nd 'replicate' for z can be substituted for first
    mu[i] = mean(z) }
                   # end inner loop
  plot(p, mu/lam, pch=19, ylim=c(0,.5), main=paste("lambda =",lamb[j]))  }                
                   # end outer loop
par(mfrow=c(1,1))  # returns to default single-panel plot

0voto

Misha Puntos 1723

No pude encontrar (por las matemáticas o la de Google) cualquier forma cerrada para la expectativa, pero aquí es algunas parcial de progreso.

Si $X, Y$ son de Poisson con tasas de $\lambda p$$\lambda(1-p)$, $X+Y$ es de Poisson con tasa de $\lambda$, y cuando nos condición sobre el valor de $X+Y$, tenemos: $$\Pr[X = k \mid X+Y = n] = \binom nk p^k (1-p)^{n-k}$$ (En otras palabras, $X$ $Y$ son binomial cuando $X+Y$ se fija a $n$.)

Probablemente será más fácil demostrar que $\mathbb E[Z \mid X+Y=n]$ se maximiza cuando se $p = \frac12$, y a la conclusión de que $\mathbb E[Z]$ también se maximiza cuando se $p = \frac12$, de acuerdo con $\mathbb E[Z]$ directamente. Pero incluso esto no es tan fácil como yo pensaba cuando escribí esta respuesta...

No creo que el binomio de observación le ayudará a obtener los valores exactos, pero puede ayudar con asymptotics, porque para un gran $n$, usted tiene la Chernoff obligado a estimar con qué frecuencia la variable con la mayor tasa de "pierde la carrera" y se convierte en el mínimo.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X