5 votos

Multicelular de suma de distribuciones binomiales

Definición 1: Para cualquier variable aleatoria $X$, definimos $\mathrm{Bin}(p,X)$ como una variable con distribución binomial tener parámetros de $p$$X$.

Definición 2: Para todos los $i \in \mathbb{N}$, definir de forma recursiva las siguientes variables aleatorias, $$X_{i+1} = \mathrm{Bin}(p, X_{i}^1) + \mathrm{Bin}(1-p, X_{i}^2),$$ donde las dos variables aleatorias "$\mathrm{Bin}$" en la suma son independientes para cada $i\in \mathbb{N}$ e donde: $X_{i}^1$ $X_{i}^2$ son independientes y se distribuyen de la misma como $X_i$. La inicial de la variable aleatoria $X_0$ es dado y que ha expectativa $\lambda>0$.

Pregunta 1: Es la distribución de probabilidad de $X_\infty$ bien definido y único?

Pregunta 2: Si la respuesta es sí, la distribución de probabilidad de $X_\infty$ resolver la siguiente ecuación, $X_\infty = \mathrm{Bin}(p, X_{\infty}^1) + \mathrm{Bin}(1-p, X_{\infty}^2)$ donde $X_\infty^1$ $X_\infty^2$ tienen la misma distribución de probabilidad de $X_\infty$ y las variables en la suma son independientes? Claramente para todos $i\in \mathbb{N}$, $\mathbb{E}[X_i] = \mathbb{E}[X_0]=\lambda$.

Esta pregunta está relacionada con mi otra pregunta, la Solución de la ecuación binomial variables aleatorias, donde la ecuación de $X = \mathrm{Bin}(p, X^1) + \mathrm{Bin}(1-p, X^2)$ ha sido resuelto, bajo el supuesto de que $X$, $X^1$ y $X^2$ son independientes e idénticamente distribuidas.

2voto

Did Puntos 1

Como se explica en los comentarios, esta es la iteración de una transformación de las distribuciones, no variables aleatorias, y la técnica utilizada para encontrar los puntos fijos en la otra pregunta se puede adaptar para resolver el asymptotics.

Para ser breve (ya que este es un rehash de los argumentos que ya se ha explicado), la secuencia de la generación de funciones de $\varphi_n(s)=E(s^{X_n})$ resuelve la recursividad $$\varphi_{n+1}(s)=\varphi_n(p+qs)\varphi_n(q+ps)=\varphi_n(1-q(1-s))\varphi_n(1-p(1-s)),$$ where $q=1-p$, hence $$\log\varphi_n(s)=\sum_{k=0}^n{n\elegir k}\log\varphi_0(1-p^kq^{n-k}(1-s)). $$ Suponiendo que $X_0$ es de cuadrado integrable con $E(X_0)=\lambda$, uno sabe que, cuando $t\to0$, $$\varphi_0(1-t)=1-\lambda t+O(t^2),$$ hence, for some suitable $Un$ and $B$, $$-\lambda t+At^2\leqslant\log\varphi_0(1-t)\leqslant-\lambda t+Bt^2,$$ for every $t$. Así, por un lado, $$\log\varphi_n(s)\leqslant\sum_{k=0}^n{n\choose k}\left(-\lambda p^kq^{n-k}(1-s)+Bp^{2k}q^{2(n-k)}(1-s)^2\right),$$ that is, $$\log\varphi_n(s)\leqslant-\lambda(1-s)+B\cdot(p^2+q^2)^n(1-s)^2. $$ Por otro lado, $$\log\varphi_n(s)\geqslant-\lambda(1-s)+A\cdot(p^2+q^2)^n(1-s)^2. $$ Desde $p^2+q^2\lt1$, esto muestra que $\log\varphi_n(s)\to-\lambda(1-s)$ por cada $s$, es decir, que las distribuciones de la convergencia a la distribución de Poisson con parámetro de $\lambda=E(X_0)$.

Para resumir:

Pregunta 1: Es la distribución de probabilidad de $X_\infty$ bien definido y único?

Sí.

Pregunta 2: Si la respuesta es sí, la distribución de probabilidad de $X_\infty$ resolver la siguiente ecuación, $X_\infty = \mathrm{Bin}(p, X_{\infty}^1) + \mathrm{Bin}(1-p, X_{\infty}^2)$ donde $X_\infty^1$ $X_\infty^2$ tienen la misma distribución de probabilidad [como] $X_\infty$ y las variables en la suma son independientes?

Sí.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X