4 votos

especial de la suma de los binomios de las distribuciones de

Deje $X$ ser una variable aleatoria. Deje $X_p$ se distribuye como una distribución Binomial con número de resultados $X$ y la probabilidad de $p$, es decir,$Bin(p, X)$. Considere la variable aleatoria, $$ Y = X_p + X_{1-p}. $$ ¿Cuál es la distribución de probabilidad de $Z : = Y - X$? Tenga en cuenta que por la linealidad de las expectativas, $\mathbb{E}[Z]=0$.

3voto

Robert Christie Puntos 7323

Consideran que la probabilidad de generación de función para $Y$: $$ \mathcal{P}_Y(z) = \sum_{k=-n}^n z^k \Pr\left(Y=k\right) = \mathsf{E}\left(z^Y\right) = \mathsf{E}\left(z^{X_p + X_{1-p} -n} \right) $$ Si $X_p$ $X_{1-p}$ son independientes: $$ \mathcal{P}_Y(z) = z^{-n} \mathcal{P}_{X_p}(z) \mathcal{P}_{X_{1-p}}(z) = z^{-n} \cdot \left((1-p) + p z\right)^n \cdot \left(p + (1-p) z\right)^n = z^{-n} p^n (1-p)^n \left(1 + 2 z \cdot \frac{\frac{1}{2}- p + p^2}{p(1-p)} + z^2\right)^n = z^{-n} p^n (1-p)^n \sum_{m=0}^{2n} z^m C_m^{(n)} \left( \frac{\frac{1}{2}- p + p^2}{p(1-p)} \right) $$ donde $C_{m}^{(\alpha)}(x)$ denota la Gegenbauer polinomio.

Por lo tanto $$ \Pr\left(Y=k\right) = p^n (1-p)^n C_{k+n} ^{(n)} \left( \frac{\frac{1}{2}- p + p^2}{p(1-p)} \right) \cdot \left[ -n \leqslant k \leqslant n \right] $$ donde $[\bullet]$ denota la Iverson soporte.

Desde $X_p$ $X_{1-p}$ son iguales en la distribución de la suma de iid variables aleatorias de Bernoulli, la $Y$ variable aleatoria es igual en la distribución de la suma de $2X$ de Bernoulli independientes variables aleatorias, lo $Y+X$ la de Poisson, binomial distribuido: $$ Y + X \sim \operatorname{Poi-Binom}\left(\underbrace{p,\ldots,p}_{X}, \underbrace{1-p,\ldots,1-p}_{X}\right) $$

1voto

Did Puntos 1

En primer lugar, hemos de completar la información necesaria para resolver la cuestión, es decir, podemos hacer la suposición de que $X_p$ $X_{1-p}$ son independientes condicionalmente en $X$.

Por lo tanto, teniendo en cuenta variables aleatorias de Bernoulli independientes $(U_i)$ con el parámetro $p$ $(V_i)$ con el parámetro $1-p$, condicionalmente en $X=n$, definimos $X_p=\sum\limits_{i=1}^nU_i$$X_{1-p}=\sum\limits_{i=1}^nV_i$, y consideramos que $A$Z=\sum\limits_{i=1}^nU_i+\sum\limits_{i=1}^nV_i-n=\sum\limits_{i=1}^nW_i, $$ donde cada una de las $W_i=U_i-(1-V_i)$ es la diferencia de dos variables aleatorias de Bernoulli con parámetro de $p$. Es decir,$P[W=1]=P[W=-1]=p(1-p)$$P[W=0]=p^2+(1-p)^2$. Para escribir de manera concisa, $$ Z=\sum_{i=1}^XW_i. $$ Es difícil decir más acerca de la distribución de $Z$ en general, el resultado dependiendo mucho de la distribución de $X$. Un conveniente (aunque indirecta) descripción es proporcionar la probabilidad de generación de función $g_Z$$Z$, definido por $$ g_Z(z)=E[z^Z]=\sum_{n\in\mathbb Z}P[Z=n]\,z^n, $$ para cada número complejo $z$ en el círculo unidad $|z|=1$. Uno se $$ g_Z(z)=E[g_W(z)^X]=g_X(g_W(z)). $$ Tenga en cuenta que $g_W(z)=1-p(1-p)(2-z-z^{-1})$. Para cada entero $n$, $$ P[Z=n]=\frac1{2\pi\mathrm i}\oint_{S^1}g_Z(z)\frac{\mathrm dz}{z^{n+1}}. $$

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X