Supongamos que $X_1,\ldots,X_n$ son independientes de las variables aleatorias con $X_i\sim Gamma(\alpha_i,\beta)$. Definir $U_i=\frac{X_i}{X_1+\cdots+X_n}$$i=1,2,\ldots,n$. Mostrar que $U_i\sim Beta(\alpha_i,\sum_{j\neq i}\alpha_j)$. Esta es una cuestión del pasado examen completo. También le dio un consejo: Piensa en $U_i$ $X_i/(X_i+W)$ donde $W=\sum_{j\neq i}X_j$ es independiente de $X_i$. Alguien puede darme más de sugerencia al respecto?
Respuestas
¿Demasiados anuncios?Resultado: $$X\sim Gamma(\alpha_1,\lambda) \hspace{5pt} \text{indep of}\hspace{5pt} Y\sim Gamma(\alpha_2,\lambda)\hspace{5pt} \Rightarrow X+Y \sim Gamma(\alpha_1+\alpha_2,\lambda)\hspace{5pt} \text{indep of}\hspace{5pt} \frac{X}{X+Y} \sim Beta(\alpha_1,\alpha_2)$$
Prueba: Supongamos $U=X+Y$ $V=\frac{X}{X+Y}$ escribir la articulación de la densidad de $(X,Y)$ Calcular el Jacobiano obtener la densidad de $(U,V)$. En estos procedimiento se puede conseguir algo más fuerte, a saber, $X+Y$ $\frac{X}{X+Y}$ son indep. (por supuesto, si $X$ $Y$ son indep.)
Sugerencia: se Derivan de la distribución condicional $P(X_i|W)$ y, a continuación, utilice el hecho de que una suma de gammas es también gamma para la incondicional parte $P(W)$. Entonces se obtiene:
$$P(X_i,W)=P(W)P(X_i|W)$$
Ilustración: El caso especial $n = 4, \alpha_i = 2,$ $i = 1, \dots, 4,$ mediante R a simulatie de 100.000 valores de $U \sim Beta(2, 6).$
m = 10^5; n = 4; alp = 2
x = rgamma(n*m, alp, 1)
DTA = matrix(x, nrow=m, byrow=T) # each row a sample of 4
s = rowSums(DTA); u = DTA[,1]/s # numerator is first column
mean(u); var(u)
## 0.2506025 ## approximates E(U)
## 0.02084331 ## approximates V(U)
hist(u, prob=T, col="wheat", main="")
curve(dbeta(x, alp, (n-1)*alp), n = 1001, lwd=2, col="blue", add=T)