18 votos

Supongamos que $Y_1, \dots, Y_n \overset{\text{iid}}{\sim} \text{Exp}(1)$. Mostrar $\sum_{i=1}^{n}(Y_i - Y_{(1)}) \sim \text{Gamma}(n-1, 1)$

¿Cuál es la forma más fácil de ver que la siguiente declaración es verdadera?

Supongamos que $Y_1, \dots, Y_n \overset{\text{iid}}{\sim} \text{Exp}(1)$. Mostrar $\sum_{i=1}^{n}(Y_i - Y_{(1)}) \sim \text{Gamma}(n-1, 1)$.

Tenga en cuenta que $Y_{(1)} = \min\limits_{1 \leq i \leq n}Y_i$.

$X \sim \text{Exp}(\beta)$, Quiere decir que $f_{X}(x) = \dfrac{1}{\beta}e^{-x/\beta} \cdot \mathbf{1}_{\{x > 0\}}$.

Es fácil ver que $Y_{(1)} \sim \text{Exponential}(1/n)$. Además, también tenemos que $\sum_{i=1}^{n}Y_i \sim \text{Gamma}(\alpha = n, \beta = 1)$ bajo la parametrización $$f_{Y}(y) =\dfrac{1}{\Gamma(\alpha)\beta^{\alpha}}x^{\alpha-1}e^{-x/\beta}\mathbf{1}_{\{x > 0\}}\text{, }\qquad \alpha, \beta> 0\text{.}$ $

Solución dada respuesta de Xian: usando la notación en la pregunta original: $$\begin{align} \sum_{i=1}^{n}[Y_i - Y_{(1)}] &= \sum_{i=1}^{n}[Y_{(i)}-Y_{(1)}] \\ &= \sum_{i=1}^{n}Y_{(i)}-nY_{(1)}\\ &= \sum_{i=1}^{n}(n-i+1)[Y_{(i)}-Y_{(i-1)}]-nY_{(1)}\text{ where } Y_{(0)} = 0 \\ &= \sum_{i=2}^{n}(n-i+1)[Y_{(i)}-Y_{(i-1)}]+nY_{(1)}-nY_{(1)} \\ &= \sum_{i=2}^{n}(n-i+1)[Y_{(i)}-Y_{(i-1)}]\text{.} \end {Alinee el} $$ de esto, tenemos que $\sum_{i=2}^{n}(n-i+1)[Y_{(i)}-Y_{(i-1)}] \sim \text{Gamma}(n-1, 1)$.

17voto

Lev Puntos 2212

La prueba está dado en la Madre de Toda la Generación Aleatoria de los Libros, Devroye No Aleatorio uniforme de la Variable aleatoria Generación, en la p.211 (y es un muy elegante!):

Teorema 2.3 (Sukhatme, 1937) Si definimos $E_{(0)}=0$, entonces la normalizado exponencial espaciamientos $$(n-i+1)(E_{(i)}-E_{(i-1)})$$ derivado de las estadísticas de orden de $E_{(1)}\le\ldots\le E_{(n)}$ de un yo.yo.d. exponencial de la muestra de tamaño $n$ son los mismos que yo.yo.d. exponencial de las variables

Prueba.Desde \begin{align*} \sum_{i=1}^n e_i &= \sum_{i=1}^n e_{(i)} =\sum_{i=1}^n \sum_{j=1}^i(e_{(j)}-e_{(j-1)})\\ &=\sum_{j=1}^n \sum_{i=j}^n(e_{(j)}-e_{(j-1)}) =\sum_{j=1}^n (n-j+1)(e_{(j)}-e_{(j-1)}) \end{align*} la articulación de la densidad de la orden de estadística de la $(E_{(1)},\ldots,E_{(n)})$ escribe como $$f(\mathbf{e})=n!\,\exp\left\{-\sum_{i=1}^ne_{(i)}\right\}=n!\,\exp\left\{-\sum_{i=1}^n (n-i+1)(e_{(i)}-e_{(i-1)})\right\}$$ Establecimiento $Y_i=(E_{(i)}-E_{(i-1)})$, el cambio de las variables de $(E_{(1)},\ldots,E_{(n)})$ $(Y_1,\ldots,Y_n)$tiene una constante de Jacobina [por cierto igual a$1/n!$, pero esto no debe ser calculada] y, por tanto, la densidad de $(Y_1,\ldots,Y_n)$ es proporcional a $$\exp\left\{-\sum_{i=1}^n y_i \right\}$ $ , que establece el resultado. Q. E. D.

5voto

Jeff Bauer Puntos 236

Pongo aquí lo que ha sido sugerido en los comentarios @jbowman.

Vamos a una constante $a\geq 0$. Deje $Y_i$ seguir un $\text{Exp(1)}$ y considerar la posibilidad de $Z_i = Y_i-a$. Entonces

$$\Pr(Z_i\leq z_i \mid Y_i \geq a) = \Pr(Y_i-a\leq z_i \mid Y_i \geq a)$$

$$\implies \Pr(Y_i\leq z_i+a \mid Y_i \geq a) = \frac {\Pr(Y_i\leq z_i+a,Y_i \geq a)}{1-\Pr(Y_i\leq a)}$$

$$\implies \frac {\Pr(a\leq Y_i\leq z_i+a)}{1-\Pr(Y_i\leq a)} = \frac {1-e^{-z_i-a}-1+e^{-a}}{e^{-a}}=1-e^{-z_i} $$

cual es la función de distribución de $\text{Exp(1)}$.

Vamos a describir este: la probabilidad de que un $\text{Exp(1)}$ r.v. caerá en un intervalo de tiempo específico (el numerador en la última línea), dado que se va a superar el intervalo del límite inferior (el denominador), sólo depende de la longitud del intervalo y no se en donde este intervalo se coloca en la línea real. Esta es una encarnación de la "memorylessness" propiedad de la distribución Exponencial, aquí en un sentido más general, libre de tiempo-interpretaciones (y que tiene de la distribución Exponencial en general)

Ahora, por el condicionamiento de a $\{Y_i \geq a\}$ nos de la fuerza de $Z_i$ a ser no negativo, y, fundamentalmente, el resultado obtenido tiene $\forall a\in \mathbb R^+$. Así que podemos afirmar lo siguiente:

Si $Y_i\sim \text{Exp(1)}$, luego $\forall Q\geq 0 : Z_i = Y_i-Q \geq 0$ $\implies$ $Z_i\sim \text{Exp(1)}$.

Podemos encontrar una $Q\geq 0$ que es libre de tomar todos los no-negativa de los valores reales y para el cual se requiere la desigualdad siempre tiene (casi seguramente)? Si podemos, entonces podemos prescindir de la acondicionado argumento.

Y de hecho podemos. Es el mínimo de orden estadística, $Q=Y_{(1)}$, $\Pr(Y_i \geq Y_{(1)})=1$. Así que hemos obtenido

$$Y_i\sim \text{Exp(1)} \implies Y_i-Y_{(1)} \sim \text{Exp(1)}$$

Esto significa que

$$\Pr(Y_i-Y_{(1)} \leq y_i-y_{(1)}) = \Pr(Y_i \leq y_i)$$

Así que si la estructura probabilística de $Y_i$ permanece inalterado si restamos el pedido mínimo estadística, se deduce que las variables aleatorias $Z_i=Y_i-Y_{(1)}$ $Z_j=Y_j-Y_{(1)}$ donde $Y_i, Y_j$ independiente, también son independientes dado que el posible vínculo entre ellos, $Y_{(1)}$ no tiene un efecto sobre la estructura probabilística.

A continuación, la suma de $\sum_{i=1}^{n}(Y_i - Y_{(1)})$ contiene $n-1$ $\text{Exp(1)}$ yo.yo.d. variables aleatorias (cero), y así

$$\sum_{i=1}^{n}(Y_i - Y_{(1)}) \sim \text{Gamma}(n-1, 1)$$

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X