10 votos

Encontrar la distribución conjunta de $X_1$ $\sum_{i=1}^n X_i$

Esta pregunta es de Robert Hogg Introducción a la Estadística Matemática 6º versión pregunta 7.6.7. El problema es :

Vamos a una muestra aleatoria de tamaño n tomada de una distribución con el pdf $$f(x;\theta)=(1/\theta)\exp(-x/\theta)\mathbb{I}_{(0,\infty)}(x)$$

Encuentre el MLE y la MVUE de $P(X \le 2)$.

Sé cómo encontrar el MLE.

Creo que la idea de encontrar la MVUE es el uso de Rao-Blackwell y Lehmann y de Scheffe. En primer lugar encontramos un estimador imparcial de $P(X \le 2)$ que puede ser $\mathbb{I}_{(0,2)}(X_1)$, y sabemos $Y=\sum_{i=1}^n X_i$ suficiente estadística.

A continuación, $\mathbb{E}[I_{(0,2)}(X_1)\mid Y]$ será la MUVE.

Para encontrar la expectativa, tenemos que la distribución conjunta de $X_1$ $Y=\sum_{i=1}^n X_i$

Estoy atrapado aquí.

El libro tiene una solución, pero no entiendo la solución. La solución, dice vamos a encontrar la distribución conjunta de $Z=X_1$ $Y$ pero primero dejando $V=X_1+X_2$ $U=X_1+X_2+X_3+...$ el Jacobiano es uno, entonces nos la integración de esas otras variables.

Cómo viene el Jacobiano es igual a uno?

La respuesta para la distribución conjunta es $$g(z,y;\theta)=\frac{(y-z)^{n-2}}{(n-2)!\theta^n}e^{-y/\theta}$$

¿Cómo conseguimos esto?

Actualización: Según lo sugerido por Xi'an(el libro sugiere que la transformación es confuso), hagamos la transformación de la siguiente manera:

Vamos

$Y_1=X_1, \\Y_2=X_1+X_2,\\ Y_3=X_1+X_2+X_3, \\Y_4=X_1+X_2+X_3+X_4,\\... \\Y_n=X_1+X_2+X_3+X_4+...+X_n$

entonces

$X_1=Y_1, \\ X_2=Y_2-Y_1,\\ X_3=Y_3-Y_2,\\X_4=Y_4-Y_3,\\...,\\X_n=Y_n-Y_{n-1}$

y la correspondiente verificación Jacobiana es:

$\left | J \right |=\begin{vmatrix} \frac{\partial x_1}{\partial y_1} &\frac{\partial x_1}{\partial y_2} &\frac{\partial x_1}{\partial y_3} &... &\frac{\partial x_1}{\partial y_n} \\ \frac{\partial x_2}{\partial y_1} &\frac{\partial x_2}{\partial y_2} &\frac{\partial x_2}{\partial y_3} &... &\frac{\partial x_2}{\partial y_n} \\ \frac{\partial x_3}{\partial y_1} &\frac{\partial x_3}{\partial y_2} &\frac{\partial x_3}{\partial y_3} &... &\frac{\partial x_3}{\partial y_n} \\ \vdots&\vdots & \vdots &\vdots &\vdots \\ \frac{\partial x_n}{\partial y_1} &\frac{\partial x_n}{\partial y_2} &\frac{\partial x_n}{\partial y_3} &... &\frac{\partial x_n}{\partial y_n} \end{vmatrix}=\begin{vmatrix} 1& 0 &0 &... &0 &0 \\ -1& 1 & 0 & ... & 0&0\\ 0&-1 & 1 & ... &0 &0\\ ...&... &... & ... &...&.. \\ 0&0 &0 & ... & -1&1 \end{vmatrix}=1$

Desde $X_1,X_2,...X_n$ son yo.yo.d $\Gamma(1,\theta)$ o $\mathcal{E}(1/\theta)$], la articulación de la densidad de $x_1,x_2,...,x_n $ es :

$$f(x_1,x_2,...,x_n)=\frac{1}{\theta}\exp(-x_1/\theta) \times\frac{1}{\theta}\exp(-x_2/\theta)\times\cdots\times\frac{1}{\theta}\exp(-x_n/\theta)\mathbb{I}_{x_1\ge 0}\cdots\mathbb{I}_{x_n\ge 0}$$

Por lo tanto, la articulación pdf de $(Y_1,Y_2,..., Y_n)$ es

\begin{align*}h(y_1,y_2,...,y_n)&=\frac{1}{\theta^n}\exp(-y_1/\theta)\exp[-(y_2-y_1)/\theta]\exp[-(y_3-y_2)/\theta]\cdots\exp[-(y_n-y_{n-1})/\theta]\left |J \right |\mathbb{I}_{y_1\ge 0}\mathbb{I}_{y_2-y_1\ge 0}\cdots\mathbb{I}_{y_n-y_{n-1}\ge 0}\\&=\frac{1}{\theta^n}\exp(-y_n/\theta)\mathbb{I}_{y_1\ge 0}\mathbb{I}_{y_2\ge y_1}\cdots\mathbb{I}_{y_n\ge y_{n-1}}\end{align*}

A continuación, podemos integrar a cabo $y_2,y_3,...,y_{n-1}$ para obtener el conjunto pdf $y_1$ $y_n$

Gracias a las sugerencias de Xi'an, ahora puedo resolver el problema, voy a dar los cálculos detallados a continuación

$$g(y_1,y_n)=\int_{y_1}^{y_n}\int_{y_2}^{y_n}...\int_{y_{n-3}}^{y_n}\int_{y_{n-2}}^{y_n}\frac{1}{\theta^n}*exp(-y_n/\theta)dy_{n-1}dy_{n-2}...dy_3dy_2\\=\frac{1}{\theta^n}*exp(-y_n/\theta)*\int_{y_1}^{y_n}\int_{y_2}^{y_n}...\int_{y_{n-3}}^{y_n}\int_{y_{n-2}}^{y_n}dy_{n-1}dy_{n-2}...dy_3dy_2 \\=\frac{1}{\theta^n}*exp(-y_n/\theta)*\int_{y_1}^{y_n}\int_{y_2}^{y_n}...\int_{y_{n-4}}^{y_n}\int_{y_{n-3}}^{y_n}(y_n-y_{n-2})dy_{n-2}dy_{n-3}...dy_3dy_2 \\=\frac{1}{\theta^n}*exp(-y_n/\theta)*\int_{y_1}^{y_n}\int_{y_2}^{y_n}...\int_{y_{n-5}}^{y_n}\int_{y_{n-4}}^{y_n}\frac{(y_n-y_{n-3})^2}{2}dy_{n-3}dy_{n-4}...dy_3dy_2 \\=\frac{1}{\theta^n}*exp(-y_n/\theta)*\int_{y_1}^{y_n}\int_{y_2}^{y_n}...\int_{y_{n-6}}^{y_n}\int_{y_{n-5}}^{y_n}\frac{(y_n-y_{n-4})^3}{2 \times 3}dy_{n-4}dy_{n-5}...dy_3dy_2\\=\frac{1}{\theta^n}*exp(-y_n/\theta)*\int_{y_1}^{y_n}\int_{y_2}^{y_n}...\int_{y_{n-7}}^{y_n}\int_{y_{n-6}}^{y_n}\frac{(y_n-y_{n-5})^4}{2 \times 3 \times 4}dy_{n-5}dy_{n-6}...dy_3dy_2\\ $$

$=... $

$=\frac{1}{\theta^n}*exp(-y_n/\theta)\frac{(y_n-y_1)^{n-2}}{(n-2)!}$

Cambio en el libro de la notación, $y=y_n, z=y_1$, obtenemos

$g(z,y;\theta)=\frac{(y-z)^{n-2}}{\theta^n(n-2)!}e^{-y/\theta}$.

Esto resuelve el problema.

8voto

Peter Smit Puntos 5655

Para Encontrar MLE con respecto a la estabilidad de la propiedad de la EML estimaciones, podemos escribir p(X<2)=1-exp(-2/θ) luego tenemos el MLE de θ=∑Xi por lo tanto MLE de p(X<2)=1-exp(-2/θ) es p(X<2)=1-exp(-2/∑Xi) Acabo de responder a la primera parte de la pregunta.

4voto

mark Puntos 232

La transformación argumento funciona bien y siempre es útil, pero ahora voy a sugerir una alternativa para resolver este problema que tiene cierta semejanza con el método que utilizaría si fueron las variables discretas. Recordemos que la principal diferencia es que mientras que para una variable aleatoria discreta $X$ $P(X=x)$ es bien definido para un continuo rv $Y$, $P(Y=y)=0$, así que tenemos que ser un poco cuidadoso.

Deje $S=\sum_{i=1}^n X_i$ y actualmente estamos buscando para la distribución conjunta

$$f_{X_1, S} \left(x_1, s \right)$$

que nos puede aproximar con la probabilidad

\begin{align} f_{X_1, S} \left(x_1, s \right) &\approx P\left[ x_1 <X_1< x_1 +\Delta x_1 , s<S<s+\Delta s \right] \\ &\approx P\left[ x_1 <X_1< x_1 +\Delta x_1 , s-x_1<\sum_{i=2}^n X_i<s-x_1+\Delta s \right] \\ &= P\left[ x_1 <X_1< x_1 +\Delta x_1 \right] P \left[ s-x_1<\sum_{i=2}^n X_i<s-x_1+\Delta s \right] \\ &\approx \frac{1}{\theta} \exp\left\{-\frac{x_1}{\theta}\right\} \frac{ \left(s-x_1\right)^{n-2} \exp\left\{-\frac{s-x_1}{\theta} \right\}}{\Gamma \left(n-1 \right) \theta^{n-1}} \\ &= \frac{\left(s-x_1\right)^{n-2}}{\theta^n \left(n-2\right)!} \exp\left\{-\frac{s}{\theta} \right\} \end{align}

para $ 0<x_1<s<\infty $. Tenga en cuenta que en la cuarta línea, hemos utilizado la propiedad de aditividad de la distribución gamma, de que la exponencial es un caso especial.

Si ajusta la notación que estamos recibiendo de la misma cosa que el anterior. Este método le permite salirse con las múltiples integración y por eso lo prefiero. De nuevo, ten cuidado en cómo se definen las densidades, sin embargo.

Espero que esto ayude.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X