6 votos

Uniforme(0, $\theta$ ) relación UMVUE?

Dejemos que $X_i$ ser i.i.d. $uniform(0,\theta)$ y $Y_i$ ser i.i.d. $uniform(0,\lambda)$ .

El problema es encontrar el UMVUE de $\frac{\theta}{\lambda}$ .

Mi intento ha sido utilizar el hecho de que $(X_{(n)},Y_{(n)})$ El $n^{th}$ las estadísticas de orden, son conjuntamente suficientes y completas. Por lo tanto, cualquier estimador insesgado basado en ellos debe ser UMVUE. Desgraciadamente, hasta donde yo sé, ningún estimador insesgado de $\frac{1}{\lambda}$ existe y por lo tanto el $X_i$ y $Y_i$ no pueden tratarse por separado.

Es fácil comprobar que los máximos de estas muestras unformes tienen pdf's

$$f_X(x) = nx^{n-1}/\theta^n \quad \quad f_Y(y) = ny^{n-1}/\lambda^n$$

Por lo tanto, si $\delta(X_{(n)},Y_{(n)})$ es un estimador insesgado, entonces debe satisfacer

$$\int_0^\theta \int_0^\lambda \frac{\delta (x,y) n^2 x^{n-1}y^{n-1}}{\theta^n \lambda^n} dy dx = \frac{\theta}{\lambda}$$

O, por el contrario

$$\int_0^\theta \int_0^\lambda \delta (x,y) x^{n-1}y^{n-1} dy dx = \frac{\theta^{n+1}\lambda^{n-1}}{n^2}$$

Diferenciando ambos lados con respecto a $\theta$ entonces da

$$\int_0^\lambda \delta(\theta,y)\theta^{n-1}y^{n-1}dy = \frac{(n+1)\theta^n \lambda^{n-1}}{n^2}$$

Diferenciando una vez más con respecto a $\lambda$ rinde

$$\delta(\theta,\lambda) \theta^{n-1}\lambda^{n-1} = \frac{(n+1)(n-1)\theta^n\lambda^{n-2}}{n^2}$$

De modo que

$$\delta (\theta,\lambda) = \frac{(n+1)(n-1)}{n^2}\times \frac{\theta}{\lambda}$$

Por lo tanto, el UMVUE viene dado por

$$\delta (X_{(n)},Y_{(n)}) = \frac{(n+1)(n-1)}{n^2}\times \frac{X_{(n)}}{Y_{(n)}}$$

Lo cual parece sensato. ¿Funciona correctamente?

6voto

Aaron Puntos 36

Su trabajo me parece totalmente correcto. También podemos confirmar este resultado mediante un método alternativo. Supongamos que el UMVUE es probablemente una versión escalada de la estadística de la proporción:

$$R_n \equiv \frac{X_{(n)}}{Y_{(n)}}.$$

Para todos $r > 0$ que tenemos:

$$\begin{equation} \begin{aligned} F_{R_n}(r) \equiv \mathbb{P}(R_n \leqslant r) &= \mathbb{P}( X_{(n)} \leqslant r Y_{(n)} ) \\[6pt] &= \int \mathbb{P}(X_{(n)} \leqslant r y) f_Y(y) \ dy \\[6pt] &= \int \limits_0^\lambda \min \Big(1, \frac{ry}{\theta} \Big)^n \cdot \frac{n y^{n-1}}{\lambda^n} \ dy \\[6pt] &= \begin{cases} \frac{1}{2} \big( \frac{\lambda r}{\theta} \big)^n & & & \text{if } r \leqslant \tfrac{\theta}{\lambda}, \\[6pt] 1 - \frac{1}{2} \big( \frac{\theta}{\lambda r} \big)^n & & & \text{if } r > \tfrac{\theta}{\lambda}. \\ \end{cases} \end{aligned} \end{equation}$$

Así, para $n>1$ tenemos la expectativa:

$$\begin{equation} \begin{aligned} \mathbb{E}(R_n) &= \int \limits_0^\infty (1-F_{R_n}(r)) \ dr \\[6pt] &= \int \limits_0^{\theta / \lambda} \Big( 1-\frac{1}{2} \Big( \frac{\lambda r}{\theta} \Big)^n \Big) \ dr + \int \limits_{\theta / \lambda}^\infty \frac{1}{2} \Big( \frac{\theta}{\lambda r} \Big)^n \ dr \\[6pt] &= \frac{\theta}{\lambda} \bigg( 1-\frac{1}{2(n+1)} \bigg) + \frac{\theta}{\lambda} \frac{1}{2(n-1)} \\[6pt] &= \frac{\theta}{\lambda} \bigg( 1-\frac{1}{2(n+1)} + \frac{1}{2(n-1)} \bigg) \\[6pt] &= \frac{\theta}{\lambda} \cdot \frac{2(n-1)(n+1) - (n-1) + (n+1)}{2(n-1)(n+1)} \\[6pt] &= \frac{\theta}{\lambda} \cdot \frac{n^2}{n^2-1}. \\[6pt] \end{aligned} \end{equation}$$

Así, para todos los $n>1$ tenemos el estimador insesgado:

$$\widehat{\theta / \lambda} = \frac{n^2-1}{n^2} \cdot R_n,$$

que es lo que ha derivado en su propio trabajo.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X