2 votos

Estimador de variables aleatorias uniformes

Dejemos que $(U_n)$ sean variables aleatorias uniformes iid sobre $(0, \theta)$ . Considera a los estimadores para $\theta$ a saber, $\max\{2\bar U_n, 0\}$ y $\max\{U_n\}$ . Mi pregunta es cómo demostrar que ambos estimadores son convergentes casi con seguridad a $\theta$ . Además, me parece que el primer estimador es demasiado complicado, ya que $2\bar U$ es siempre mayor que $0$ . Por lo tanto, está bien escribirlo simplemente como $2\bar U$ . ¿Verdad? Se agradecen respuestas más detalladas. Gracias.

2voto

Tomáš Puntos 760

Primero, a menos que me esté perdiendo algo, estoy de acuerdo contigo en que $\max\{2\bar{U}_n,0\}$ debería escribirse simplemente como $2\bar{U}_n$ . Veamos los dos estimadores que tienes:


$2\bar{U_n}$ : Esta es la más fácil de las dos. En general, si $X$ es una variable aleatoria uniforme en el intervalo $(a,b)$ , entonces $X$ tiene un valor esperado de $\frac{b+a}{2}$ . En nuestro caso, esto significa que el valor esperado del $U_n$ es $\theta/2$ . Como las variables aleatorias uniformes tienen una varianza finita podemos aplicar la Ley de los Grandes Números para concluir que $\bar{U}_n$ converge casi con seguridad a la media $\theta/2$ , de lo que se deduce inmediatamente el resultado deseado.


$\max\{U_n\}$ : Primero introduciré algo de notación. Utilicemos $(\Omega,\mathscr F,\Pr)$ para denotar el espacio de probabilidad en el que el $U_n$ están definidos, y para cada $n\in\mathbb N$ , dejemos que $M_n=\max\{U_1,\ldots,U_n\}$ . Sea $\omega\in\Omega$ sea arbitraria. Entonces, la secuencia $M_1(\omega),M_2(\omega),M_3(\omega),\ldots$ es monótonamente creciente. En efecto, tenemos que $$\{U_1(\omega)\}\subset\{U_1(\omega),U_2(\omega)\}\subset\cdots,$$ y $A\subset B$ implica necesariamente que $\max A\leq\max B$ .

Dado que $\theta$ es un límite superior para la secuencia $\{M_n(\omega):n\in\mathbb N\}$ , debe ser el caso de que converja a algún valor $\theta_0(\omega)\in[0,\theta]$ . Supongamos que $\theta_0(\omega)<\theta$ . Entonces, es evidente que $U_n(\omega)<\theta-\epsilon(\omega)$ por cada $n\in\mathbb N$ , donde $\epsilon(\omega)>0$ es una constante independiente de $n$ .

En consecuencia, vemos que el subconjunto $\Omega_0\subset\Omega$ en el que $M_n(\omega)$ hace no convergen a $\theta$ se incluye en \begin{align*} \bigcup_{\omega\in\Omega_0}\left(\bigcap_{n\in\mathbb N}[U_n<\theta-\epsilon(\omega)]\right)&\subset \bigcup_{q\in\mathbb Q,~0<q<\theta}\left(\bigcap_{n\in\mathbb N}[U_n<\theta-q]\right). \end{align*} En este punto, si se demuestra que $$\Pr\left[\bigcap_{n\in\mathbb N}[U_n<\theta-q]\right]=0,\tag{1}$$ entonces el resultado se seguirá por subaditividad contable.

(Una pista para $(1)$ : utilizar la regla de Kolmogorov $0$ - $1$ ley. No dude en comentar si algo de lo que he escrito no está claro).

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X