1 votos

Demuestre que estos estimadores son consistentes

Estoy trabajando en la siguiente pregunta

Considere $ \Theta\in\mathbb{R} $ y una muestra aleatoria $ X_1,\cdots,X_N $ de variables aleatorias uniformemente distribuidas en $ [\Theta,\Theta+1] $ . ¿Es el estimador $ \hat{\Theta}_N(X_1,\cdots,X_N)=\text{min}_{i=1\cdots,N}X_i $ consistente para el parámetro $ \Theta $ ?

Mi script dice que el estimador es consistente si converge en probabilidad a $ \Theta $ . Y sólo mirando la definición de convergencia en probabilidad me parece lógico que lo haga. Sin embargo, no sé cómo demostrar esto formalmente. ¿Podría alguien darme una pista? Gracias de antemano.

edit: Quitó una parte de la pregunta que se resolvió sola ahí mismo.

1voto

Alex Puntos 95

Primero un par de consejos y luego pondré la solución debajo.

Pista 1: $\left|\hat{\Theta}_N - \Theta\right|$ (el primer término de la definición de "convergencia en probabilidad") es igual a $\hat{\Theta}_N - \Theta$ ya que por definición, $\hat{\Theta}_N \geq \Theta$ .

Pista 2: Para cualquier constante $c$ , $\mathbb{P}\left(\hat{\Theta}_N > c\right)$ es la probabilidad de que el mínimo del $X_i$ 's excede $c$ . El mínimo de la $X_i$ 's excede $c$ si y sólo si $X_1 > c, X_2 > c, \dots, X_n > c$ .

Solución: $\hat{\Theta}_N$ converge en probabilidad a $\Theta$ si, para cualquier $\epsilon > 0$ , $$\lim_{N \rightarrow \infty} \mathbb{P}\left(\left|\hat{\Theta}_N - \Theta\right| > \epsilon\right) = 0.$$

Ahora $$\mathbb{P}\left(\hat{\Theta}_N - \Theta > \epsilon\right) = \mathbb{P}\left(\hat{\Theta}_N > \Theta + \epsilon\right) = \mathbb{P}\left(X_1 > \Theta + \epsilon, X_2 > \Theta + \epsilon, \dots, X_N > \Theta + \epsilon \right).$$

Dado que las muestras son independientes e idénticamente distribuidas, $$\mathbb{P}\left(X_1 > \Theta + \epsilon, \dots, X_N > \Theta + \epsilon \right) = \mathbb{P}\left(X_1 > \Theta + \epsilon\right)\mathbb{P}\left(X_2 > \Theta + \epsilon\right) \cdots \mathbb{P}\left(X_N > \Theta + \epsilon \right).$$

Sabemos que $X_i \sim \mathbb{U}[\Theta, \Theta + 1]$ Así que $\mathbb{P}\left(X_i > \Theta + \epsilon \right) = 1 - \epsilon$ (siempre y cuando $\epsilon < 1$ En caso contrario, la probabilidad es $0$ ).

Por lo tanto, $$\mathbb{P}\left(\hat{\Theta}_N - \Theta > \epsilon\right) = \begin{cases} \left(1-\epsilon\right)^N & \text{if } \epsilon < 1,\\ 0 & \text{if } \epsilon \geq 1. \end{cases}.$$

Tomando el límite como $N \rightarrow \infty$ , $$\lim_{N \rightarrow \infty} \mathbb{P}\left(\left|\hat{\Theta}_N - \Theta\right| > \epsilon\right) = \lim_{N \rightarrow \infty} \begin{cases} \left(1-\epsilon\right)^N & \text{if } \epsilon < 1,\\ 0 & \text{if } \epsilon \geq 1 \end{cases} = 0.$$

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X