5 votos

¿Puede demostrar que $\bar{X}$ es un estimador coherente de $\lambda$ utilizando la desigualdad de Tchebysheff?

Esta pregunta se extrajo de un examen práctico de mi curso de estadística.

Dada una muestra aleatoria $X_1, X_2, ... X_n$ de una distribución de Poisson con media $\lambda$ ¿puede demostrar que $\bar{X}$ es coherente para $\lambda$ ?

Se nos dice que utilicemos la desigualdad de Tchebysheff. Que es: $Pr(|X-\mu| \geq k\sigma) \le \frac{1}{k^2}$

Además, hasta donde yo sé, la consistencia de un estimador es la propiedad de que a medida que aumentamos el tamaño de la muestra de $\bar{X}$ nuestro estimador debería devolver valores cada vez más cercanos al valor real que queremos estimar.

Así que lo primero que hice fue encontrar la varianza para $\bar{X}$ como sigue: $Var(\bar{X})=Var(\frac{\sum(X_i)}{n})=\frac{1}{n^2}Var(\sum(X_i))=\frac{\lambda}{n}$

Me doy cuenta de que como $n \rightarrow \infty $ la varianza disminuye a $0$ pero, ¿en qué me ayuda esto?

Ahora supongo que podemos usar la desigualdad de Tchebysheff donde necesitamos $Pr(|\bar{X}-\lambda| \geq \epsilon) = 0$ y ahí es donde me atasco...

Se agradece cualquier ayuda.

2voto

AdamSane Puntos 1825

Edito: Como parece que no ha quedado claro, voy a completar algunos detalles más; ha pasado tiempo, así que quizá pueda aventurarme un poco más.

Empiece por las definiciones.

paso 1 : dar una definición de coherencia

Como éste de wikipedia Estimador coherente artículo:

Supongamos que ${p_θ: θ ∈ Θ}$ es una familia de distribuciones (el modelo paramétrico), y $X^θ = {X_1, X_2, \ldots : X_i ~ p_θ}$ es una muestra infinita de la distribución $p_θ$ . Sea ${ T_n(X^θ) }$ sea una secuencia de estimadores para algún parámetro $g(θ)$ . Normalmente $T_n$ se basará en el primer $n$ observaciones de una muestra. Entonces esta secuencia ${T_n}$ se dice que es (débilmente) consistente si

$\underset{n\to\infty}{\operatorname{plim}}\;T_n(X^{\theta}) = g(\theta),\ \ \text{for all}\ \theta\in\Theta$

paso 2: Tenga en cuenta (¡ojalá!) que se basa en la convergencia en probabilidad, así que dé un definición al respecto a su vez (artículo de wikipedia sobre Convergencia de variables aleatorias ).

Una secuencia ${X_n}$ de variables aleatorias converge en probabilidad hacia la variable aleatoria $X$ si para todo $ε > 0$

$\lim_{n\to\infty}\Pr\big(|X_n-X| \geq \varepsilon\big) = 0.$

paso 3 : Entonces escribe Desigualdad de Chebyshev abajo:

Sea $X$ (integrable) sea una variable aleatoria con valor esperado finito μ y varianza finita distinta de cero σ2. Entonces, para cualquier número real $k > 0$ ,

$\Pr(|X-\mu|\geq k\sigma) \leq \frac{1}{k^2}.$

(artículo de wikipedia sobre Desigualdad de Chebyshev )

paso 4 Observemos ahora la gran similitud entre dos expresiones de (2) y (3).
¿No te da eso una gran pista sobre la forma de enfocar esto?


Así que empecemos

De Chebyshev:

$Pr(|\bar{X}-\lambda| \geq k\lambda/n) \le \frac{1}{k^2}$ (lo has calculado todo, pero no lo has escrito en tu pregunta. No entiendo por qué no lo hiciste).

Sea $\epsilon=k\lambda/n$ (ese es el paso obvio de la "enorme pista" que se suponía que debías ver al comparar las dos cosas que te dije que anotaras... una tenía un $\epsilon$ donde el otro tenía un $k\lambda/n$ ... si hubieras escrito las dos, como te había sugerido, supongo que te habrías dado cuenta en cuanto las hubieras comparado).

Así que ahora, lo único que realmente queda es demostrar que para cualquier $\epsilon$ como $n\to\infty$ el lado derecho es 0.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X