4 votos

Ley débil de Chebychev de los grandes números

Este teorema se encuentra en Econometric Analysis (7ª edición) de Greene (2012), página 1071. Afirma que "Si $x_i$ , $i=1,2,...,n$ es una muestra de observaciones tal que $E(x_i)=\mu_i<\infty$ y $var(x_i)=\sigma_i^2<\infty$ tal que $\frac{1}{n^2}\Sigma_{i}\sigma_i^2\rightarrow0$ como $n\rightarrow\infty$ . Entonces $plim(\overline{x}_n-\overline{\mu}_n)=0$ , donde $\overline{x}_n$ y $\overline{\mu}_n$ son la media de $x_i$ y $\mu_i$ respectivamente".

Supongo que $plim(\overline{x}_n-\overline{\mu}_n)=0$ puede escribirse como " $plim(\overline{x}_n)=plim(\overline{\mu}_n)$ " si $plim(\overline{\mu}_n)$ existe (es decir, es una constante). ¿Estoy en lo cierto? O bajo qué condición, se puede escribir así, ya que en el libro, se menciona que "El teorema de Chebychev no establece que $\overline{x}_n$ converge a $\overline{\mu}_n$ o incluso que converja a una constante. Eso requeriría una declaración precisa sobre el comportamiento de $\overline{\mu}_n$ ".

Edición1: Entiendo este teorema. Mi pregunta es más bien: ¿bajo qué condiciones podemos $\overline{x}_n$ converge a $\overline{\mu}_n$ en probabilidad ya que el libro menciona "Eso requeriría una declaración precisa sobre el comportamiento de $\overline{\mu}_n$ " y no estoy seguro de cuál puede ser la declaración.

Como has señalado, $\mu_i$ no es una variable aleatoria, tampoco $\overline{\mu}_n$ . Pero en la práctica lo aplico, $\mu_i$ s son $i.i.d$ muestras de una distribución $F$ con media m y varianza v finitas.
Es como si cada vez que dibujo un $\mu_i$ de $F$ y luego generar $x_i$ de $N(\mu_i,\sigma_i^2)$ . Así que en este escenario, $\mu_i$ es una variable aleatoria, también lo es $\overline{\mu}_n$ . Y ahora $plim\overline{\mu}_n=m$ . Podemos decir $plim(\overline{x}_n)=plim(\overline{\mu}_n)=m$ en este entorno específico? Podemos asumir la independencia en este caso. Gracias.

1 votos

Su anotación es un poco inusual. ¿Quiere decir que $\bar{X}_n - \bar{\mu}_n$ converge a cero en probabilidad? Además, ¿son los $X_i$ ¿se supone que es independiente?

1 votos

" $\text{plim}(\bar\mu_n)$ "no tiene sentido porque el $\mu_i$ no son variables aleatorias. Un ejemplo concreto a contemplar es $X_{2^i+j} + (-1)^i\sim B(1/2)$ para todos $i=0, 1, 2, \ldots$ y $j=0, \ldots, 2^i-1$ . La secuencia $\mu_n$ alterna entre cadenas cada vez más largas de $3/2$ y $-1/2$ nunca alcanza un límite (pero tampoco diverge), mientras que $\sigma_n^2=1/4$ para todos $n$ .

3voto

JoanComasFdz Puntos 131

Es de suponer que debemos asumir la independencia en este caso, de lo contrario, he aquí un simple contraejemplo: dejemos que $X_1$ sea Bernoulli $(1/2)$ y establecer $X_i = X_1$ para $i > 1$ .

No estoy totalmente seguro de lo que preguntas, pero asumiendo la independencia el hecho de que $(\bar{X}_n - \bar{\mu}_n)$ converge a cero en probabilidad es inmediata a partir de la desigualdad de Chebyshev. Sólo hay que tener en cuenta que para $\epsilon > 0$

$$ P \left ( \frac{\sum_{i=1}^{n} (X_i - \mu_i)}{n} \geq \epsilon \right ) \leq \frac{\sum_{i=1}^{n} \sigma^2_i}{n^2 \epsilon^2} $$

y la condición nos dice que este límite llega a cero cuando $n \to \infty$ . ¿Qué parte de esto está causando confusión?

1 votos

+1 Creo que exigir la $X_i$ que no estén correlacionados será suficiente.

0 votos

"... podría relajarse bastante." No estoy tan seguro. $n^{-2} \sum_{i=1}^{n} \sigma^2_i$ es exactamente la varianza de $\frac{\sum_{i=1}^{n} (X_i - \mu_i)}{n}$ y debe converger a $0$ como $n \to \infty$ .

2voto

Dilip Sarwate Puntos 16161

Considere las variables aleatorias independientes $X_n \colon n \geq 1$ donde $X_n \sim N(n, 1)$ . En la terminología de su libro, $\mu_n = n$ y $\sigma_n^2 = 1$ . Definir $S_n = \frac 1n \sum_{i=1}^n X_n$ y observe que $S_n \sim N\left(\frac{n+1}{2},\frac{\sigma^2}{n}\right)$ es lo que su libro llama $\bar{X}_n$ cuya media es $\bar{\mu}_n = \frac{1}{n}\sum_{i=1}^n \mu_i = \frac{n+1}{2}$ . Por lo tanto, $$Z_n = \left(S_n - \frac{n+1}{2}\right)\sim N\left(0,\frac{\sigma^2}{n}\right).$$ Ahora, la desigualdad de Chebyshev dice que \begin{align} P\{|Z_n| > \epsilon\} &= P\left\{\left|S_n - \frac{n+1}{2}\right| > \epsilon\right\}\\ &= P\left\{\left|\bar{X}_n - \bar{\mu_n}\right| > \epsilon\right\}\\ &\leq \frac{\sigma^2}{n\epsilon^2} \to 0 ~~ \text{as}~~ n \to \infty \end{align} Así, $Z_n$ converge a $0$ en la probabilidad, pero, como usted ha deducido correctamente dedujo, no se puede decir que $S_n = \bar{X}_n$ converge a $\lim_{n\to \infty} \bar{\mu}_n$ en probabilidad porque ese límite no existe; la secuencia de números $\bar{\mu}_n$ diverge. En el comentario de Whuber, da un ejemplo de una secuencia de números $\bar{\mu}_n$ para el que no existe el límite y la secuencia no converge ni diverge. Podemos construir un ejemplo similar modificando las condiciones anteriores.

Supongamos, en cambio, que $X_n \sim N((-1)^nn,1)$ para que ahora $$S_n \sim \begin{cases}N\left(\frac{1}{2},\frac{\sigma^2}{n}\right), & n ~~\text{even},\\N\left(-\frac{1}{2}-\frac 1n,\frac{\sigma^2}{n}\right), & n ~~\text{odd}, \end{cases}$$ para que la secuencia $\bar{\mu}_n$ es una secuencia cuyos términos son alternativamente positivos (y fijados en $\frac 12$ ) y negativo (y acercándose a $-\frac 12$ como $n \to \infty$ . Así, la secuencia no diverge, ni se acerca a un límite. Del mismo modo, la secuencia $\bar{X}_n$ converge a una secuencia de alternativas $\pm\frac 12$ valores.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X