4 votos

Demostrar que el producto de 2 muestras, cuando se ordenan, converge a la varianza de la población

Tengo una pregunta sobre el valor medio del producto por pares de 2 muestras ordenadas que se extraen de una variable aleatoria, $X$ que en este caso es gaussiana de media cero ( $X \sim N(0,\sigma_x) $ ).

Dejemos que $x_1, x_2, ... x_n$ sea $n$ muestras extraídas de la variable aleatoria $X$ . Pongamos estas muestras en orden ascendente, y llamemos al resultado: $x_{(1)}, x_{(2)}, ... x_{(n)}$ .

Hagamos lo mismo con una segunda muestra de $n$ elementos extraídos de $X$ . Los llamaremos $x'_{(1)}, x'_{(2)}, ... x'_{(n)}$

(Así que los dos conjuntos de muestras están cada uno, por separado, en orden ascendente)

Empíricamente, lo he notado:

$$ \lim_{n \rightarrow \infty} \frac{1}{n} \sum_i^n x_{(i)}x'_{(i)} \rightarrow \sigma_x^2$$

Estoy tratando de probar este resultado. ¿Alguien tiene alguna sugerencia? He estado buscando en la literatura para las estadísticas de orden, pero parece que no puedo llegar a una prueba hermética.

(Obsérvese que si no las hubiera ordenado, el producto por pares entre las dos muestras convergería obviamente a cero, ya que $X$ es de media cero: $ \lim_{n \rightarrow \infty} \frac{1}{n} \sum_i^n x_{i}x'_{i} \rightarrow 0$ )

(Hice esta pregunta intercambio de matemáticas, pero creo que es más adecuado para este stackexchange).

1 votos

Dada la media cero, $\frac{1}{n}\sum_{i=1}^n x_i^2$ converge a la verdadera varianza como $n \rightarrow \infty$ . Parece que cuantas más muestras se extraigan, más se acercará cada muestra de la primera lista ordenada a su compañera de la segunda lista ordenada: $|x_i - x_i'| \rightarrow 0$ Así que $x_i x_i' \rightarrow x_i^2$ . Tal vez esto podría explicar su observación. No he reflexionado lo suficiente sobre esto como para decir si su conjetura es cierta o no, pero tal vez esto podría ser un punto de partida.

1 votos

Si es cierto, una forma de demostrarlo podría ser observar la distribución de la $k$ estadística de orden para $n$ iid de una gaussiana de media cero. Demostrando (para todos los $k \in [1, n]$ ) que esta distribución se aproxima a una función delta (por ejemplo, que su varianza se aproxima a 0) como $n \rightarrow \infty$ implicaría que $|x_i - x_i'| \rightarrow 0$ .

0 votos

¡Gracias @user20160! Esto es muy útil. Estoy mirando la distribución de la $k$ de la estadística del orden. Lo es: $f_{(k)}(x) = \frac{n!}{(k-1)!(n-k)!}f_X(x)(F(x))^{k-1}(1-F(x))^{n-k}$ . He intentado integrar esto para encontrar la media y la varianza, pero no encuentro una forma cerrada de realizar esta integral. ¿Tenéis alguna sugerencia de cómo llevarla a cabo? Gracias.

3voto

Jeff Bauer Puntos 236

También sostiene que

$$\frac{1}{n} \sum_i^n x_{(i)}^2 \rightarrow_p \sigma_x^2,\;\;\; \frac{1}{n} \sum_i^n [x'_{(i)}]^2 \rightarrow_p \sigma_x^2$$

ya que el resultado es válido para cualquier permutación del índice y también para la ordenada. Entonces

$$\frac{1}{n} \sum_i^n x_{(i)}^2 + \frac{1}{n} \sum_i^n [x'_{(i)}]^2 \rightarrow_p 2\sigma_x^2$$

$$\implies \frac{1}{n} \sum_i^n [x_{(i)}-x'_{(i)}]^2 + \frac{2}{n} \sum_i^n x_{(i)}x'_{(i)} \rightarrow_p 2\sigma_x^2$$

$$\implies \frac{1}{n} \sum_i^n x_{(i)}x'_{(i)}\rightarrow_p \sigma_x^2 - \frac{1}{2n} \sum_i^n [x_{(i)}-x'_{(i)}]^2$$

Así que para que el resultado se mantenga debemos demostrar que

$$\frac{1}{2n} \sum_i^n [x_{(i)}-x'_{(i)}]^2 \rightarrow_p 0$$

que a su vez requiere demostrar que

$$x_{(i)}-x'_{(i)} \rightarrow_p 0 $$

y así también en la distribución y por lo tanto que $E\big[x_{(i)}-x'_{(i)}\big]^2 =0$

Por cierto, esto es lo que ha sugerido un comentario. ¿Puedes tomarlo desde aquí?

0 votos

¡Muchas gracias! Es un razonamiento muy claro. Sin embargo, me sigue costando mucho trabajo asumirlo. Como mencioné en respuesta a los comentarios, no consigo encontrar una forma cerrada de realizar las integrales del $k$ de orden para encontrar la media y la varianza. ¿Tienen alguna sugerencia? Gracias

0 votos

@AbubakarAbid No hace falta hacer eso, que de todas formas suele ser inviable. Lo que tienes que demostrar, como sugiere el comentario, es que la propia función de distribución de un estadístico de orden (no la función de densidad) se aproxima a una constante como $n$ llega al infinito. Esto se demuestra fácilmente para $X_{(1)}$ y $X_{(n)}$ por ejemplo.

0 votos

Gracias @Alecos, perdona que no sepa entender. ¿Estás sugiriendo que demuestre que la FCD de $X_{(k)}$ se aproxima a una función escalonada (lo que significa que toda la densidad de probabilidad se concentra en un único punto)? Eso parece aún más difícil que calcular la varianza. ¿Podría mostrarme cómo llegó a la conclusión de que era el caso de $X_{(1)}$ o $X_{(n)}$ ?

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X