3 votos

Expectativa y varianza de las muestras bootstrap

Antecedentes

Los datos de que disponemos consisten en $n$ iid variables aleatorias representadas como $X_j$ , donde $j \in \{1,\ldots,n\}$ . Sabemos que $\forall i,\, \operatorname{E}\left(X_i\right) = \mu$ y que $\operatorname{Var}\left(X_i\right) = \sigma^2$ .

Supongamos que generamos $B$ muestras bootstrap de estos datos, con el $i$ El elemento del $b$ muestra bootstrap denotada por $X_i^{b}$ .

Pregunta

¿Qué son $\operatorname{E}\left(X_i^{b}\right)$ y $\operatorname{Var}\left(X_i^{b}\right)$ ?

3voto

Nurmister Puntos 73

(i) Demostrar que $\operatorname{E}\left(X_i^{∗b}\right) = \mu$

$X_i^{∗b}$ está "compuesta" por variables aleatorias. Para simplificar el proceso de encontrar $\operatorname{E}\left(X_i^{∗b}\right)$ , comienza con una expectativa condicional.

\begin{equation*} \operatorname{E}\left(X_i^{∗b}\,\vert\,X_1,\ldots,X_n\right) = \sum_{j = 1}^{n}\frac{X_j}{n} \end{equation*} Este valor esperado es una variable aleatoria en sí misma. Por lo tanto: \begin{equation*} \begin{split} \operatorname{E}\left(X_i^{∗b}\right) &= \operatorname{E}\left[\operatorname{E}\left(X_i^{∗b}\,\vert\,X_1,\ldots, X_n\right)\right]\\ &= \operatorname{E}\left(\sum_{j = 1}^{n}\frac{X_j}{n}\right)\\ & = \frac{1}{n}\sum_{j = 1}^{n}\operatorname{E}\left(X_j\right)\\ & = \frac{1}{n}\sum_{j = 1}^{n}\mu\\ & = \mu.\,\square \end{split} \end{equation*}

(ii) Demostrar que $\operatorname{Var}\left(X_i^{∗b}\right) = \sigma^2$

Recordemos que: \begin{equation*} \begin{split} \operatorname{Var}\left(X_i^{∗b}\right) &= \operatorname{E}\left[\left(X_i^{∗b}\right)^2\right] - \left[\operatorname{E}\left(X_i^{∗b}\right)\right]^2\\ &= \operatorname{E}\left[\left(X_i^{∗b}\right)^2\right] - \mu^2. \end{split} \end{equation*} Busquemos $\operatorname{E}\left[\left(X_i^{∗b}\right)^2\right]$ de manera similar a (i). También tendremos que aplicar la "ley del estadístico inconsciente", que establece que \begin{equation*} \operatorname{E}[g(X)] = \sum _{x}g(x)f_{X}(x) \end{equation*} para alguna función $g$ que actúa sobre una variable aleatoria $X$ . \begin{equation*} \operatorname{E}\left[\left(X_i^{∗b}\right)^2\,\bigg|\,X_1,\ldots,X_n\right] = \sum_{j = 1}^{n}\frac{\left(X_j\right)^2}{n} \end{equation*} \begin{equation*} \begin{split} \implies \operatorname{E}\left[\left(X_i^{∗b}\right)^2\right] &= \operatorname{E}\left\{\operatorname{E}\left[\left(X_i^{∗b}\right)^2\,\bigg|\, X_1,\ldots,X_n\right]\right\}\\ &= \operatorname{E}\left[\sum_{j = 1}^{n}\frac{\left(X_j\right)^2}{n}\right]\\ & = \frac{1}{n}\sum_{j = 1}^{n}\operatorname{E}\left[\left(X_j\right)^2\right]\\ & = \frac{1}{n}\sum_{j = 1}^{n}\left(\sigma^2 + \mu^2\right)\\ & = \sigma^2 + \mu^2 \end{split} \end{equation*} \begin{equation*} \begin{split} \implies \operatorname{Var}\left(X_i^{∗b}\right) &= \sigma^2 + \mu^2 - \mu^2\\ &= \sigma^2.\,\square \end{split} \end{equation*}

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X