¿Cuál es la varianza de la muestra? En otras palabras, estoy buscando $\mathrm{Var}(S^2)$ .
He empezado por ampliar $\mathrm{Var}(S^2)$ en $E(S^4) - [E(S^2)]^2$
Sé que $[E(S^2)]^2$ es $\sigma$ a la potencia de 4. Y hasta ahí llegué.
¿Cuál es la varianza de la muestra? En otras palabras, estoy buscando $\mathrm{Var}(S^2)$ .
He empezado por ampliar $\mathrm{Var}(S^2)$ en $E(S^4) - [E(S^2)]^2$
Sé que $[E(S^2)]^2$ es $\sigma$ a la potencia de 4. Y hasta ahí llegué.
Aquí hay una derivación general que no asume la normalidad.
Reescribamos la varianza de la muestra $S^2$ como una media de todos los pares de índices: $$S^2={1\over{n\choose 2}}\sum_{\{i,j\}} {1\over2}(X_i-X_j)^2.$$ Desde $\mathbb{E}[(X_i-X_j)^2/2]=\sigma^2$ vemos que $S^2$ es un estimador insesgado para $\sigma^2$ .
La varianza de $S^2$ es el valor esperado de $$\left({1\over{n\choose 2}}\sum_{\{i,j\}} \left[{1\over2}(X_i-X_j)^2-\sigma^2\right]\right)^2.$$
Cuando se expande el cuadrado exterior, hay 3 tipos de términos de productos cruzados $$\left[{1\over2}(X_i-X_j)^2-\sigma^2\right] \left[{1\over2}(X_k-X_\ell)^2-\sigma^2\right]$$ dependiendo del tamaño de la intersección $\{i,j\}\cap\{k,\ell\}$ .
Cuando esta intersección está vacía, los factores son independientes y el producto cruzado esperado es cero.
Hay $n(n-1)(n-2)$ términos en los que $|\{i,j\}\cap\{k,\ell\}|=1$ y cada uno tiene un producto cruzado esperado de $(\mu_4-\sigma^4)/4$ .
Hay ${n\choose 2}$ términos en los que $|\{i,j\}\cap\{k,\ell\}|=2$ y cada uno tiene un producto cruzado esperado de $(\mu_4+\sigma^4)/2$ .
Si se combina todo esto, se ve que $$\mbox{Var}(S^2)={\mu_4\over n}-{\sigma^4\,(n-3)\over n\,(n-1)}.$$ Aquí $\mu_4=\mathbb{E}[(X-\mu)^4]$ es el cuarto momento central de $X$ .
Una pregunta relacionada en stats.SE proporciona una solución diferente, y pide una referencia, su entrada sería apreciada: stats.stackexchange.com/q/29905/2750
@Abe Lo siento, no tengo referencias ni aportes que valgan la pena. Lo anterior es una solución que me inventé para enseñar a mis alumnos.
Gracias, una respuesta a la pregunta de stats.SE resolvió mi confusión: la discrepancia era el uso de la curtosis ( $\mu_4$ el cuarto momento central) frente al exceso de curtosis ( $\kappa = \frac{\mu_4}{\sigma^4} -3$ ); una referencia es Mood Graybill y Boes, 1974, Introducción a la teoría de la estadística
Tal vez, esto ayude. Supongamos que las muestras se toman de una distribución normal. Entonces usando el hecho de que $\frac{(n-1)S^2}{\sigma^2}$ es una variable aleatoria chi-cuadrado con $(n-1)$ grados de libertad, obtenemos $$\begin{align*} \text{Var}~\frac{(n-1)S^2}{\sigma^2} & = \text{Var}~\chi^{2}_{n-1} \\ \frac{(n-1)^2}{\sigma^4}\text{Var}~S^2 & = 2(n-1) \\ \text{Var}~S^2 & = \frac{2(n-1)\sigma^4}{(n-1)^2}\\ & = \frac{2\sigma^4}{(n-1)}, \end{align*}$$
donde hemos utilizado el hecho de que $\text{Var}~\chi^{2}_{n-1}=2(n-1)$ .
Espero que esto ayude.
Recuerda que $(n-1)S^2/\sigma^2$ sólo se garantiza que sea $\chi^2$ cuando la muestra se toma de una distribución normal, sin embargo.
La pregunta planteada es general, mientras que la respuesta es específica para la distribución. Me temo que no es apropiado.
Puede haber cierta confusión en la definición de la varianza de la muestra ... 1/n frente a 1/(n-1). Supongo que la OP está utilizando la varianza de la muestra con 1/(n-1)... es decir, el estimador insesgado de la varianza de la población, también conocido como el segundo estadístico h:
h2 = HStatistic[2][[2]]
Este tipo de problemas puede resolverse ahora por ordenador. Aquí está la solución utilizando el complemento mathStatica de Mathematica. En particular, buscamos el Var[h2], donde la varianza es sólo el 2º momento central, y expresamos la respuesta en términos de momentos centrales de la población:
CentralMomentToCentral[2, h2]
Podríamos encontrar tan fácilmente, digamos, el 4º momento central de la varianza de la muestra, como:
CentralMomentToCentral[4, h2]
¿Su programa también le permite manejar variables aleatorias dependientes? Presumiblemente, entonces el resultado sería en términos de covarianzas de orden superior.
Sí, también funciona para las variables aleatorias dependientes. Hay un ejemplo multivariante en: math.stackexchange.com/questions/589865/
Se trata de un resultado muy conocido en estadística, y se puede encontrar en varios libros y artículos sobre teoría del muestreo. Puede encontrar una serie de resultados útiles de este tipo en O'Neill (2014) (esta se da en el Resultado 3, p. 284). Consideremos una distribución con media $\mu$ , varianza $\sigma^2$ , asimetría $\gamma$ y la curtosis $\kappa$ (donde todos estos momentos son finitos). $^\dagger$ Tomando la varianza muestral de $n$ El IID extrae de esta distribución y toma la varianza de la muestra $S_n^2$ da:
$$\boxed{\mathbb{V}(S_n^2) = \bigg( \kappa - \frac{n-3}{n-1} \bigg) \frac{\sigma^4}{n}}$$
En el caso especial de que la distribución subyacente sea mesocúrtica (por ejemplo, para una distribución normal) tenemos $\kappa = 3$ y esta expresión se reduce entonces a
$$\mathbb{V}(S_n^2) = \frac{2n}{n-1} \cdot \frac{\sigma^4}{n} = \frac{2 \sigma^4}{n-1}.$$
También le interesará saber que, en general, la varianza y la media de la muestra están correlacionadas. Su covarianza es $\mathbb{Cov}(\bar{X}_n, S_n^2) = \gamma \sigma^3/n$ y su correspondiente coeficiente de correlación es:
$$\begin{align} \mathbb{Corr}(\bar{X}_n, S_n^2) &= \frac{\mathbb{Cov}(\bar{X}_n, S_n^2)}{\mathbb{S}(\bar{X}_n) \cdot \mathbb{S}(S_n^2)} \\[6pt] &= \frac{\gamma \sigma^3}{n} \Bigg/ \frac{\sigma}{\sqrt{n}} \cdot \sqrt{ \Big( \kappa - \frac{n-3}{n-1} \Big) \frac{\sigma^4}{n}} \\[6pt] &= \frac{\gamma \sigma^3}{n} \Bigg/ \frac{\sigma^3}{n} \cdot \sqrt{\kappa - \frac{n-3}{n-1}} \\[6pt] &= \frac{\gamma}{\sqrt{\kappa - (n-3)/(n-1)}}, \\[6pt] \end{align}$$
y como $n \rightarrow \infty$ lo consigues:
$$\mathbb{Corr}(\bar{X}_n, S_n^2) \rightarrow \frac{\gamma}{\sqrt{\kappa - 1}},$$
que es el asimetría ajustada de la distribución subyacente. Puede encontrar más información sobre los momentos de la muestra (incluida la correlación entre ellos) en O'Neill (2014) .
$^\dagger$ En realidad, basta con suponer que la curtosis es finita, y esto implica que todos los momentos de orden inferior son también finitos.
Mostrar la derivación de $E(\left[{1\over2}(X-Y)^2-\sigma^2\right]^2) = (\mu_4+\sigma^4)/2$ del usuario940:
LHS:
$E(\left[{1\over2}(X-Y)^2-\sigma^2\right]^2) = E(\frac{1}{4}(X-Y)^4 - (X-Y)^2 \sigma^2 + \sigma^4) = E(\frac{1}{4}(X-Y)^4) - 2\sigma^2\sigma^2 + \sigma^4 = E(\frac{1}{4}(X-Y)^4) - \sigma^4 = \frac{1}{4}E(X^4 -4X^3Y +6X^2Y^2 -4XY^3 + Y^4) -\sigma^4 = \frac{1}{4}(2E(X^4) -8E(X)E(X^3) +6 E(X^2)(X^2)) - \sigma^4 = \frac{1}{2}(E(X^4)-4E(X)E(X^3) +3 E(X^2)(X^2) - 2\sigma^4)$
Utilizo el hecho de que $E((x-y)^2) = 2\sigma^2$ aquí.
RHS:
$\require{cancel} (\mu_4+\sigma^4)/2 = \frac{1}{2}(E((X-\mu)^4) + \sigma^4) = \frac{1}{2}(E((X-E(X))^4) + \sigma^4) = \frac{1}{2}(E(X^4 -4X^3E(X) + 6X^2E(X)^2 -4XE(X)^3 + E(X)^4) + \sigma^4) = \frac{1}{2}(E(X^4 -4X^3E(X) + 6X^2E(X^2) - 6X^2\sigma^2 -4XE(X)(E(X^2)-\sigma^2) + (E(X^2)-\sigma^2)^2) + \sigma^4) = \frac{1}{2}(E(X^4) -4E(X)^3E(X) + 6E(X)^2E(X^2) - 6E(X)^2\sigma^2 -4E(X)^2(E(X^2)-\sigma^2) + (E(X^2)-\sigma^2)^2 + \sigma^4) = \frac{1}{2}(E(X^4) -4E(X)^3E(X) + 6E(X)^2E(X^2) - \cancel{6E(X)^2\sigma^2} -4E(X^2)E(X^2) +\cancel{4E(X^2)\sigma^2 +4E(X^2)\sigma^2} - 4\sigma^4 + E(X^2)^2-\cancel{2E(X^2)\sigma^2} + \sigma^4 + \sigma^4) = \frac{1}{2}(E(X^4) -4E(X)^3E(X) + 3E(X)^2E(X^2) - 2\sigma^4)$
Utilizo el hecho de que $E(x) = \mu$ y que $E(x)^2 = E(x^2) - \sigma^2$
Ahora LHS = RHS.
I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.
0 votos
Sus expresiones son muy difíciles de leer. Tienes que editar y presentar tu pregunta de una manera mejor.
2 votos
Una forma de expresar $Var(S^2)$ se encuentra en la página de Wikipedia de desviación .
0 votos
No muestra cómo lo derivaron.
1 votos
La solución a la pregunta está en muchos libros. Puedes encontrarla fácilmente.
2 votos
Hay una derivación en la página de MathWorld Distribución de la varianza de la muestra página. Utilizan el método de "dividir por $N$ "en lugar de la convención "dividir por $N-1$ ", por lo que es posible que tengas que adaptarte a ello.
0 votos
¿Existe una forma más sencilla de hacerlo utilizando la distribución chi-cuadrado con n-1 grados de libertad?