9 votos

Derivación de la appproximation de Satterthwaite

Utilizando el método de los momentos, uno puede tratar de aproximar la suma de $\chi_{r}^{2}$ variables como $\sum a_{i}Y_{i}$, equiparando la $n$-ésimo los movimientos de la muestra con la $n$-ésimo movimiento de la población, y de "resolver" los parámetros de esta manera. Sin embargo, yo estoy atrapado en la derivación de Satterthwaite appproximation. El autor (Berger&Castella) propuso la siguiente(página 314):

"..para hacer esto debemos de partido segundo de los momentos, y tenemos la necesidad de $$\mathrm{E}\left(\sum^{k}_{i=1}a_{i}Y_{i}\right)^{2}=\mathrm{E}\left(\frac{\chi_{v}^{2}}{v}\right)^{2}=\frac{2}{v}+1$$

Aplicando el método de los momentos, podemos colocar la primera expectativa y resolver para $v$, produciendo $$\overline{v}=\frac{2}{\left(\sum^{k}_{i=1}a_{i}Y_i\right)^{2}-1}$$"

Mi pregunta ingenua es la razón por la que nos puede caer a la expectativa a todos? Esto no es claro a partir de la descripción del autor de el método de los movimientos, en los que uno simplemente igualar $$m_{j}=\frac{1}{n}\sum^{n}_{i=1}X_{i}^{j}\text{ with } EX^{j}$$ Y a mí me parece claro que la expectativa de signo no se puede quitar. De manera similar, en el último paso de la derivación de la fórmula de aproximación, el autor sugiere:

"..al sustituir esta expresión para la varianza y la eliminación de las expectativas, obtenemos...."(página 315)

¿Alguien puede dar una pista? Lo siento, la pregunta es, realmente, "baja".

Editar:

Un compañero de aquí sugiere que el método de los momentos asumen $E(Z)=Z$ porque uno es igual a los dos momentos. No creo que esto se sigue inmediatamente de la definición. Incluso cuando $j=1$ uno tiene que equiparar $\frac{1}{n}\sum^{n}_{i=1}X_{i}$$EX^{1}$. No creo que esto implique $E(Z)=Z$ en general, de tal manera que uno puede usar $Z=\sum a_{i}Y_{i}$.

4voto

AdamSane Puntos 1825

Antecedentes: la Comprensión del método de los momentos (MoM) de forma básica

La motivación para el método: La (fuerte) de la Ley de los Grandes Números (LLN) nos da razón para pensar que (al menos para muestras grandes), una muestra de la expectativa de estar cerca de la población de la expectativa (tenga en cuenta que la LLN se aplica a los momentos de orden superior mediante la toma de $Z=X^j$). Por lo tanto, si tenemos $iid$ $X_i, i=1,\ldots,n$ hemos Casella Y Berger $m_j = \frac{1}{n} \sum_{i=1}^n X_i^j$ es igual a $\text{E}(m_j) = \text{E}(X_i^j) = \mu_j$.

¿Por qué sólo se necesita considerar primeros momentos: Considere la posibilidad de Casella Y Berger $m_j = \frac{1}{n} \sum_{i=1}^n X_i^j$ y tenga en cuenta que (como hicimos en el principal argumento), para cualquier $j$ podemos tomar $Z_i = X_i^j$, y estar a la izquierda con $m_1$ para una variable aleatoria. Es decir, todo lo que mi Mamá estimadores puede ser considerado como el primer momento en que las Mamás; simplemente podemos hacer que la sustitución de conseguir en cualquier otro momento que necesitamos. Para que Mamá es realmente sólo la creación de $m=\mu$ donde $m = \frac{1}{n} \sum_{i=1}^n X_i$ para algunas conjunto de $iid$ $X_i \sim f_X$.

¿Por qué se puede pensar de la Mamá como 'expectativas': (i) Tome $Z = \frac{1}{n} \sum_{i=1}^n X_i$ y tenga en cuenta que $\text{E}(Z)=\text{E}(X)$ por la linealidad de la expectativa, para que Mamá simplemente se lleva a $Z=\text{E}(Z)$. Del mismo modo, teniendo en $Z^j = \text{E}(Z^j)$ se sigue inmediatamente de que el argumento que ya hemos usado - es decir, se puede pensar en la Mamá como 'expectativas', y va a ser razonable, porque tenemos alguna variable aleatoria que va a estar más cerca de sus expectativas; (ii) en general, se puede razonablemente hacer esto ('expectativas') para cualquier $Z$ que nos había razón para pensar que sería 'cerca' de su expectativa.

--

Ahora para la expresión, en la sección relativa a Satterthwaite en Casella Y Berger

Casella y Berger coincide con el primer y segundo momentos de $Z=\sum_{i=1}^k a_iY_i$ es decir, tomar los $\text{E}(Z) = Z$ $\text{E}(Z^2)=Z^2$ , el segundo de los cuales se da una estimación de $\nu$.

Tenga en cuenta que $Z=\sum_i a_iY_i$ es un número constante de veces una muestra de expectativa; hay un sentido claro en el que se podría esperar que $Z\approx \text{E}(Z)$$Z^2 \approx \text{E}(Z^2)$, pero que en realidad no tienen para justificar aquí, sólo estamos siguiendo su argumento acerca de lo que sucede cuando hacemos.

2voto

Bombyx mori Puntos 345

Como señalado pacientemente por Glen_b, ya que$X_{i}$ es una muestra aleatoria independiente, tenemos$$E(\sum a_{i}Y_{i})=\sum a_{i}E(Y_{i})=\sum a_{i} Y_{i}$$where the last equation $$E(Y_{i})=Y_{i}$$ follows from the fact that from the definition of method of moments we have $$E(X)=\frac{\sum X_{i}}{n}=\overline{X}=X \text{when $ n$=1} $$ Así que la prueba del autor está justificada.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X