5 votos

Dos estimadores insesgados para la misma cantidad

En varias situaciones, tengo dos imparcial de los peritos, y sé que uno de ellos es mejor (menor varianza) que el otro. Sin embargo, me gustaría obtener tanta información como sea posible, y me gustaría hacerlo mejor que tirar el más débil estimador.

$$\newcommand{\Outcome}{\text{Outcome}}\newcommand{\Skill}{\text{Skill}}\newcommand{\Luck}{\text{Luck}}\Outcome = \Skill + \Luck$$

$\Outcome$ que se observa. $\Skill$ es lo que me gustaría a determinar. $\Luck$ es conocida por tener el valor promedio $0$. De otras variables observables, puedo estimar el $\Luck$$L$, de modo que $\mathbb E(L) = 0$$\mathrm{Var}(\Luck-L) \lt \mathrm{Var}(\Luck)$.

$\Outcome$ es un estimador imparcial para $\Skill$. Una mejor estimación de la varianza de la reducción de la es $\Outcome - L$, que también es imparcial. Por ejemplo, en una situación de $\Outcome$ es el promedio de la repetición de pruebas, y yo podría producir un $95\%$ intervalo de confianza de $[-5.0,13.0]$ sin el uso de reducción de varianza. El uso de reducción de varianza, podría obtener un intervalo de confianza de $[-2.0,4.0]$.

La práctica habitual es que las personas utilicen $\Outcome-L$ en lugar de $\Outcome$. Sin embargo, esto no es satisfactorio para mí, porque en mi experiencia, hay más información en el par $(\Outcome, \Outcome-L)$ que en tan sólo $\Outcome-L$. Específicamente, en algunas situaciones, sé que si $\Outcome$ es baja, entonces $\Outcome-L$ tiende a ser una subestimación, por $\Skill$, y si $\Outcome$ es alta, entonces el $\Outcome-L$ tiende a ser una sobreestimación de $\Skill$.

Lo que es una buena manera de tomar ventaja de la información adicional de saber ambos estimadores?

5voto

mat_geek Puntos 1367

Si usted tiene dos estimadores insesgados de $L_1$$L_2$, precisión se mide por la varianza (por un error cuadrático de la pérdida de la función).

Tome $L=aL_1+(1-a)L_2$, un promedio ponderado de los dos con $0 < a < 1$.

$$\newcommand{\Var}{\mathrm{Var}}\newcommand{\Cov}{\mathrm{Cov}} \Var(L) =a^2\Var(L_1) +(1-a)^2\Var(L_2) +2a(1-a) \Cov(L_1, L_2) \>. $$
Al $\Cov(L_1,L_2) \leq 0$, $$ \Var(L) \leq a^2 \Var(L_1) +(1-a)^2 \Var(L_2) < a \Var(L_1) +(1-a)\Var(L_2) \leq \max(\Var(L_1), \Var(L_2)) \>. $$

Si $\Cov(L_1, L_2)$ es lo suficientemente negativo, a continuación, $\Var(L)$ también será menos de $\min(\Var(L_1), \Var(L_2))$.

Si $a$ no está restringido a $[0,1]$ $1-a$ es reemplazado por $b$ es posible encontrar constantes $a$ $b$ tal que $\Var(L) = \Var(a L_1) + \Var(b L_2)$ es de menos de $\min (\Var(L_1), \Var(L_2))$. Para $\Cov(L_1, L_2)>0$ una elección particular de la $a>0$ $b<0$ va a trabajar. Esto demuestra que siempre hay una forma de mejorar la precisión de los estimadores insesgados de si se puede determinar una combinación lineal de las dos que se reduce la varianza. Uno siempre va a existir. Claramente esta es una buena manera de aprovechar los conocimientos de ambos estimadores.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X