15 votos

¿Por qué estabilizamos la varianza?

Me encontré con la transformación estabilizadora de la varianza mientras leía Método Kaggle Essay Eval . Utilizan una transformación de estabilización de la varianza para transformar los valores kappa antes de tomar su media y luego volver a transformarlos. Incluso después de leer la wiki sobre las transformaciones de estabilización de la varianza no puedo entender, ¿por qué estabilizamos realmente las varianzas? ¿Qué beneficio obtenemos con esto?

7 votos

Por lo general, la intención es hacer que la varianza (asintótica) sea independiente del parámetro de interés. Esto es especialmente importante en la inferencia cuando necesitamos conocer la distribución de referencia para calcular las cantidades de interés relacionadas.

13voto

StasK Puntos 19497

He aquí una respuesta: normalmente, la forma más eficaz de realizar una inferencia estadística es cuando los datos son i.i.d. Si no lo son, se obtienen diferentes cantidades de información de diferentes observaciones, y eso es menos eficaz. Otra forma de ver esto es decir que si puedes añadir información extra a tu inferencia (es decir, la forma funcional de la varianza, a través de la transformación estabilizadora de la varianza), generalmente mejorarás la precisión de tus estimaciones, al menos asintóticamente. En muestras muy pequeñas, molestarse en modelar la varianza puede aumentar el sesgo de las muestras pequeñas. Se trata de una especie de argumento econométrico de tipo GMM: si se añaden momentos adicionales, la varianza asintótica no puede aumentar; y el sesgo de la muestra finita aumenta con los grados de libertad sobreidentificados.

Otra respuesta fue dada por cardinal: si tienes una varianza desconocida dando vueltas en tu expresión de varianza asintótica, la convergencia a la distribución asintótica será más lenta, y tendrías que estimar esa varianza de alguna manera. La prepublicación de los datos o de las estadísticas suele ayudar a mejorar la precisión de las aproximaciones asintóticas.

1 votos

Creo que entiendo la primera frase de su respuesta y me resulta intuitiva. ¿Hay algún nombre para esta observación que pueda buscar en Google? Me gustaría encontrar algunos experimentos de pensamiento o ejemplos que muestran lo que sucede cuando se tiene diferente cantidad de información en diferentes observaciones y cómo eso es ineficiente

1 votos

En el texto de Korn y Graubard (1999) sobre estadísticas de encuestas se habla de ello.

0 votos

Pero aquí la transformación se utiliza para calcular una media por $f^{-1}\left( {1\over n} \sum_i f(\kappa_i) \right)$ . Realmente no veo el sentido. Para mí, este sería el camino a seguir para la estimación de intervalos de confianza, pero para la estimación de puntos sólo introduce un sesgo.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X