Me encontré con la transformación estabilizadora de la varianza mientras leía Método Kaggle Essay Eval . Utilizan una transformación de estabilización de la varianza para transformar los valores kappa antes de tomar su media y luego volver a transformarlos. Incluso después de leer la wiki sobre las transformaciones de estabilización de la varianza no puedo entender, ¿por qué estabilizamos realmente las varianzas? ¿Qué beneficio obtenemos con esto?
Creo que entiendo la primera frase de su respuesta y me resulta intuitiva. ¿Hay algún nombre para esta observación que pueda buscar en Google? Me gustaría encontrar algunos experimentos de pensamiento o ejemplos que muestran lo que sucede cuando se tiene diferente cantidad de información en diferentes observaciones y cómo eso es ineficiente
7 votos
Por lo general, la intención es hacer que la varianza (asintótica) sea independiente del parámetro de interés. Esto es especialmente importante en la inferencia cuando necesitamos conocer la distribución de referencia para calcular las cantidades de interés relacionadas.