Tengo un conjunto de datos de J evaluadores que cada uno le dará calificaciones para que me objetos (en una escala de 1 a 5). Mi objetivo sería construir algún tipo de calificación total para cada i basado en que todos los evaluadores puntuaciones.
Mi primera aproximación, que yo he visto usar antes, es la construcción de un puntaje estandarizado específicos para cada evaluador-objeto de par, por lo que cada uno de los j calificaciones están estandarizados y j de calificación para el objeto i es: (j de la puntuación en la i - j del avg puntuación en todas las I)/ (desviación estándar de los j de las puntuaciones en todas). Si todos los evaluadores fueron igualmente de confianza, creo que este sería un enfoque aceptable y tiene una buena interpretación.
Sin embargo, sospecho que no son flojos o mal calibrado evaluadores cuya clasificación no repartidos (por ejemplo, dan el 95% 4s y un ocasional 5 cuando la distribución que realmente debe ser uniforme). Parece que me quiere de alguna manera dar mayor peso a los evaluadores con la dispersión de las calificaciones. También tengo la idea de que un pequeño subconjunto de los evaluadores son "las mejores" de los evaluadores. Hay una manera, quizás, el peso de cada evaluador de la puntuación en línea con sus confiabilidad inter-evaluador con el más preciso de los evaluadores?
Por simplicidad, mi preferencia sería el uso de algún tipo de modelo lineal generalizado, si es posible.