Intento calcular las puntuaciones de fiabilidad entre evaluadores para 10 preguntas de encuesta (en las que había 2 evaluadores): siete preguntas son binarias (sí/no) y 3 son preguntas de escala Likert.
-
¿Debe comprobarse la fiabilidad entre evaluadores en CADA una de las 10 preguntas, o existe una prueba general de fiabilidad entre evaluadores que comprueba la fiabilidad de todas las preguntas a la vez? En caso afirmativo, ¿cuál es?
-
En el caso de las preguntas binarias, el nivel de acuerdo entre los dos evaluadores es del 70-90% en casi todas las preguntas, aunque la puntuación Kappa suele ser muy baja (0,2- 0,4). ¿Puede ser cierto? (Y si es así, ¿hay alguna prueba más adecuada?)
-
Por último, ¿se puede utilizar una prueba basada en Kappa en preguntas de escala Likert? En caso negativo, ¿cuál es la prueba correcta de fiabilidad entre evaluadores?