2 votos

¿Por qué no podríamos utilizar x / media para la estandarización en lugar de puntuaciones z?

Mientras revisaba la estandarización de datos y la teoría de la puntuación z, tuve esta intuición. Supongamos que tenemos los resultados de personas que hicieron dos pruebas diferentes:

TEST A (mean=70%; std.dev=6%)
+--------------+-------+---------+-------+
| Participant# | score | z-score | x/avg |
+--------------+-------+---------+-------+
| 1            |    60 | -1.66   | 0.85  |
| 2            |    65 | -0.83   | 0.92  |
| 3            |    80 | 1.66    | 1.14  |
| 4            |    90 | 3.33    | 1.28  |
| 5            |    40 | -5.00   | 0.57  |
| ...          |       |         |       |
+--------------+-------+---------+-------+

TEST B (mean=75%;std.dev=7%)
+--------------+-------+---------+-------+
| Participant# | score | z-score | x/avg |
+--------------+-------+---------+-------+
| 1            |    60 | -2.14   | 0.8   |
| 2            |    70 | -0.71   | 0.93  |
| 3            |    80 | 0.71    | 1.06  |
| 4            |    90 | 2.14    | 1.2   |
| ...          |       |         |       |
+--------------+-------+---------+-------+

Podemos ver que el participante nº 3 de la prueba A tiene una puntuación z más alta que el participante nº 3 de la prueba B, por lo que es relativamente mejor que su homólogo.

No encuentro información sobre el nombre de la medida x/avg, pero tengo la intuición de que podría utilizarse como proxy de datos normalizados.

Seguramente me equivoco, ya que no se menciona en ninguna parte, pero ¿por qué?

1voto

MJD Puntos 37705

Esto puede tener sentido en el caso de los resultados de los exámenes, que siempre se puntúan en un $0–100$ escala. Pero en contextos más generales no tiene mucho sentido. Consideremos, por ejemplo, estos dos conjuntos de datos muy pequeños:

$$A=\{-990, 1000\}\\ B=\{-999.9, 1000\}$$

Seguramente estos dos son casi iguales, por lo que sus versiones normalizadas también deberían serlo. Pero la primera tiene una media de $10$ y el segundo tiene una media de sólo $0.1$ . Con tu idea, estos se normalizan de forma muy diferente:

$$A\div\bar A=\{-99, 100\}\\ B\div{\bar B}=\{-9999, 10000\}$$

Esto no tiene sentido. Antes eran casi iguales, así que deberían normalizarse igual. Se supone que la normalización revela una similitud oculta. No debe ocultar una similitud evidente.

Pero como los conjuntos de datos son casi iguales, sus desviaciones típicas también son casi iguales, y cuando se convierten en puntuaciones Z siguen siendo casi iguales.


Otra forma de ver la dificultad: Supongamos que aumentamos cada la puntuación del participante en un examen en 1000 puntos. Seguramente esto no debería cambiar las puntuaciones normalizadas. El test era el mismo. Y de hecho, si haces esto, las puntuaciones Z no cambiarán.

Pero su $x\div\bar x$ La puntuación cambiará, quizá drásticamente. Consideremos la puntuación del participante 5 en la prueba A, que pasa de $\frac{40}{70} = 0.57$ a $\frac{1040}{1070} = 0.97$ . Y consideremos al participante 4, cuya puntuación baja de $\frac{90}{70} = 1.29$ a $\frac{1090}{1070} = 1.02$ . ¿Tiene sentido?

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X