Un ejemplo simple que nos ayuda a identificar lo que es esencial.
Vamos
$$Y = C + \gamma X_1 + \varepsilon$$
donde $C$ $\gamma$ son parámetros, $X_1$ es la puntuación en el primer instrumento (o la variable independiente), y $\varepsilon$ representa imparcial iid error. Dejar el marcador en el segundo instrumento de estar relacionado con el primero a través de
$$X_1 = \alpha X_2 + \beta.$$
Por ejemplo, las puntuaciones en el segundo instrumento podría rango de 25 a 75 y las puntuaciones en la primera de 0 a 100, con $X_1 = 2 X_2 - 50$. La varianza de $X_1$ $\alpha^2$ veces la varianza de $X_2$. Sin embargo, podemos reescribir
$$Y = C + \gamma(\alpha X_2 + \beta) = (C + \beta \gamma) + (\gamma \alpha) X_2 + \varepsilon = C' + \gamma' X_2 + \varepsilon.$$
El cambio de parámetros, y la varianza de la variable independiente cambia, sin embargo, la capacidad de predicción del modelo se mantiene sin cambios.
En general, la relación entre el $X_1$ $X_2$ puede ser no lineal. Que es un mejor predictor de $Y$ dependerá de que tiene una estrecha relación lineal a $Y$. Por lo tanto el problema no es el de la escala (como se refleja en la variación de la $X_i$) pero tiene que ser decidido por las relaciones entre los instrumentos y lo que ellos están siendo usados para predecir. Esta idea está estrechamente relacionada con una explorado en una reciente pregunta acerca de la selección de las variables independientes de la regresión.
Puede haber factores atenuantes. Por ejemplo, si $X_1$ $X_2$ son variables discretas y ambos están igualmente relacionados con la $Y$, a continuación el de mayor varianza posible (si es suficientemente uniforme extendida) le permitirá un mejor distinciones entre sus valores y por lo tanto pagar más de precisión. E. g., si ambos instrumentos son los cuestionarios en una escala de Likert de 1-5, ambos son igualmente se correlacionan bien con $Y$, y las respuestas a las $X_1$ son todos de 2 y 3 y las respuestas a las $X_2$ se distribuye entre 1 a 5 $X_2$ podría ser favorecido en esta base.