La varianza de una muestra puede ser definida como $$s^2 = \frac{1}{2}\frac{1}{n(n-1)}\sum_{i}\sum_{j\ne i}\left(x_i - x_j\right)^2$$
Aparte de que el factor de $1/2$, esto puede ser parafraseado como verbalmente
La varianza es el promedio de los cuadrados de las distancias entre pares de puntos de datos distinto
Matemáticamente, esto es equivalente a la "costumbre" de la definición de la varianza $s^2 = \frac{1}{n-1}\sum \left(x_i -\bar{x} \right)^2$. Conceptualmente, sin embargo, parece (a mí) bastante diferentes, en dos aspectos:
- Esta definición no hace referencia al valor de la media $\bar{x}$; no somos de la medición de la distancia entre puntos de la media, sino que tan lejos están los puntos de uno a otro.
- El factor de $n-1$ en el denominador, el cual es bien conocido por ser una fuente de confusión para los estudiantes (ver, por ejemplo, la explicación Intuitiva de dividir por $n-1$ a la hora de calcular la desviación estándar?) -- aparece de forma natural porque no se $n(n-1)$ pares ordenados de datos distintos puntos de $(x_i, x_j), i\ne j$. No hay necesidad de que sea mano saludando justificaciones acerca de "amortiguación" de la varianza de la muestra, o para los cálculos complicados de estimador del sesgo.
De nuevo, sólo para ser claro, yo entiendo por qué la definición estándar de $s^2$ incluye un denominador de $n-1$, y entiendo que el doble de la suma de la definición anterior es matemáticamente equivalente a la de definición estándar. Lo que me gustaría saber:
Hay contextos (pedagógico o de otra manera) en el que la alternativa de la definición de la varianza (como un doble suma de los pares de puntos de datos) es más comúnmente conocido? Hay libros de texto, por ejemplo, que tome esto como la principal definición?