La pregunta se refiere a "explicar esto a estudiantes que necesitan usar este hecho pero que quizás no han tomado un curso de estadística". Si son más avanzados que los que entenderán el ejemplo que mencioné que no requiere álgebra más allá de expandir $(a+b)^2$ Quizás merezca la pena analizar un par de puntos de vista más.
Podemos escribir $$ \begin{bmatrix}x_1 \\ \vdots \\ x_n\end{bmatrix} = \begin{bmatrix}\overline{x} \\ \vdots \\ \overline{x} \end{bmatrix} + \begin{bmatrix} x_1 - \overline{x} \\ \vdots \\ x_n - \overline{x}\end{bmatrix}, $$ y observe que los dos vectores que se suman son las proyecciones ortogonales de la suma sobre espacios de dimensiones $1$ y $n-1$ . El valor esperado del primer sumando es $\mu$ veces una columna de $1$ s, y el valor esperado del segundo sumando es $0$ . Así que gira el sistema de coordenadas para que esto se convierta en $$ \begin{bmatrix}u_1 \\ \vdots \\ u_n\end{bmatrix} = \begin{bmatrix} u_1 \\ 0 \\ 0 \\ \vdots \\ 0 \end{bmatrix} + \begin{bmatrix} 0 \\ u_2 \\ u_3 \\ \vdots \\ u_n \end{bmatrix}. $$ El valor esperado de la primera entrada del primer sumando es $\mu\sqrt{n}$ . El valor esperado de cada entrada en el segundo sumando es $0$ . El valor esperado del cuadrado de la norma del segundo vector es $n-1$ veces el valor esperado del cuadrado de cualquiera de sus entradas. Ahí es donde el $n-1$ viene de. Observe que $$ \underbrace{\sum_{i=1}^n (x_i - \overline{x})^2}_{n\text{ terms}} = \underbrace{\sum_{i=2}^n u_i^2}_{n-1\text{ terms}}. $$
Si los estudiantes conocen algo de teoría de la probabilidad, lo anterior también puede explicar por qué $\sum_{i=1}^n (X_i - \overline{X})^2/\sigma^2$ tiene una distribución chi-cuadrado con $n-1$ grados de libertad cuando hay ciertas suposiciones sobre la distribución normal y sobre la independencia. (Utilizo las mayúsculas $X$ esta vez ya que es una variable aleatoria). También puede explicar por qué $\overline{X}$ es realmente independiente de esa variable aleatoria chi-cuadrado.
Otra cosa que a veces es útil para pensar en este tema es la identidad algebraica $$ \sum_{i=1}^n (x_i - \mu)^2 = n(\overline{x} - \mu)^2 + \sum_{i=1}^n (x_i - \overline{x})^2 \text{ where } \overline{x} = \frac{x_1+\cdots+x_n}n. $$ Claramente esto implica que $$ \sum_{i=1}^n (x_i - \mu)^2 \ge \sum_{i=1}^n (x_i - \overline{x})^2 $$ con igualdad si y sólo si $\overline{x}=\mu$ . Esto es, por supuesto, lo mismo que se utilizó en el ejemplo concreto del artículo de la Wikipedia enlazado en mi respuesta anterior, pero enunciado de forma que lo entiendan los estudiantes que saben más álgebra que la expansión de $(a+b)^2$ .
3 votos
Esto es esencialmente un duplicado de Desviación estándar de la muestra frente a la desviación estándar de la población .
0 votos
Pero la respuesta allí sólo dice que hay un sesgo y aquí está la forma de corregirlo. ¿Hay alguna forma de explicar la corrección de forma intuitiva (sí, es un poco vago)?
3 votos
Hay un intento de explicación intuitiva en la segunda parte de esa respuesta. ¿Ayuda eso?
0 votos
El ejemplo concreto que cito en mi respuesta más abajo puede entenderse sin ni siquiera utilizar el álgebra.
1 votos
El hecho de que la corrección del sesgo puede ser a veces algo muy malo parece no ser muy comprendido por los no estadísticos, incluidos algunos que enseñan estadística. En este ejemplo de estimación de la varianza, según el criterio habitual de error cuadrático medio, y suponiendo que la muestra procede de una población normalmente distribuida, el estimador insesgado es sólo ligeramente peor que el estimador sesgado, por lo que no es un buen ejemplo para ilustrar este punto. Pero la idea de que es el estimador insesgado el que es peor puede no ser tan ampliamente apreciada como podría serlo.