28 votos

¿Cuál es el grado de libertad en estadística?

En estadística, el grado de libertad se usa ampliamente en análisis de regresión, ANOVA, y demás. Pero, ¿qué es el grado de libertad?

Wikipedia dijo que

  1. El número de grados de libertad es la cantidad de valores en el cálculo final de una estadística que son libres para variar.

  2. Matemáticamente, el grado de libertad es el número de dimensiones del dominio de un vector aleatorio, o esencialmente el número de componentes 'libres': cuántos componentes deben ser conocidos antes de que el vector esté completamente determinado.

Sin embargo, todavía me resulta difícil entender el concepto intuitivamente.

Pregunta:

¿Podría alguien proporcionar una explicación intuitiva del concepto y cualquier cosa que pueda ayudarme a entenderlo?

¡Gracias!


Actualización:

No estoy preguntando cómo calcular el grado de libertad.

Permítanme dar un ejemplo:

Para una distribución de chi-cuadrado, diferentes grados de libertad producen diferentes funciones de densidad de probabilidad. ¿Podrías explicarlo de forma intuitiva?

introducir la descripción de la imagen aquí

0 votos

30voto

Isak Savo Puntos 101

Intuitivamente, grados de libertad denota cuántas cosas independientes hay. A medida que introducimos restricciones, estamos quitando grados de libertad.

Primero intentaré responder tu pregunta sobre el Chi-cuadrado.

La distribución Chi-cuadrado con $n$ grados de libertad es la suma de los cuadrados $n$ distribuciones normales estándar $N(0,1)$ independientes, por lo tanto tenemos $n$ cosas que varían independientemente.

Comenzaré con un ejemplo mecánico, ya que los grados de libertad son similares en cada campo.

Considera un avión volando. Tiene tres grados de libertad en el universo espacial habitual, y solo se puede ubicar si se conocen tres coordenadas. Estas podrían ser latitud, longitud y altitud; o podrían ser altitud, distancia horizontal desde algún origen, y un ángulo; o podrían ser distancia directa desde algún origen, y dos ángulos de dirección. Si consideramos un instante dado de tiempo como una sección a través del universo espacio-tiempo, el avión se mueve en un camino de cuatro dimensiones y puede ser ubicado por cuatro coordenadas, las tres previamente mencionadas y una coordenada de tiempo. Por lo tanto, ahora tiene $4$ d.f.

Observa que asumimos que el avión no está rotando.

Ahora considerando los grados de libertad estadísticos...

Un significado similar.

El grado de libertad de una estadística es el número de valores en el cálculo de la estadística que son independientes para variar. A medida que agregamos restricciones a las observaciones, reducimos el grado de libertad. Imponer una relación sobre las observaciones es equivalente a estimar un parámetro a partir de ellas. El número de grados de libertad es igual al número de observaciones independientes, que es el número de observaciones originales menos el número de parámetros estimados a partir de ellas.

Considera el cálculo de la media $\frac {\sum_{i=1}^n X_n }{n}$, estamos interesados en la estimación de errores que son estimados por residuos. La suma de los residuos es $0$. El conocimiento de cualquier $n-1$ residuos da el residuo restante. Entonces, solo $n-1$ pueden variar independientemente. Por lo tanto, tienen $n-1$ d.f.

Sin embargo, los grados de libertad se utilizan principalmente en análisis de regresión y ANOVA. Puedes notar que todas las distribuciones con los llamados grados de libertad corresponden a casos particulares en estadísticas lineales. Por lo tanto, los d.f son en el mejor de los casos artificiales ya que no son restricciones en la variable aleatoria, sino que son en realidad grados de libertad de algunas cantidades en alguna aplicación a partir de la cual estas distribuciones se originaron.

También, para las personas interesadas, < http://courses.ncssm.edu/math/Stat_Inst/Worddocs/DFWalker.doc > parece ser una lectura bastante buena.

0 votos

Gracias. Te he dado un voto positivo. Otra pregunta aquí: ¿Cuál es la diferencia entre grado de libertad y dimensión en tu ejemplo mecánico? : )

1 votos

El grado de libertad de una partícula es el número de dimensiones solo si el movimiento no está restringido. Por ejemplo, considera una partícula colgando del techo con la ayuda de una vara rígida, ¿entonces el grado de libertad es menor a $3$, verdad? (en realidad es $2$). Cualquier par de parámetros independientes proporcionan toda la información sobre la posición de la partícula. (Intenta dar la posición usando dos parámetros). Si aún tienes preguntas, pregunta. Estaré encantado de ayudarte si puedo.

17voto

Jorrit Reedijk Puntos 129

Dos personas están sentadas en un bar, tú y tu amigo. Hay dos tipos de jugo delante de ustedes, uno dulce y otro agrio. Después de que hayas elegido tu bebida, digamos que la dulce, tu amigo ya no tiene elección, por lo que el grado de libertad es "1": solo uno de ustedes puede elegir.

Generalízalo a un grupo de amigos para comprender grados de libertad superiores...

8voto

turingmachine Puntos 265

Cuando estimas parámetros en estadística, supongamos que utilizas un parámetro (que has estimado) para estimar otro parámetro, entonces pierdes $1$ grado de libertad y terminas con $n-1$ grados de libertad donde $n$ es el número de 'individuos' en la población con la que estás trabajando.

Un ejemplo es cuando trabajas con distribuciones normales

$$\sigma=\sqrt{\frac{\sum(x-\mu)}{n}^2}$$

sea $s$ la estimación de la desviación estándar de la población ($\sigma$). Utilizamos el valor medio $\bar x$ en lugar de $\mu.

$$s=\sqrt{\frac{\sum(x-\bar x)}{n-1}^2}$$

Aquí $\bar x$ es una estimación de $\mu$. Estimamos $\sigma$ utilizando una estimación de $\mu$. Por lo tanto, perdemos $1$ grado de libertad, dando como resultado $n-1$ grados de libertad.

5voto

user1938185 Puntos 487

Para entender el concepto intuitivamente, hágase la pregunta de por qué es necesario. Y comience desde una pregunta más simple, ¿por qué se calcula la varianza como $V = \frac 1 {N-1} \sum (x_i-\bar x)^2$ con un $N-1$ como denominador.

El hecho es que le interesa la varianza de la población, no la de la muestra. Ahora, obviamente la muestra está menos dispersa que la población (porque es muy probable que la muestra haya omitido algunos de los valores extremos), por lo que la varianza calculada en la muestra es menor que la de la población.

Hay que corregir el sesgo.

Intuitivamente, el promedio observado $\bar x = \frac 1 N \sum x_i$ no es exacto sino solo una aproximación de la media de la población. La varianza de esta aproximación debe sumarse a la varianza observada en la muestra para obtener la mejor aproximación de la muestra de la población. Ahora esta varianza se puede calcular: $\sigma^2(\bar X) = \frac 1 N \sigma^2(X)$ (usando el iid si los $X_i$). Por lo tanto, la varianza de la muestra es $1 -\frac 1 N$ la varianza de la población.

Formalmente (en caso de que necesite leer dos veces el razonamiento anterior), calcule el valor esperado de $\sum (X_i-\bar X)^2$. Encontrará $(N-1) \sigma^2$ en lugar de $N \sigma^2$, por lo tanto la varianza de la población es $\frac N {N-1}$ la varianza de la muestra (como se afirma).

Cuando siga los cálculos, comience reemplazando $\bar X$ con su definición $\bar X = \frac 1 N \sum X_i$, desarrolle los cuadrados, expanda la suma y luego un término desaparece. Es decir, $N\bar X=\sum X_i$ aparece dos veces con signos opuestos, negativo en el producto doble $2 \bar X X$ y positivo en el cuadrado $\bar X^2$. Entonces $\sum (X_i-\bar X)^2$ es la suma de $N-1$ términos iguales en expectativa.

Esto se debe a que los $X_i$ no son independientes sino que están vinculados por una relación $\sum X_i=N \bar X. En general, si se sabe que los $X_i$ están vinculados por $p$ relaciones lineales independientes $f_j$, entonces se pueden cancelar $p$ términos de la suma $\sum (X_i-f_j(X_i))^2$. Por lo tanto, el estimador no sesgado, $\sum (X_i-f_j(X_i))^2 \approx \frac N {N-p} \sum (x_i-f_j(x_i))^2$.

En la regresión, ANOVA, etc., las relaciones independientes no son tan independientes porque a menudo se supone que la suma de las variables independientes (causas) tiene el mismo promedio que la variable dependiente (efecto). $\sum a_i \bar X_i = \bar Y. Por lo tanto el grado de libertad $N-1$, $p-1$ y $N-p$ y los factores de corrección $\frac N {N-1}$, $\frac p {p-1}$ y $\frac N {N-p}$ para $SS_{Total}$, $SS_{Model}$ y $SS_{Error}$ respectivamente.

En pocas palabras, el grado de libertad es el número de relaciones independientes que vinculan un conjunto de variables, teniendo en cuenta la variable introducida para estimadores intermedios.

4voto

A Walker Puntos 4804

Siempre he considerado "grados de libertad" como una medida del número de opciones disponibles en una situación. Por supuesto, esto no pretende ser riguroso, pero funciona intuitivamente en ejemplos.

Considera el problema de elegir un polinomio de grado $2$ (con coeficientes en algún campo fijo $k$). Entonces tenemos tres elecciones que hacer, correspondientes a la selección de $a_0, a_1, a_2$ en $$f(x):=a_2x^2+a_1x+a_0.$$ Deberíamos esperar que el número de grados de libertad en este ejemplo sea tres. Y de hecho, el espacio de tales polinomios es un espacio vectorial, de grado $3$. Si suponemos ahora que solo nos importan los polinomios que admiten $x=1$ como raíz, hemos --a nivel intuitivo-- utilizado uno de nuestros grados de libertad, y deberíamos poder tomar dos elecciones más independientes. Esto es efectivamente el caso: nos queda un espacio vectorial de dimensión $2$.

Observa que estas nociones solo tienen sentido para espacios vectoriales y "elecciones" que corresponden a la intersección de hiperplanos. Todo esto puede generalizarse dentro del marco de la geometría algebraica (y la teoría de la intersección), pero los asuntos se complican cuando las hiper-superficies no se intersecan como se espera.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X