180 votos

¿Cuál es la diferencia entre la varianza y la desviación estándar?

Me preguntaba cuál es la diferencia entre la varianza y la desviación estándar.

Si calculas los dos valores, es claro que obtienes la desviación estándar de la varianza, pero ¿qué significa eso en términos de la distribución que estás observando?

Además, ¿por qué realmente necesitas una desviación estándar?

1 votos

20 votos

Probablemente ya obtuviste la respuesta. Sin embargo, este enlace tiene la explicación más sencilla y mejor. mathsisfun.com/data/standard-deviation.html

3 votos

La desviación estándar es útil ya que el valor se encuentra en la misma escala que los datos de los que se calculó. Si estamos midiendo metros, la desviación estándar será en metros. En cambio, la varianza será en metros cuadrados.

133voto

Zizzencs Puntos 1358

La desviación estándar es la raíz cuadrada de la varianza.

La desviación estándar se expresa en las mismas unidades que la media, mientras que la varianza se expresa en unidades al cuadrado, pero para mirar una distribución, puedes usar cualquiera siempre y cuando seas claro acerca de lo que estás utilizando. Por ejemplo, una distribución Normal con media = 10 y desviación estándar = 3 es exactamente lo mismo que una distribución Normal con media = 10 y varianza = 9.

84 votos

Sí, esa es la forma matemática de explicar estos dos parámetros, PERO ¿cuál es la explicación lógica? ¿Por qué realmente necesito dos parámetros para mostrar lo mismo (la desviación alrededor de la media aritmética)...

10 votos

No necesitas realmente ambos. Si informas uno, no necesitas informar el otro.

15 votos

Necesitamos ambos: la desviación estándar es buena para la interpretación, la presentación de informes. Para el desarrollo de la teoría, la varianza es mejor.

72voto

No necesitas ambos. Cada uno tiene diferentes propósitos. La desviación estándar suele ser más útil para describir la variabilidad de los datos mientras que la varianza suele ser mucho más útil matemáticamente. Por ejemplo, la suma de distribuciones no correlacionadas (variables aleatorias) también tiene una varianza que es la suma de las varianzas de esas distribuciones. Esto no sería cierto para la desviación estándar. Por otro lado, la desviación estándar tiene la conveniencia de expresarse en unidades de la variable original.

29voto

mat_geek Puntos 1367

Si John se refiere a variables aleatorias independientes cuando dice "distribuciones no relacionadas", entonces su respuesta es correcta. Sin embargo, para responder a su pregunta, hay varios puntos que se pueden agregar:

  1. La media y la varianza son los dos parámetros que determinan una distribución normal.

  2. La desigualdad de Chebyshev limita la probabilidad de que una variable aleatoria observada esté dentro de $k$ desviaciones estándar de la media.

  3. La desviación estándar se utiliza para normalizar estadísticas para pruebas estadísticas (por ejemplo, la desviación estándar conocida se utiliza para normalizar una media de muestra para la prueba $z$ de que la media difiere de $0$ o la desviación estándar de la muestra se utiliza para normalizar la media de la muestra cuando la verdadera desviación estándar es desconocida, lo que resulta en la prueba $t$).

  4. Para una distribución normal, el $68\%$ por ciento de la distribución está dentro de $1$ desviación estándar. $95.4\%$ dentro de $2$ desviaciones estándar y más de $99\%$ dentro de $3$ desviaciones estándar.

  5. El margen de error se expresa como un múltiplo de la desviación estándar de la estimación.

  6. La varianza y el sesgo son medidas de incertidumbre en una cantidad aleatoria. El error cuadrático medio de una estimación es igual a la varianza + el sesgo al cuadrado.

4 votos

Probablemente no deberías decir "parámetro natural", que es la media dividida por la varianza y 1 dividida por la varianza: es.wikipedia.org/wiki/Parámetro_natural

0 votos

Según el enlace de Wikipedia, el parámetro(s) natural(es) para la distribución normal en términos de su forma de familia exponencial depende de si se asume que $\sigma$ es conocido o desconocido. Pero entiendo tu punto y he eliminado "parámetros naturales" de mi respuesta.

0 votos

En el punto 3, ¿no debería decir "la desviación estándar se utiliza para estandarizar estadísticas" en lugar de normalizar?

25voto

Hassan Puntos 81

La varianza de un conjunto de datos mide la dispersión matemática de los datos en relación con la media. Sin embargo, aunque este valor es teóricamente correcto, es difícil de aplicar en un sentido real porque los valores utilizados para calcularlo fueron elevados al cuadrado. La desviación estándar, al ser la raíz cuadrada de la varianza, proporciona un valor que está en las mismas unidades que los valores originales, lo que hace que sea mucho más fácil de trabajar y de interpretar en conjunto con el concepto de la curva normal.

1 votos

Esto hace un gran trabajo explicando por qué de forma sencilla.

3 votos

Otro buen punto a tener en cuenta sería que cada métrica de desviación estándar y varianza mide la dispersión de la variable en torno a la media. Tomar la raíz cuadrada de la varianza para obtener la desviación estándar podría ser visto como un factor de escala aplicado para devolver la métrica a las unidades de la variable.

6voto

coledot Puntos 674

En cuanto a la distribución, son equivalentes (aunque obviamente no intercambiables), pero ten en cuenta que en cuanto a los estimadores no lo son: la raíz cuadrada de una estimación de la varianza NO es un estimador (no sesgado) de la desviación estándar. Solo para un número moderadamente grande de muestras (y dependiendo de los estimadores) los dos se acercan entre sí. Para tamaños de muestra pequeños, necesitas conocer la forma paramétrica de la distribución para convertir entre ellos, lo que puede volverse ligeramente circular.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X