La respuesta corta es la siguiente:
- Mientras que la probabilidad de los estudios de las implicaciones que supone distribuciones de probabilidad, estadística evalúa la manera en que los datos confirman estas hipótesis, mediante la medición de algo cuya distribución es de lo predecible.
- Las distribuciones que usted ha hecho sobre son importantes porque se puede construir pruebas estadísticas donde la hipótesis nula implica que tales distribuciones, aproximadamente, o de otra manera, son los de las cantidades llamado de la estadística de prueba, que si demasiado "anormal" en su valor motivar el rechazo de la hipótesis nula.
- Dado $n$ variables independientes, cada una tiene una distribución Normal de media $0$ y la desviación estándar $1$ (de ahora en adelante una distribución Normal estándar), la suma de sus cuadrados tiene una distribución chi-squared con $n$ grados de libertad.
- Si $X,\,Y$ son variables independientes, $X$ tener una distribución Normal estándar y $Y^2$ tener una distribución chi-squared, $X/Y$ tiene un $t$-distribución.
- Si la escala de dos independientes de chi-cuadrado de las variables para cada uno tiene una desviación estándar $1$, la relación de estas variables escaladas tiene un $F$-distribución, de forma que el cuadrado de un $t$distribuido de la variable (en el que $Y$ ha $1$ grado de libertad, por lo que su desviación estándar es $1$) se obtiene un ejemplo de una $F$-variable de distribución.
Ahora para la respuesta larga:
Una distribución Normal especificada por su media $\mu$ (que puede ser elegido arbitrariamente) y su desviación estándar $\sigma$ (que puede ser cualquier número positivo). Si una variable aleatoria $X$ tiene una distribución, escribimos $X\sim N(\mu,\,\sigma^2)$, donde $\sigma^2$ es la varianza. El número de desviaciones estándar de la $\mu$ a $X$ es una variable aleatoria en su propio derecho, generalmente denotado $Z$, viz. $X=\mu+\sigma Z$. Resulta que $Z\sim N(0,\,1)$, es decir, se $Z$ tiene una distribución normal Estándar.
Hay varios escenarios en los que las variables aleatorias admitir una aproximación Normal. Por ejemplo, el clásico teorema del límite central (CLT), se establece que la media de un gran número de muestras independientes a partir de un número finito de la varianza en la distribución tiene una distribución aproximadamente Normal. Vamos a volver a eso. Para otro ejemplo, cuando se intenta ajustar un modelo a los datos, hay ruido términos de $\epsilon$ viz. $y=f(x)+\epsilon$, y a menudo podemos justificar la suposición de $\epsilon\sim N(0,\,\sigma^2)$ para algunos $\sigma>0$. Supongamos que tenemos $n$ observaciones. Si dividimos todo el ruido de los términos por $\sigma$, plaza de los resultados y la suma de los cuadrados, el resultado tiene una distribución chi-squared con $n$ grados de libertad. Esto nos permite cuantificar cuán sorprendente es que los datos se apartan de las expectativas tanto como lo hacen, porque con una distribución en mente, se puede obtener un $p$-valor.
Es el momento para volver a la CLT. Si sabía de una distribución media de $\mu$ y la varianza $\sigma^2$, una amplia muestra de la media de $\overline{X}$ es una variable aleatoria con una distribución aproximadamente Normal. En particular, $\frac{\overline{X}-\mu}{\sigma}\approx N(0,\,1)$. Pero, ¿qué le hace pensar que usted sabe que la media y la varianza? Usted puede hacer una estimación de estos parámetros a partir de una muestra existente, pero entonces algo curioso lo que pasa. Porque hemos sustituido los verdaderos valores de los parámetros con las estimaciones de los que también son variables aleatorias, resulta que la aproximación Normal ya no funciona. En particular, si $\mu$ se calcula como $m$ e $\sigma$ se calcula como $S$, $\frac{\overline{X}-m}{S}$ tiene un $t$ distribución. Como con el chi-cuadrado de distribución, la distribución de la forma depende de su número de grados de libertad.
He mencionado el ruido de los términos con distribuciones Normales. El resultado de la varianza, con un ch-cuadrado de distribución, a escala. Decir que ahora me pregunto si dos variables tienen la misma varianza. Debido a que la varianza de una muestra es una variable aleatoria, la relación de dos muestras, la varianza es $F$distribuida a escala. Esta es la base de la F-test de igualdad de varianzas.