38 votos

Explicación intuitiva de la prueba de Kolmogorov Smirnov

¿Cuál es la forma más limpia y sencilla de explicar a alguien el concepto de prueba de Kolmogorov Smirnov? ¿Qué significa intuitivamente?

Es un concepto que me cuesta articular, especialmente cuando se lo explico a alguien.

¿Puede alguien explicarlo con un gráfico y/o con ejemplos sencillos?

52voto

jldugger Puntos 7490

La prueba de Kolmogorov-Smirnov evalúa la hipótesis de que una muestra aleatoria (de datos numéricos) procede de una distribución continua completamente especificada sin referencia a los datos.

Este es el gráfico de la función de distribución acumulativa (FDC) de dicha distribución.

Figure 1: Graph of the standard normal CDF from -3 to 3

Una muestra puede ser descrita completamente por su función de distribución empírica (acumulativa), o ECDF. Representa la fracción de datos inferior o igual a los valores horizontales. Así, con una muestra aleatoria de $n$ valores, cuando escaneamos de izquierda a derecha salta hacia arriba en $1/n$ cada vez que cruzamos un valor de datos.

La siguiente figura muestra la ECDF de una muestra de $n=10$ valores tomados de esta distribución. Los símbolos de puntos localizan los datos. Las líneas se dibujan para proporcionar una conexión visual entre los puntos similar a la gráfica de la FCD continua.

Figure 2: Graph of an ECDF

La prueba K-S compara la FCD con la FDCE utilizando la mayor vertical diferencia vertical entre sus gráficos. La cantidad (un número positivo) es el Estadística de la prueba de Kolmogorov-Smirnov.

Podemos visualizar el estadístico de la prueba KS localizando el punto de datos situado más arriba o más abajo de la FCD. Aquí está resaltado en rojo. La estadística de prueba es la distancia vertical entre el punto extremo y el valor de la FCD de referencia. Se dibujan como referencia dos curvas límite, situadas a esta distancia por encima y por debajo de la FCD. Así, la ECDF se encuentra entre estas curvas y apenas toca al menos una de ellas.

Figure 3: CDF, ECDF, and limiting curves

Para evaluar la importancia de la estadística de la prueba KS, comparamos como siempre --a los estadísticos de la prueba KS que tenderían a producirse en muestras perfectamente aleatorias de la distribución hipotética. Una forma de visualizarlas es graficar las ECDF de muchas de esas muestras (independientes) de forma que se indique qué su Las estadísticas del KS son. Esto forma la "distribución nula" del estadístico KS.

Figure 4: Many ECDFs, displaying a null distribution

La ECDF de cada uno de $200$ se muestra junto con un único marcador rojo situado donde más se aleja de la FCD hipotetizada. En este caso es evidente que la muestra original (en azul) se aleja menos de la FCD que la mayoría de las muestras aleatorias. (El 73% de las muestras aleatorias se alejan más de la FCD que la muestra azul. Visualmente, esto significa que el 73% de los puntos rojos quedan fuera de la región delimitada por las dos curvas rojas). Por lo tanto, no tenemos (sobre esta base) ninguna prueba para concluir que nuestra muestra (azul) no fue generada por esta FCD. Es decir, la diferencia "no es estadísticamente significativa".

De forma más abstracta, podemos trazar la distribución de los estadísticos KS en este gran conjunto de muestras aleatorias. Esto se denomina distribución nula de la estadística de la prueba. Aquí está:

Figure 5: Histogram of 200 KS test statistics

La línea azul vertical localiza el estadístico de la prueba KS para la muestra original. El 27% de las estadísticas aleatorias de la prueba KS fueron menores y el 73% de las estadísticas aleatorias fueron mayores. Si se examina, parece que el estadístico KS para un conjunto de datos (de este tamaño, para esta FCD hipotética) tendría que superar el 0,4 o así antes de concluir que es extremadamente grande (y por lo tanto constituye una prueba significativa de que la FCD hipotética es incorrecta).


Aunque se puede decir mucho más -en particular, sobre por qué la prueba KS funciona de la misma manera, y produce la misma distribución nula, para cualquier FCD continua- esto es suficiente para entender la prueba y utilizarla junto con los gráficos de probabilidad para evaluar las distribuciones de datos.


En respuesta a las peticiones, aquí está lo esencial R código que he utilizado para los cálculos y los gráficos. Utiliza la distribución normal estándar ( pnorm ) para la referencia. La línea comentada establece que mis cálculos coinciden con los del ks.test función. He tenido que modificar su código para extraer el punto de datos específico que contribuye a la estadística KS.

ecdf.ks <- function(x, f=pnorm, col2="#00000010", accent="#d02020", cex=0.6,
                    limits=FALSE, ...) {
  obj <- ecdf(x)
  x <- sort(x)
  n <- length(x)
  y <- f(x) - (0:(n - 1))/n
  p <- pmax(y, 1/n - y)
  dp <- max(p)
  i <- which(p >= dp)[1]
  q <- ifelse(f(x[i]) > (i-1)/n, (i-1)/n, i/n)

  # if (dp != ks.test(x, f)$statistic) stop("Incorrect.")

  plot(obj, col=col2, cex=cex, ...)
  points(x[i], q, col=accent, pch=19, cex=cex)
  if (limits) {
    curve(pmin(1, f(x)+dp), add=TRUE, col=accent)
    curve(pmax(0, f(x)-dp), add=TRUE, col=accent)
  }
  c(i, dp)
}

9voto

AdamSane Puntos 1825

La prueba de Kolmogorov-Smirnov de una muestra encuentra la mayor distancia vertical entre un completamente especificado cdf continua hipotética y la cdf empírica.

La prueba de Kolmogorov-Smirnov de dos muestras encuentra la mayor distancia vertical entre las CDF empíricas de dos muestras.

Las distancias inusualmente grandes indican que la muestra no es consistente con la distribución hipotetizada (o que las dos muestras no son consistentes con haber venido de la misma distribución).

Estas pruebas son no paramétricas en el sentido de que la distribución del estadístico de la prueba bajo el nulo no depende de la distribución específica que se haya especificado bajo el nulo (o de la distribución común de la que se hayan extraído las dos muestras).

Existen versiones "unilaterales" (en un sentido particular) de estas pruebas, pero se utilizan relativamente poco.

Puede realizar una prueba de Kolmogorov-Smirnov con distribuciones discretas, pero la versión habitual de la prueba (es decir, utilizando la distribución nula habitual) es conservadora, y a veces muy conservadora. Sin embargo, puede obtener nuevos valores críticos para una distribución discreta completamente especificada.

Existe una prueba relacionada cuando los parámetros se estiman en una familia de localización-escala* (o un subconjunto de localización y escala), llamada adecuadamente prueba de Lilliefors (Lilliefors hizo tres pruebas para el caso normal y una prueba para el caso exponencial). Esto no está libre de distribución.

* hasta una transformación monótona

5voto

Aksakal Puntos 11351

Se busca la máxima desviación de la FCD empírica (construida a partir de las observaciones) con respecto a los valores teóricos. Por definición, no puede ser mayor que 1.

Aquí hay un gráfico para una distribución uniforme CDF (negro) y dos candidatos estilizados CDF (rojo):

enter image description here

Usted ve que su candidato CDF no puede estar por encima del teórico en más de $D^+$ o por debajo de ella en más de $D^-$ , ambos limitados en magnitud por 1.

La FCD empírica $S_n$ a efectos de esta prueba es $S_i=i/N$ . Aquí clasificamos la muestra $x_i$ donde $i=1,\dots,N$ para que $x_i<x_{i+1}$ . Lo comparas con una FCD teórica $F_i=F(x_i)$ , entonces tienes un conjunto de desviaciones $D^+_i=\max(0,S_i-F_i)$ .

Sin embargo, eso no es lo sorprendente de la estadística KS. Es que la distribución de $\sup_{x\in(-\infty,\infty)} D^+$ ¡es la misma para cualquier distribución del conjunto de datos! Para mí eso es lo que hay que conseguir intuitivamente si se puede.

1voto

Dave Puntos 76

Me resulta útil pensar que los dos FCD, ya sean poblacionales o empíricos, bailan uno alrededor del otro pero se mantienen cerca. Las parejas de baile pueden girar una alrededor de la otra, pero permanecerán a dos brazos de distancia, ¿verdad? Cuando dos personas están más separadas que eso, probablemente no están bailando entre sí.

UNA MUESTRA

En la prueba de una muestra (bondad de ajuste), suponemos que los datos proceden de una distribución que tiene una FCD determinada. Los datos también tienen una FCD empírica. Si estamos en lo cierto, la FCD de los datos debería bailar alrededor de la FCD de la distribución supuesta, pero mantenerse cerca. Si las parejas de baile se alejan demasiado (en la distancia vertical), entonces lo vemos como una prueba en contra de nuestra suposición.

DOS MUESTRAS

En la prueba de dos muestras, suponemos que dos conjuntos de datos proceden de la misma distribución. Si ese es el caso, las dos FCD empíricas deberían bailar una alrededor de la otra, pero permanecer bastante cerca. Si las parejas de baile se alejan demasiado (de nuevo, en la distancia vertical), entonces lo vemos como una prueba en contra de nuestra suposición.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X