13 votos

Prueba de Kolmogorov-Smirnov: el valor p y el estadístico de la prueba ks disminuyen al aumentar el tamaño de la muestra

¿Por qué los valores p y los estadísticos de la prueba ks disminuyen al aumentar el tamaño de la muestra? Tome este código de Python como ejemplo:

import numpy as np
from scipy.stats import norm, ks_2samp
np.random.seed(0)
for n in [10, 100, 1000, 10000, 100000, 1000000]:
  x = norm(0, 4).rvs(n)
  y = norm(0, 4.1).rvs(n)
  print ks_2samp(x, y)

Los resultados son:

Ks_2sampResult(statistic=0.30000000000000004, pvalue=0.67507815371659508)
Ks_2sampResult(statistic=0.080000000000000071, pvalue=0.89375155241057247)
Ks_2sampResult(statistic=0.03499999999999992, pvalue=0.5654378910227662)
Ks_2sampResult(statistic=0.026599999999999957, pvalue=0.0016502962880920896)
Ks_2sampResult(statistic=0.0081200000000000161, pvalue=0.0027192461984023855)
Ks_2sampResult(statistic=0.0065240000000000853, pvalue=6.4573678008760032e-19)

Intuitivamente entiendo que a medida que n crece, la prueba está "más segura" de que las dos distribuciones son diferentes. Pero si el tamaño de la muestra es muy grande, ¿qué sentido tienen las pruebas de similitud como ésta y, por ejemplo, la prueba de Anderson Darling, o la prueba t, porque en estos casos, cuando n es muy grande, las distribuciones siempre resultarán ser "significativamente" diferentes? Ahora me pregunto qué sentido tienen los valores p. Depende tanto del tamaño de la muestra... si p > 0,05 y quieres que sea menor, simplemente obtén más datos; y si p < 0,05 y quieres que sea mayor, simplemente elimina algunos datos.

Además, si las dos distribuciones fueran idénticas, el estadístico de la prueba ks sería 0 y el valor p 1. Pero en mi ejemplo, a medida que n aumenta, el estadístico de la prueba ks sugiere que las distribuciones se vuelven más y más similares con el tiempo (disminuye), pero según el valor p se vuelven más y diferentes con el tiempo (también disminuye).

7voto

Theodotos Andreou Puntos 86

La estadística de la prueba disminuye porque sus distribuciones son muy similares y las muestras más grandes tienen menos ruido. Si se comparan las dos distribuciones teóricas utilizadas, se debería obtener el estadístico KS "verdadero". A medida que añade más datos, su estadística KS estimada debería acercarse a este valor verdadero. Sin embargo, aunque el estadístico KS disminuya, aumenta su confianza en que se trata de dos distribuciones diferentes (es decir, el valor p disminuye) porque tiene mayor confianza en sus estimaciones de las distribuciones individuales.

4voto

RGA Puntos 113

En una nota práctica: conseguir más datos no es tan fácil (ojalá lo fuera). Eliminar datos sólo para obtener la $p$ -valor que quiere es el fraude académico, y si te pillan tienes problemas.

Sin embargo, tiene razón en que el $p$ -El valor por sí solo tiene un valor limitado. En el mejor de los casos, es sólo el principio de su análisis y, desde luego, no el final. Para más información, véase la declaración de la ASA sobre $p$ -valores .

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X