3 votos

comparación de distribuciones normales mediante la prueba de kolmogorov-smirnov de dos muestras

He sido redirigido aquí desde otro foro...

He utilizado una prueba de Kolmogorov-Smirnov de dos muestras para comparar las distribuciones de dos conjuntos de datos. Básicamente estoy comparando las distribuciones de error entre dos mediciones cuando se realiza una intervención, para determinar si la intervención (un parámetro de medición cambiante) cambia significativamente la distribución de error de la medición.

Sé que la prueba K-S es una prueba no paramétrica, sin embargo las distribuciones de los datos que estoy comparando han resultado tener una distribución normal... Sé que probablemente hay una serie de pruebas que podrían utilizarse para comparar datos con distribución normal, pero ¿hay alguna razón para no utilizar la prueba K-S? ¿Hay alguna desventaja (con respecto a los errores de tipo 1 y 2 quizás)? ¿Está bien utilizarla?

He seguido más o menos este camino con mi análisis de datos, pero me ha surgido la pregunta: ¿por qué utilizar una prueba no paramétrica para comparar datos paramétricos? Esperemos que la prueba K-S sea poco convencional y no completamente errónea.

0 votos

Cuando dices "distribuciones de error", ¿se trata de alguna forma de residuos de algún modelo de ajuste? Si es así, hay un par de razones por las que el estadístico Kolmogorov-Smirnov no tendrá la distribución tabulada.

0 votos

No, no son residuos. Esencialmente es una medida de longitud usando un sistema óptico. Tomo unas 500 mediciones y obtengo una distribución del error en la medición de la longitud. Luego cambio un parámetro en mi sistema de medición, tomo otras 500 mediciones y obtengo una distribución del error para eso. Luego comparo las dos distribuciones para ver si son significativamente diferentes utilizando la prueba K-S. En esencia, se trata de ver si el sistema de medición es igual de preciso cuando se cambia un parámetro del proceso.

0 votos

Gracias por aclararlo. La prueba KS debería estar bien, pero si se sabe que los datos se distribuyen normalmente, no es tan eficaz como podría ser para detectar las diferencias. Sin embargo, no está claro cómo se puede saber esto (aproximadamente normal, tal vez).

2voto

user52220 Puntos 84

No hay nada malo en utilizar la prueba K-S. La razón por la que podría querer utilizar otras pruebas, como las que se adaptan a una distribución normal, es que estas pruebas pueden darle más potencia. Pero si no está seguro de la normalidad, creo que la prueba K-S funcionará bien. Personalmente, me gusta la prueba K-S porque tiene menos supuestos en comparación con otras pruebas. Antes, cuando no teníamos la potencia de cálculo que tenemos ahora, las pruebas paramétricas eran más fáciles de calcular y eran válidas si se ajustaban a los supuestos. Pero ahora, con la potencia de cálculo que tenemos, no hay muchas razones para no hacer pruebas no paramétricas.

Lo único que querrá asegurarse es que tiene un tamaño de muestra lo suficientemente grande para ambos para asegurar que la FCD empírica es cercana a la FCD real.

1voto

arootbeer Puntos 163

Creo que la prueba K-S tiene una importante limitación que requiere que la distribución subyacente esté totalmente definida. Por eso, si los parámetros de la media y la varianza se estiman a partir de los datos reales, la prueba K-S deja de ser válida y sus valores críticos son difíciles de obtener. Puedes echar un vistazo a algunos artículos sobre este problema: Koul y Swordson (2011), Bai(2003)...

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X