La prueba de Kolmogorov-Smirnov está diseñada para situaciones en las que una distribución continua está totalmente especificada bajo la hipótesis nula.
Veamos qué ocurre con la distribución nula de la estadística de la prueba cuando la hipótesis nula es verdadera.
Cuando se estiman los parámetros, la estimación identifica los parámetros que hacen que la distribución estimada se acerque más a los datos que la distribución de la población.
Tomemos un ejemplo un poco más sencillo: el normal.
Aquí genero una muestra de 100 valores de un $N(50,5)$ (los puntos negros en la ECDF) y comparar con la función de distribución de la población (en azul) y la función de distribución ajustada (normal con la media y la varianza ajustadas a la media y la varianza de la muestra, mostradas en rojo):
KS statistic for population parameters: D = 0.19987
KS statistic for fitted distribution: D = 0.14715
Esto es típico. Sin embargo, es posible que el estadístico sea mayor en la ajustada porque en realidad no ajustamos la distribución minimizando el estadístico KS; si estimáramos los parámetros de esa manera, la distribución normal ajustada tendría garantizado un estadístico de prueba menor.
Este "ajustado está más cerca de los datos que de la población" es lo mismo que resulta de dividir por $n-1$ en la varianza de la muestra (corrección de Bessel); aquí hace que la estadística de la prueba sea típicamente más pequeña de lo que debería ser.
Por lo tanto, si se ciñera a las tablas habituales, la tasa de error de tipo I sería menor de lo que usted eligió (con la correspondiente disminución de la potencia); su prueba no se comporta como usted quiere.
Puede que te guste leer sobre el test de Lilliefors (sobre el que hay muchos posts aquí). Lilliefors calculó (mediante simulación) la distribución de un estadístico de Kolmogorov-Smirnov sobre distribuciones ajustadas bajo condiciones normales (desconocidas $\mu$ , desconocido $\sigma$ y ambos parámetros desconocidos) y los casos exponenciales (1967,1969)
Una vez que se ajusta una distribución, la prueba deja de ser libre de distribución.
En el caso de que estés ajustando el parámetro de grados de libertad, no creo que el enfoque de Lilliefors funcione para la distribución t*; el consejo de utilizar el bootstrap puede ser razonable en muestras grandes.
* porque la distribución de la estadística de la prueba será diferente para diferentes df (sin embargo, puede ser que no varíe mucho con df en cuyo caso todavía se podría tener una prueba aproximada razonable)