No creo que comprobar las suposiciones de ningún modelo califique como p-hacking/pesca. En el primer artículo, el autor habla de analistas que realizan repetidamente análisis sobre un conjunto de datos y sólo informan del mejor resultado. En otras palabras, están retratando a propósito una imagen sesgada de lo que está sucediendo en los datos.
Es obligatorio probar los supuestos de regresión o cualquier modelo. Lo que no es obligatorio es volver a tomar muestras repetidamente de los datos para determinar el mejor resultado posible. Asumiendo que los investigadores tienen una muestra lo suficientemente grande de la que extraer, a veces remuestrean una y otra vez... realizan pruebas de hipótesis una y otra vez.... hasta que logran el resultado que desean. Por lo tanto, p-hacking. Están hackeando el valor p a través de la búsqueda del resultado deseado y no se detendrán hasta que lo encuentren (fishing). Así que incluso si de 100 pruebas de hipótesis sólo consiguen 1 con un resultado significativo, informarán del valor p perteneciente a esa prueba en particular y omitirán todas las demás.
¿Tiene esto sentido? Al comprobar los supuestos del modelo, te aseguras de que el modelo es apropiado para los datos que tienes. Con p-hacking/pesca, usted está buscando sin cesar los datos/manipulando el estudio con el fin de lograr el resultado deseado.
En cuanto al propósito de la comparación múltiple, si sigues corriendo un modelo a través del barro sin parar tratando de encontrar una manera de invalidarlo (o validarlo) entonces eventualmente encontrarás una manera. Esto es la pesca. Si quieres validar un modelo, entonces encontrarás una manera. Si quieres invalidarlo, entonces encontrarás una manera. La clave es tener una mente abierta y descubrir la verdad, no sólo ver lo que quieres ver.