Esta es una oportunidad bienvenida para discutir y aclarar lo que significan los modelos estadísticos y cómo deberíamos pensar en ellos. Comencemos con las definiciones, para que el alcance de esta respuesta no quede en duda, y sigamos desde allí. Para mantener esta publicación breve, limitaré los ejemplos y prescindiré de todas las ilustraciones, confiando en que el lector pueda proporcionarlas a partir de la experiencia.
Definiciones
Parece posible entender "prueba" en un sentido muy general como cualquier tipo de procedimiento estadístico: no solo una prueba de hipótesis nula, sino también estimación, predicción y toma de decisiones, ya sea en un marco frecuentista o bayesiano. Esto se debe a que la distinción entre "paramétrico" y "no paramétrico" es independiente de las distinciones entre tipos de procedimientos o entre estos marcos.
En cualquier caso, lo que hace que un procedimiento sea estadístico es que modele el mundo con distribuciones de probabilidad cuyas características no son completamente conocidas. Muy abstractamente, concebimos que los datos $X$ surgen al codificar numéricamente los valores de objetos $\omega\in\Omega$; los datos particulares que estamos utilizando corresponden a un $\omega$ particular; y hay una ley de probabilidad $F$ que de alguna manera determinó el $\omega$ que tenemos en realidad.
Se asume que esta ley de probabilidad pertenece a algún conjunto $\Theta$. En un entorno paramétrico, los elementos $F\in\Theta$ corresponden a colecciones finitas de números $\theta(F)$, los parámetros. En un entorno no paramétrico, no existe tal correspondencia. Esto suele ser porque no estamos dispuestos a hacer supuestos fuertes sobre $F$.
La Naturaleza de los Modelos
Parece útil hacer una distinción adicional que rara vez se discute. En algunas circunstancias, $F$ seguramente será un modelo completamente preciso para los datos. En lugar de definir lo que entiendo por "totalmente preciso", permítanme dar un ejemplo. Tomemos una encuesta de una población finita y bien definida en la que las observaciones son binarias, ninguna se perderá y no hay posibilidad de error de medición. Un ejemplo podría ser la prueba destructiva de una muestra aleatoria de objetos que salen de una línea de ensamblaje, por ejemplo. El control que tenemos sobre esta situación--conocer la población y poder seleccionar la muestra verdaderamente al azar--asegura la corrección de un modelo binomial para los recuentos resultantes.
En muchos--quizás la mayoría--de otros casos, $\Theta$ no es "totalmente preciso". Por ejemplo, muchos análisis asumen (ya sea implícita o explícitamente) que $F$ es una distribución normal. Eso siempre es físicamente imposible, porque cualquier medición real está sujeta a limitaciones físicas en su rango posible, mientras que no existen tales limitaciones en las distribuciones normales. ¡Sabemos desde el principio que los supuestos de normalidad están equivocados!
¿Hasta qué punto es un problema un modelo no totalmente preciso? Considera lo que hacen los buenos físicos. Cuando un físico usa la mecánica newtoniana para resolver un problema, es porque sabe que en esta escala particular--estas masas, estas distancias, estas velocidades--la mecánica newtoniana es más que suficientemente precisa para funcionar. Solo complicará su análisis considerando efectos cuánticos o relativistas (o ambos) cuando el problema lo requiera. Está familiarizada con teoremas que muestran, cuantitativamente, cómo la mecánica newtoniana es un caso límite de la mecánica cuántica y de la relatividad especial. Esos teoremas la ayudan a entender qué teoría elegir. Esta selección generalmente no está documentada o ni siquiera defendida; puede ocurrir incluso inconscientemente: la elección es obvia.
Una buena estadística siempre tiene consideraciones comparables en mente. Cuando selecciona un procedimiento cuya justificación se basa en un supuesto de normalidad, por ejemplo, está evaluando en qué medida el $F$ real podría alejarse del comportamiento normal y cómo eso podría afectar al procedimiento. En muchos casos, el efecto probable es tan pequeño que ni siquiera necesita ser cuantificado: ella "asume la normalidad". En otros casos, el efecto probable es desconocido. En tales circunstancias, realizará pruebas diagnósticas para evaluar las desviaciones de la normalidad y sus efectos en los resultados.
Consecuencias
Comienza a sonar como si el entorno no totalmente preciso apenas se distinguiera del no paramétrico: ¿realmente hay alguna diferencia entre asumir un modelo paramétrico y evaluar cómo se aleja la realidad de él, por un lado, y asumir un modelo no paramétrico por otro lado? En el fondo, ambos son no paramétricos.
A la luz de esta discusión, reconsideremos las distinciones convencionales entre procedimientos paramétricos y no paramétricos.
-
"Los procedimientos no paramétricos son robustos". Hasta cierto punto, todos los procedimientos deben serlo. El problema no es de robustez vs no robustez, sino cómo de robusto es cualquier procedimiento. ¿Hasta qué punto, y de qué manera, se aleja el $F$ real de las distribuciones en el conjunto asumido $\Theta$? En función de esas desviaciones, ¿en qué medida se ven afectados los resultados de la prueba? Estas son preguntas básicas que se aplican en cualquier entorno, paramétrico o no.
-
"Los procedimientos no paramétricos no requieren pruebas de bondad de ajuste o pruebas distribucionales". Esto generalmente no es cierto. "No paramétrico" a menudo se caracteriza erróneamente como "libre de distribución", en el sentido de permitir que $F$ sea literalmente cualquier distribución, pero esto casi nunca es el caso. Casi todos los procedimientos no paramétricos hacen suposiciones que restringen $\Theta$. Por ejemplo, $X$ podría dividirse en dos conjuntos para comparación, con una distribución $F_0$ gobernando un conjunto y otra distribución $F_1$ gobernando el otro. Quizás no se haga ninguna suposición sobre $F_0$, pero se asume que $F_1$ es una versión traducida de $F_0$. Eso es lo que muchas comparaciones de tendencia central asumen. El punto es que existe una suposición definida sobre $F$ en dichas pruebas y merece ser verificada tanto como cualquier suposición paramétrica podría serlo.
-
"Los procedimientos no paramétricos no hacen suposiciones". Hemos visto que sí las hacen. Tienden a hacer suposiciones menos restrictivas que los procedimientos paramétricos.
Un enfoque excesivo en lo paramétrico vs no paramétrico podría ser contraproducente. Pasar por alto el objetivo principal de los procedimientos estadísticos, que es mejorar la comprensión, tomar buenas decisiones o realizar acciones apropiadas. Los procedimientos estadísticos se seleccionan en función de cuánto se espera que funcionen en el contexto del problema, a la luz de toda la demás información y supuestos sobre el problema, y con respecto a las consecuencias para todas las partes interesadas en el resultado.
La respuesta a "¿importan estas distinciones" parece ser por lo tanto "no realmente".