La pregunta no es en última instancia la de la física, sino de la estadística. Es por una buena razón que la física de partículas sigue siendo uno de los pocos campos de la física donde la estadística aún se practica a un nivel avanzado (en muchos otros campos, la alta precisión de las mediciones redujo la necesidad de análisis estadístico a calcular desviaciones estándar). En particular, el capítulo de estadísticas en PRD es un excelente curso intensivo sobre análisis estadístico.
¿Cuántos parámetros son muchos?
En física estamos acostumbrados a modelos donde el número de parámetros se puede contar con los dedos de la mano, porque estamos apuntando a entender las interacciones/procesos/etc. elementales. Describir cualquier fenómeno del mundo real resulta necesariamente en combinar muchos elementos y usar más parámetros. Los modelos utilizados en ingeniería, por ejemplo, para diseñar aviones, o en la planificación gubernamental contienen cientos o miles de parámetros. La alta promesa del aprendizaje automático se debe a la capacidad computacional moderna de usar modelos con millones de parámetros, a menudo con un significado muy oscuro (para los humanos), pero aún funcionan muy bien, como vemos en el etiquetado de fotos de Facebook o en la creciente calidad de Google translate.
¿Cuántos datos?
Si tenemos demasiados parámetros depende de la cantidad de datos que tengamos. La regla general es tener más puntos de datos que parámetros. Sin embargo, enfoques más fundamentados se construyen en torno a la verosimilitud, que es la probabilidad de observar datos, dados nuestros valores de parámetros: $$P(D|\theta).$$ Modelo en este contexto es el medio de expresar esta relación entre los parámetros y los datos matemáticamente.
Ahora bien, si nuestro modelo es bueno, la verosimilitud aumentará a medida que aumentemos la cantidad de datos (el número de puntos de datos) - aunque este aumento no es estrictamente monótono, debido a los efectos aleatorios. Si esto no sucede, nuestro modelo no es bueno - quizás es demasiado simplista o tiene muy pocos parámetros - esto se llama subajuste.
Comparación de modelos
Dada una gran cantidad de datos, el modelo con más parámetros generalmente resultará en una mayor verosimilitud - aquí es donde radica el problema planteado en el OP. Permítanme señalar de paso que nunca podemos demostrar o refutar un modelo por sí solo - más bien, comparamos diferentes modelos y elegimos uno mejor. Un modelo con más parámetros puede ser simplemente mejor, porque se aproxima mejor a la realidad física. Pero dicho modelo puede resultar en una mayor verosimilitud simplemente porque tenemos más parámetros para ajustar - esto es lo que llamamos sobreajuste.
Se han desarrollado métodos para corregir el número de parámetros al corregir el modelo. Uno de los más conocidos es el criterio de información de Akaike (AIC), donde se comparan las cantidades $$AIC=k_M -\log P(D|M),$$
donde $k_M$ es el número de parámetros en el modelo $M$. El modelo con el valor más bajo de AIC se considera entonces el que logra los mejores resultados con el menor número de parámetros.
Por si acaso este criterio simple parece demasiado intuitivo, permítanme señalar que justificarlo rigurosamente requiere bastante matemáticas. También existen versiones más elaboradas, así como criterios alternativos, como el criterio de información bayesiano (donde $k_M$ se reemplaza por su logaritmo).
Así es como se elige el mejor modelo en pocas palabras. La física aparece en la formulación de los modelos lógicamente motivados para elegir. Sospecho que, si miramos las publicaciones en la época en que se formuló el modelo estándar, probablemente hubo bastantes propuestas alternativas, e incluso más probablemente se discutieron en las conversaciones entre los científicos. Sin embargo, la belleza de la física es que permite reducir significativamente la elección de modelos, como alternativa a los enfoques de aprendizaje automático, donde todos los modelos posibles son iguales y la elección se basa únicamente en su compatibilidad con los datos.