Esto está estrechamente relacionado con el concepto de identificabilidad en estadística matemática, que creo se relaciona con tu pregunta. La identificabilidad trata sobre la posibilidad de que un modelo mal especificado pueda carecer de una relación uno a uno entre conjuntos de parámetros y distribuciones de probabilidad sobre los datos, lo cual causa problemas en relación con la inferencia.
Por ejemplo, tomemos el modelo ANOVA "sobreparametrizado",
$$ Y_{ij} = \mu + \alpha_i + \epsilon_{ij} , $$
donde $1 \leq i \leq k$, $1 \leq j \leq n$, $\epsilon_{ij} \sim$ normal$(0, \sigma^2)$, y no se imponen restricciones en$\{ \alpha_i \}_{i=1}^{k}$. Ahora supongamos que un oráculo nos dijera la distribución exacta de $Y_{ij}$ dentro de cada grupo, de modo que conozcamos tanto su media como su varianza para cada $i$. (De hecho, esto es lo máximo que podríamos esperar aprender de los datos). ¿Podríamos recuperar los parámetros del modelo? No podemos, porque hay un número infinito de formas en que podríamos especificar $\mu, \alpha_1, \ldots , \alpha_k$ de modo que $\text{E}(Y_{ij}) = \mu + \alpha_i$ para cada $i$. Esto se reflejaría también en la función de verosimilitud, donde diferentes conjuntos de parámetros darían exactamente la misma verosimilitud para todas las configuraciones posibles de los datos. El modelo no es identificable, y no podemos obtener estimaciones consistentes para ninguno de los parámetros de la media. Por esta razón, generalmente se impone la restricción de identificabilidad $\sum_{i=1}^{k} \alpha_i = 0$.
Así que si bien es importante que los parámetros del modelo especifiquen las distribuciones involucradas, también es importante que podamos ir en la dirección opuesta e inferir parámetros a partir de distribuciones, de lo contrario nunca podríamos descubrir el "verdadero" modelo.