Sí, la distribución posterior de un parámetro $\theta$ dado un conjunto de datos ${\bf X}$ puede escribirse como
$$ p(\theta | {\bf X}) \propto \underbrace{p({\bf X} | \theta)}_{{\rm likelihood}} \cdot \underbrace{p(\theta)}_{{\rm prior}} $$
o, como es más habitual, en la escala logarítmica,
$$ \log( p(\theta | {\bf X}) ) = c + L(\theta;{\bf X}) + \log(p(\theta)) $$
La probabilidad logarítmica, $L(\theta;{\bf X}) = \log \left( p({\bf X}|\theta) \right)$ , se escala con el tamaño de la muestra ya que es una función de los datos, mientras que la densidad previa no lo es. Por lo tanto, a medida que aumenta el tamaño de la muestra, el valor absoluto de $L(\theta;{\bf X})$ es cada vez mayor mientras que $\log(p(\theta))$ se mantiene fijo (para un valor fijo de $\theta$ ), por lo que la suma $L(\theta;{\bf X}) + \log(p(\theta))$ se ve más influenciada por $L(\theta;{\bf X})$ a medida que aumenta el tamaño de la muestra.
Por lo tanto, para responder directamente a su pregunta, la distribución a priori se vuelve cada vez menos relevante a medida que se ve superada por la probabilidad. Así, para un tamaño de muestra pequeño, la distribución a priori desempeña un papel mucho mayor. Esto concuerda con la intuición, ya que cabría esperar que las especificaciones previas desempeñaran un papel más importante cuando no se dispone de muchos datos para refutarlas, mientras que, si el tamaño de la muestra es muy grande, la señal presente en los datos superará cualquier a priori creencias se introdujeron en el modelo.