Dando un punto de vista alternativo, más aplicado, a partir de la excelente respuesta de Rod arriba -
En muchos casos, si no en la mayoría, la impropiedad de la posterior es el resultado de elecciones hechas por conveniencia, no un verdadero efecto de "estoy absolutamente seguro de mi función de verosimilitud y de mi distribución previa, ¡y mira lo que ha pasado!". Teniendo en cuenta esto, no deberíamos tomar la impropiedad demasiado en serio en nuestro trabajo aplicado a menos que vaya a estropear nuestros cálculos . Como alguien famoso (¿Huber? ¿Tukey?) observó una vez, en un contexto diferente, la diferencia entre un Cauchy estándar y un Cauchy truncado en $+/- 10^{100}$ es indetectable, pero uno no tiene momentos y el otro tiene momentos de todos los órdenes.
En este contexto, si tengo una distribución posterior para la demanda de perritos calientes en el AT&T Park el próximo fin de semana con una cola superior proporcional a $1/x$ En el caso de los algoritmos que calculan valores esperados, eso es una mala noticia, pero si lo trunco en el número estimado de personas en San Francisco, un número algo mayor que el número de perritos calientes que se venderán de hecho en el parque AT&T el próximo fin de semana, todo va bien, al menos en lo que respecta a la existencia de momentos. En este último caso, se puede pensar en ello como una especie de aplicación en dos fases de la real prior - uno que uso para el cálculo, que no tiene un límite superior, y la "característica extra" del mismo donde es igual a cero por encima de la población de San Francisco...", con la "característica extra" que se aplica en un paso posterior a la generación de la muestra. El real no es la que se utiliza en el cálculo MCMC (en mi ejemplo).
Así que, en principio, no me importaría utilizar una muestra generada por MCMC a partir de una distribución inadecuada en un trabajo aplicado, pero prestaría mucha atención a cómo se produjo esa inadecuación, y cómo se verá afectada la muestra aleatoria por ella. Idealmente, la muestra aleatoria no se vería afectada por ella, como en mi ejemplo de los perritos calientes, donde en un mundo razonable nunca se generaría un número aleatorio mayor que el número de personas en San Francisco...
También hay que tener en cuenta que los resultados pueden ser muy sensibles a la característica de la variable posterior que causó que fuera inadecuada, incluso si se trunca en algún número grande más tarde (o cualquier alteración que sea apropiada para su modelo). Esto puede ser más difícil de asegurar, pero es parte del problema más amplio de asegurarse de que sus resultados son robustos a sus supuestos, especialmente los que se hacen por conveniencia.