El enfoque Bayesiano para su problema sería considerar la probabilidad posterior sobre los modelos de $M \in \{ \text{Normal}, \text{Log-normal} \}$ dado un conjunto de puntos de datos $X = \{ x_1, ..., x_N \}$,
$$P(M \mid X) \propto P(X \mid M) P(M).$$
La parte difícil es conseguir que los marginales de la probabilidad,
$$P(X \mid M) = \int P(X \mid \theta, M) P(\theta \mid M) \, d\theta.$$
Para ciertas opciones de $p(\theta \mid M)$, la probabilidad marginal de una Gaussiana puede ser obtenida en forma cerrada. Ya diciendo que $X$ es de registro-normalmente distribuida es lo mismo que decir que $Y = \{ \log x_1, ..., \log x_N$ } se distribuye normalmente, usted debería ser capaz de utilizar el mismo marginales de la probabilidad de la log-normal como modelo para el modelo de Gauss, mediante la aplicación a $Y$ en lugar de $X$. Sólo recuerde tomar en cuenta el Jacobiano de la transformación,
$$P(X \mid M = \text{Log-Normal}) = P(Y \mid M=\text{Normal}) \cdot \prod_i \left| \frac{1}{x_i} \right|.$$
Para este método se necesita elegir una distribución a través de los parámetros de $P(\theta \mid M)$ – aquí, presumiblemente $P(\sigma^2, \mu \mid M=\text{Normal})$ – y las probabilidades previas $P(M)$.
Ejemplo:
Para $P(\mu, \sigma^2 \mid M = \text{Normal})$ I elegir una normal inverso-distribución gamma con parámetros a $m_0 = 0, v_0 = 20, a_0 = 1, b_0 = 100$.
Según Murphy (2007) (Ecuación 203), los marginales de la probabilidad de la distribución normal está dado por
$$P(X \mid M = \text{Normal}) = \frac{|v_N|^\frac{1}{2}}{|v_0|^\frac{1}{2}} \frac{b_0^{a_0}}{b_n^{a_N}} \frac{\Gamma(a_N)}{\Gamma(a_0)} \frac{1}{\pi^{N/2}2^N}$$
donde $a_N, b_N,$ $v_N$ son los parámetros de la parte posterior de la $P(\mu, \sigma^2 \mid X, M = \text{Normal})$ (Ecuaciones 196 a 200),
\begin{align}
v_N &= 1 / (v_0^{-1} + N), \\
m_N &= \left( v_0^{-1}m_0 + \sum_i x_i \right) / v_N, \\
a_N &= a_0 + \frac{N}{2}, \\
b_N &= b_0 + \frac{1}{2} \left( v_0^{-1}m_0^2 - v_N^{-1}m_N^2 + \sum_i x_i^2 \right).
\end{align}
Yo uso el mismo hyperparameters para la log-normal de distribución,
$$P(X \mid M = \text{Log-normal}) = P(\{\log x_1, ..., \log x_N \} \mid M = \text{Normal}) \cdot \prod_i \left|\frac{1}{x_i}\right|.$$
Para una probabilidad anterior de la log-normal de $0.1$, $P(M = \text{Log-normal}) = 0.1$, y los datos extraídos de la siguiente log-normal de distribución,
la parte posterior se comporta como esta:
La línea sólida muestra la mediana de probabilidad posterior para los diferentes sorteos de $N$ puntos de datos. Tenga en cuenta que por muy poco no los datos, las creencias son cerca de las creencias anteriores. De alrededor de 250 puntos de datos, el algoritmo es casi siempre la certeza de que los datos fueron extraídos de una log-normal de distribución.
Cuando la aplicación de las ecuaciones, sería una buena idea trabajar con el registro de densidades en lugar de densidades. Pero de lo contrario, debería ser bastante sencillo. Aquí está el código que he utilizado para generar las parcelas:
https://gist.github.com/lucastheis/6094631