¿Puedo derivar alguna afirmación (bayesiana) sobre la probabilidad de un parámetro dados los datos y la probabilidad marginal de los modelos que contienen este parámetro? Por ejemplo, considere una configuración de regresión $$Y_t=X_t\beta_k + \varepsilon_{t,k}$$ donde $X\in\mathbb{R}^{N}$ . Datos $(Y, X)$ es el mismo para todos los modelos, los modelos difieren sólo con respecto a la prioridad para $\beta_k$ : $\pi^k(\beta)=\prod_i^N\pi_i(\beta_i)$ donde para algunos elementos $\pi^k_i$ es una masa puntual en $0$ (el parámetro se fuerza a ser 0, o, en otras palabras, no se incluye en la regresión). La prioridad del término de error se centra siempre en $0$ . Para diferentes modelos $\mathcal{M}_k$ podemos calcular las probabilidades posteriores del modelo $\pi(\mathcal{M}_k|Y,X)$ , siendo idéntica a la probabilidad marginal si asumimos priores planos para el modelo. Supongamos que he calculado las probabilidades del modelo para todos los $2^N$ modelos distintos, dejándome con un conjunto de $2^{N-1}$ modelos que contienen el parámetro $\beta_k$ por cada $k=1,\ldots,N$ .
¿Existe alguna forma adecuada de calcular algo como $$p(\beta_i\neq0|D) \propto \sum\limits_{i=1}^{2^N}\pi(\mathcal{M}_i|Y,X)\mathbb{1}_{\pi_i(\beta_i)\neq 0}$$
Pido disculpas por el posible abuso de la notación, pero no sé si esta idea tiene algún sentido.