Supongamos que tenemos un $n$ -distribución conjunta de dimensiones en la que todos sus marginales son independientes. Es decir, si la función de densidad conjunta es $p(x_1,\ldots,x_n)$ entonces $p(x_1,\ldots,x_n)=p_1(x_1)\cdots p_n(x_n)$ , donde $p_1,\ldots,p_n$ son densidades marginales, y todos estos marginales son conocidos y bastante simples.
Ahora queremos obtener muestras ${\bf x}_k=(x_{k,1},\ldots,x_{k,n}),k=1,\ldots,m$ de $p$ donde cada muestra es un $n$ -y el objetivo es utilizar estas muestras para estimar la expectativa de $E(h(X))$ donde $h$ es una función de valor real, X es una variable aleatoria distribuida según $p$ calculando la media de $h({\bf x}_1),\ldots,h({\bf x}_m)$ .
Para ello $m$ es mejor que sea un número muy grande. Alguien sabe cuál es la forma más eficiente de hacerlo además de MCMC ?
La forma brutalmente ingenua es tomar una muestra $x_{k,i}$ de $p_i$ por cada $i=1,\ldots,n$ por cada $k$ . Esto no es deseable cuando $m$ es grande.
Excluimos el MCMC porque su coste es demasiado elevado para nuestra aplicación. Todos los marginales son independientes, conocidos y simples. No queremos involucrar a esta pesada maquinaria.
Una posible alternativa puede ser que, después de muestrear ${\bf x}$ de $p$ , luego nos turnamos para volver a muestrear cada dimensión de ${\bf x}$ del correspondiente marginal, pero no estamos seguros de que esto sea correcto ( es decir, si la estimación es insesgada, la convergencia será mucho más lenta ). ¿Alguien puede ayudar a demostrar o mostrar un contraejemplo de esto?