Estoy interesado para estimar la densidad de una variable aleatoria continua $X$. Una forma de hacer esto que he aprendido es el uso de la Estimación de Densidad de Kernel.
Pero ahora estoy interesado en un enfoque Bayesiano que a lo largo de las siguientes líneas. Yo al principio creen que $X$ sigue una distribución $F$. Aprovecho $n$ lecturas de $X$. Hay algunas enfoque para la actualización de $F$ basado en mis nuevas lecturas?
Sé que puedo sonar como que me estoy contradiciendo a mí mismo: Si yo creo que el único en $F$ mi antes de la distribución, no hay datos debe convencerme de lo contrario. Sin embargo, supongamos $F$ se $Unif[0,1]$ y mis puntos de datos eran como $(0.3, 0.5, 0.9, 1.7)$. Ver $1.7$, que obviamente no se pegue a mi antes, pero ¿cómo debo actualizar?
Actualización: a partir de las sugerencias en los comentarios, me han empezado a observar en el proceso de Dirichlet. Permítanme usar las siguientes notaciones:
$ G \sim DP(\alpha,H)\\ \theta_i | G \sim G\\ x_i | \theta_i \sim N(\theta_i,\sigma^2)$
Después de enmarcar mi problema original en este idioma, supongo que estoy interesado en los siguientes: $\theta_{n+1} | x_1,...,x_n$. ¿Cómo se hace esto?
En este conjunto de notas (página 2), el autor hizo un ejemplo de $\theta_{n+1} | \theta_1,...,\theta_n$ (Polya sistema Urn). No estoy seguro de si esto es relevante.
Actualización 2: también me gustaría preguntar (después de ver las notas): ¿cómo la gente elige $\alpha$ para la DP? Parece una elección al azar. Además, ¿cómo deciden las personas antes de $H$ para DP? Debo usar un previo para $\theta$ mi antes de $H$?