25 votos

Abordar la incertidumbre del modelo

Me preguntaba cómo ven los bayesianos de la comunidad CrossValidated el problema de la incertidumbre del modelo y cómo prefieren afrontarlo? Intentaré plantear mi pregunta en dos partes:

  1. ¿Hasta qué punto es importante (según su experiencia / opinión) tratar la incertidumbre de los modelos? No he encontrado ningún artículo sobre este tema en la comunidad de aprendizaje automático, así que me pregunto por qué.

  2. ¿Cuáles son los enfoques habituales para tratar la incertidumbre del modelo (puntos extra si aporta referencias)? He oído hablar del promediado bayesiano de modelos, aunque no estoy familiarizado con las técnicas / limitaciones específicas de este enfoque. ¿Cuáles son otros y por qué prefiere uno a otro?

17voto

merriam Puntos 67

Hay dos casos que se plantean al tratar la selección de modelos:

  • Cuando el modelo verdadero pertenece al espacio modelo.

    Esto es muy sencillo de solucionar utilizando BIC . Hay resultados que muestran que el BIC seleccionará el modelo verdadero con alta probabilidad.

Sin embargo, en la práctica es muy raro que conozcamos el verdadero modelo. _Debo señalar que BIC tiende a ser mal utilizado debido a esto (la razón probable es su aspecto similar como AIC )_ . Estas cuestiones ya se han tratado en este foro de diversas formas. Una buena discusión es aquí .

  • Cuando el modelo verdadero no se encuentra en el espacio modelo.

    Se trata de un campo de investigación activo en la comunidad bayesiana. Sin embargo, se confirma que la gente sabe que utilizar el BIC como criterio de selección de modelos en este caso es peligroso. La literatura reciente sobre análisis de datos de alta dimensión así lo demuestra. Un ejemplo de ello es este . Definitivamente, el factor de Bayes funciona sorprendentemente bien en dimensiones altas. Se han propuesto varias modificaciones del BIC, como el mBIC, pero no hay consenso. El RJMCMC es otra forma popular de realizar la selección bayesiana de modelos, pero tiene sus propios defectos. Puedes seguir más sobre esto.

Hay otro bando en el mundo bayesiano que recomienda promediar los modelos. Siendo notable, el Dr. Raftery.

  • Promedio bayesiano de modelos.

    Este sitio web de Chris Volinksy es una fuente exhaustiva de promediación bayesiana de modelos. Otras obras son aquí .

Una vez más, la selección bayesiana de modelos sigue siendo un campo de investigación activo y puede que obtenga respuestas muy diferentes dependiendo de a quién pregunte.

11voto

John Richardson Puntos 1197

Un "verdadero" bayesiano trataría la incertidumbre del modelo marginando (integrando) todos los modelos plausibles. Así, por ejemplo, en un problema de regresión lineal de cresta se marginaría sobre los parámetros de regresión (que tendrían una posterior gaussiana, por lo que podría hacerse analíticamente), pero luego se marginaría sobre los hiperparámetros (nivel de ruido y parámetro de regularización) mediante, por ejemplo, métodos MCMC.

Una solución bayesiana "menor" sería marginar sobre los parámetros del modelo, pero optimizar los hiperparámetros maximizando la verosimilitud marginal (también conocida como "evidencia bayesiana") del modelo. Sin embargo, esto puede llevar a un sobreajuste mayor de lo que cabría esperar (véase, por ejemplo Cawley y Talbot ). Véase el trabajo de David MacKay para obtener información sobre la maximización de pruebas en el aprendizaje automático. A modo de comparación, véase el trabajo de Radford Neal sobre el enfoque de "integrar todo" en problemas similares. Hay que tener en cuenta que el marco de pruebas es muy útil para situaciones en las que la integración es demasiado costosa desde el punto de vista informático, por lo que ambos enfoques tienen cabida.

Efectivamente, los bayesianos integran en lugar de optimizar. Lo ideal sería establecer nuestra creencia a priori sobre las características de la solución (por ejemplo, la suavidad) y hacer predicciones notorias sin llegar a crear un modelo. Los "modelos" de procesos gaussianos utilizados en el aprendizaje automático son un ejemplo de esta idea, en la que la función de covarianza codifica nuestra creencia previa sobre la solución. Véase el excelente libro de Rasmussen y Williams .

Para los bayesianos prácticos, siempre existe la validación cruzada, ¡es difícil de superar para la mayoría de las cosas!

11voto

patfla Puntos 1

Una de las cosas interesantes que encuentro en el mundo de la "incertidumbre del modelo" es esta noción de "modelo verdadero". Esto significa implícitamente que nuestras "proposiciones modelo" son de la forma:

$$M_i^{(1)}:\text{The ith model is the true model}$$

A partir de las cuales calculamos las probabilidades posteriores $P(M_i^{(1)}|DI)$ . Este procedimiento me parece muy dudoso a nivel conceptual. Es una gran exageración (o un cálculo imposible) suponer que el $M_i^{(1)}$ proposiciones son exhaustivas. Para cualquier conjunto de modelos que puedas producir, seguro que hay un modelo alternativo en el que todavía no has pensado. Y así continúa la regresión infinita...

La exhaustividad es crucial aquí, porque garantiza que las probabilidades suman 1, lo que significa que podemos marginar el modelo.

Pero todo esto es a nivel conceptual: el promediado de modelos tiene un buen rendimiento. Esto significa que debe haber un concepto mejor.

Personalmente, veo los modelos como herramientas, como un martillo o un taladro. Los modelos son construcciones mentales que sirven para hacer predicciones o describir cosas que podemos observar. Suena muy impar hablar de un "verdadero martillo", e igualmente estrafalario hablar de una "verdadera construcción mental". Basándome en esto, la noción de "modelo verdadero" me parece extraña. Parece mucho más natural pensar en modelos "buenos" y modelos "malos", en lugar de modelos "correctos" y modelos "erróneos".

Desde este punto de vista, también podríamos tener dudas sobre cuál es el "mejor" modelo a utilizar, entre una selección de modelos. Supongamos que razonamos sobre la propuesta:

$$M_i^{(2)}:\text{Out of all the models that have been specified,}$$ $$\text{the ith model is best model to use}$$

Creo que ésta es una forma mucho mejor de entender la "incertidumbre del modelo". No sabemos qué modelo utilizar, sino qué modelo es el "correcto". Esto también hace que el promedio de modelos parezca algo mejor (para mí, al menos). Y por lo que puedo decir, la posterior para $M_{i}^{(2)}$ utilizar el BIC está perfectamente bien como aproximación fácil. Y además, las proposiciones $M_{i}^{(2)}$ son exhaustivo además de ser exclusivo .

Sin embargo, en este enfoque se necesita algún tipo de medida de la bondad del ajuste para calibrar la calidad del "mejor" modelo. Esto se puede hacer de dos maneras: comparándolo con modelos "seguros", lo que equivale a las estadísticas habituales de bondad de ajuste (divergencia KL, Chi-cuadrado, etc.). Otra forma de medirlo es incluir un modelo extremadamente flexible en su clase de modelos, por ejemplo, un modelo de mezcla normal con cientos de componentes o una mezcla de procesos Dirichlet. Si este modelo resulta ser el mejor, es probable que los demás modelos sean inadecuados.

Este documento contiene una buena discusión teórica y explica, paso a paso, un ejemplo de selección de modelos.

5voto

kbrinley Puntos 664

Sé que la gente utiliza DIC y el factor de Bayes, como dijo suncoolsu. Y me interesó cuando dijo "Hay resultados que muestran que BIC seleccionará el modelo verdadero con alta probabilidad" (¿referencias?). Pero yo uso lo único que conozco, que es la comprobación predictiva posterior, defendida por Andrew Gelman. Si buscas en Google Andrew Gelman y posterior predictive checks encontrarás un montón de cosas. Y yo echaría un vistazo a lo que Christian Robert está escribiendo en ABC sobre la elección del modelo . En cualquier caso, he aquí algunas referencias que me gustan, y algunas entradas recientes en el blog de Gelman:

Blog

DIC y AIC ; Más sobre DIC . Comprobación de modelos y validación externa

Documentos sobre comprobaciones predictivas posteriores:

GELMAN, Andrew. (2003a). "A Bayesian Formulation of Exploratory Data Analysis and Goodness-of-fit Testing". International Statistical Review, vol. 71, n.2, pp. 389-382.

GELMAN, Andrew. (2003b). "Análisis exploratorio de datos para modelos complejos". Journal of Computational and Graphic Statistics, vol. 13, n. 4, pp. 755/779.

GELMAN, Andrew; MECHELEN, Iven Van; VERBEKE, Geert; HEITJAN, Daniel F.; MEULDERS, Michel. (2005). "Multiple Imputation for Model Checking: Completed-Data Plots with Missing and Latent Data". Biometrics 61, 74-85, marzo.

GELMAN, Andrew; MENG, Xiao-Li; STERN, Hal. (1996). "Posterior Predictive Assessment of Model Fitness via Realized Discrepancies". Statistica Sinica, 6, pp. 733-807.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X