1 votos

`bGAMM` y otros algoritmos `GMMboost` para grandes conjuntos de datos

Los modelos mixtos lineales generalizados regularizados y los modelos mixtos aditivos generalizados son exactamente lo que necesito. Soy un usuario de R, así que parece que bGAMM y tal vez glmmLASSO son posibilidades fuera de hacer mi propia implementación (que no tengo tiempo de hacer para este proyecto). Mi pregunta es si estos paquetes pueden manejar un número razonablemente grande de observaciones (hasta 150K) y efectos aleatorios (más de 500) junto con, digamos, hasta 1000 parámetros. Utilizaré una instancia de Amazon para este caso de uso.

1voto

shyam Puntos 4133

Gracias a Fabian Scheipl, desarrollador de package::spikeSlabGAM entre otras cosas, por señalarme hacia mboost que es más escalable que spikeSlabGAM , GMMBoost y glmmLASSO e incluye todas las especificaciones del modelo de estos paquetes como subconjuntos. Es más escalable porque no utiliza MCMC. Por lo tanto, es bueno para los casos de uso cuando lo que se busca son estimaciones puntuales, y se tienen datos más o menos grandes.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X