Según tengo entendido glmnet
, $\alpha=0$ sería en realidad una pena de cresta, y $\alpha=1$ sería una penalización de Lasso (y no al revés) y en cuanto a glmnet
se trata de que puedas encajar esas maletas finales.
La pena con $\alpha=0.1$ sería bastante similar a la penalización de la cresta, pero no es la penalización de la cresta; si no está considerando $\alpha$ debajo de $0.1$ no se puede inferir necesariamente mucho más que eso sólo por el hecho de tener ese punto final. Si sabes que un $\alpha$ valor que era sólo ligeramente más grande era peor, entonces sería probable que una gama más grande podría haber elegido un menor $\alpha$ pero no sugiere que hubiera sido $0$ pero espero que no sea así. Si la cuadrícula de valores es gruesa bien puede ser que un valor mayor que $0.1$ sería mejor.
[Es posible que desee comprobar si había alguna otra razón por la que $\alpha$ podría haber estado en un punto final; por ejemplo, creo recordar que $\lambda$ se fijó en un punto final en la previsión si los coeficientes de lambdaOpt
no se salvaron].