Es bastante difícil responder a su pregunta de forma precisa, pero me parece que está comparando dos criterios (criterio de información y valor p) que no dan la misma información. Para todos los criterios de información (AIC, o criterio de Schwarz), cuanto más pequeños son, mejor es el ajuste de su modelo (desde una perspectiva estadística), ya que reflejan un compromiso entre la falta de ajuste y el número de parámetros del modelo; por ejemplo, el criterio de Akaike dice $-2\log(\ell)+2k$ , donde $k$ es el número de parámetros. Sin embargo, a diferencia del AIC, el SC es consistente: la probabilidad de elegir incorrectamente un modelo mayor converge a 0 a medida que aumenta el tamaño de la muestra. Se utilizan para comparar modelos, pero es muy posible observar un modelo con predictores significativos que proporciona un mal ajuste (gran desviación residual). Si puede conseguir un modelo diferente con un AIC más bajo, esto es indicativo de un modelo pobre. Y, si el tamaño de su muestra es grande, $p$ -pueden ser bajos, lo que no da mucha información sobre el ajuste del modelo. Al menos, fíjese si el AIC muestra una disminución significativa al comparar el modelo con un intercepto solamente y el modelo con covariables. Sin embargo, si su interés radica en encontrar el mejor subconjunto de predictores, definitivamente tiene que buscar métodos para la selección de variables.
Le sugiero que busque en regresión penalizada que permite realizar una selección de variables para evitar problemas de sobreajuste. Esto se discute en Estrategias de modelado de regresión de Frank Harrell (p. 207 y ss.), o en Moons et al., Estimación de máxima verosimilitud penalizada para ajustar directamente los modelos de predicción diagnóstica y pronóstica por exceso de optimismo: un ejemplo clínico J Clin Epid (2004) 57(12).
Véase también el Diseño ( lrm
) y stepPlr ( step.plr
), o los paquetes R penalizado paquete. Puede consultar las preguntas relacionadas en selección de variables en esta SE.