17 votos

¿Cuál es la lógica de la "regla del pulgar" para las diferencias significativas en el AIC?

He estado luchando por encontrar pautas significativas para comparar modelos basados en las diferencias de AIC. Sigo volviendo a la regla empírica ofrecida por Burnham & Anderson 2004, pp. 270-272 :

Algunas sencillas reglas empíricas suelen ser útiles para evaluar los méritos relativos de los modelos del conjunto: Los modelos que tienen $\Delta i$ 2 tienen un apoyo sustancial (pruebas), aquellas en las que 4 $\Delta i$ 7 tienen un apoyo considerablemente menor, y los modelos que tienen $\Delta i$ > 10 no tienen prácticamente ningún apoyo.

Por ejemplo, vea estas preguntas:

Estoy tratando de entender la justificación racional de estos números de umbral de 2, 4, 7 y 10. El Artículo de Wikipedia sobre el criterio de información de Akaike ofrece algunas orientaciones sobre esta cuestión:

Supongamos que existen R modelos candidatos. Denotemos los valores AIC de esos modelos por AIC1, AIC2, AIC3, , AICR. Sea AICmin el mínimo de esos valores. Entonces la cantidad exp((AICminAICi)/2) puede interpretarse como interpretarse como proporcional a la probabilidad de que el i-ésimo modelo minimice la pérdida de información (estimada).

Como ejemplo, supongamos que hay tres modelos candidatos, cuyos valores de AIC son 100, 102 y 110. Entonces el segundo modelo es exp((100102)/2) = 0,368 veces más probable que el primer modelo para minimizar la pérdida de información. Del mismo modo, el tercer modelo es exp((100110)/2) = 0,007 veces más probable que el primer modelo para minimizar la pérdida de información.

Así que, basándome en esta información, he elaborado la siguiente tabla:

Delta AIC probabilities

  • delta_aic : AIC mínimo de todos los modelos comparados menos el AIC del i El modelo en cuestión. En el ejemplo de Wikipedia, delta_aic para el modelo donde AIC=100 es 0, para el modelo donde AIC=102 es 2, y para el modelo donde AIC=110 es 10.
  • prob(min vs. i) : El modelo i es x veces más probable que el modelo mínimo para minimizar la pérdida de información. En el ejemplo de Wikipedia, el modelo donde AIC=100 es igualmente probable, el modelo donde AIC=102 es 0,368 veces más probable, y el modelo donde AIC=110 es 0,007 veces más probable.
  • prob(i vs. min) : Esto es simplemente 1/prob(min vs. i). Por tanto, significa que el modelo mínimo es x veces más probable que el modelo i para minimizar la pérdida de información. En el ejemplo de Wikipedia, el modelo donde AIC=100 es igualmente probable, el modelo mínimo es 2,7 veces más probable que el modelo donde AIC=102, y el modelo mínimo es 148,4 veces más probable que el modelo donde AIC=110.

Vale, creo que entiendo un poco las matemáticas, pero realmente no entiendo qué significa todo esto en términos de selección práctica de un modelo sobre otro. La regla general dice que si el modelo mínimo es 2,7 veces más probable que otro modelo (es decir, $\Delta i$ 2), entonces los dos modelos son prácticamente equivalentes. Pero, ¿por qué la probabilidad de 2,7 veces en la minimización de la información es tan pequeña que no tiene importancia? ¿Qué significa eso? Del mismo modo, la regla general dice que sólo cuando se llega a cuando el modelo mínimo es 148,4 veces más probable que otro modelo (es decir, $\Delta i$ > 10) diría que el modelo considerado ya no puede considerarse equivalente de ninguna manera significativa. ¿No es esa una cantidad de tolerancia extremadamente grande?

Incluso al desglosarlo matemáticamente de esta manera, la regla general sigue sin tener ningún sentido intuitivo para mí. Así que esto me lleva a mi pregunta:

  • ¿Podría alguien explicar una justificación lógica y sencilla de la regla empírica comúnmente aceptada para las diferencias AIC aceptables?
  • Alternativamente, ¿podría alguien aportar criterios racionales alternativos que estén mejor justificados que esta regla general?

3voto

Salim Shaikh Puntos 6

Me encontré con el mismo problema, y estaba tratando de buscar una respuesta en los artículos relacionados. El libro de Burnham & Anderson 2002 (Model Selection and Multimodel Inference - A Practical Information-Theoretic Approach Second Edition) utilizó en realidad tres enfoques para derivar estos números empíricos. Como se indica en el capítulo 4.5 de este libro, uno de los enfoques (el más fácil de entender), es dejar que $\Delta_p = AIC_{best} - AIC_{min}$ sea una variable aleatoria con una distribución muestral. Han realizado estudios de simulación Monte Carlo sobre esta variable, y la distribución muestral de esta $\Delta_p$ tiene una estabilidad sustancial y el percentil 95 de la distribución muestral de $\Delta_p$ suele ser muy inferior a 10, y de hecho suele ser inferior a 7 (a menudo más cerca de 4 en situaciones sencillas), siempre que cuando las observaciones sean independientes, el tamaño de las muestras sea grande y los modelos estén anidados.

$\Delta_p > 10$ está muy por encima del percentil 95, por lo que es muy poco probable que sea el mejor modelo de Kullback-Leibler.

Además, en realidad argumentaron contra el uso de 2 como regla general en su documento de Burnham, Anderson y Huyvaert et al., 2011. Dijeron $\Delta$ en el rango de 2 a 7 tienen cierto apoyo y rara vez deben ser descartados.

0voto

EugeneGall Puntos 1

Tal vez pueda aportar alguna justificación para el corte de los AIC de menos de 2 unidades. Escribí un artículo en el que analizaba el famoso análisis de Quetelet sobre 5723 circunferencias torácicas escocesas, una de las primeras aplicaciones de lo que llegaría a llamarse la distribución normal. Quetelet, mucho antes de las pruebas de bondad de ajuste, argumentó que los datos del pecho eran normales. Otros no están de acuerdo. El AIC para el ajuste de la normal a los datos torácicos escoceses de Quetelet es de 24629. He generado 10000 datos aleatorios con n = 5732 utilizando el generador normal pseudo-aleatorio de Matlab con la misma media y sd que los datos de Quetelet, obteniendo un AIC medio de 24630 ± 2 [± la mitad del intervalo de confianza del 95%]. Ciertamente, estoy de acuerdo con el límite ▵AIC = 2, pero no tengo idea de la justificación de los límites 4-7 o >10. Gallagher, E. D. (2020). ¿Era normal el hombre medio de Quetelet? The American Statistician/Taylor & Francis, 74(3), 301-306. https://doi.org/10.1080/00031305.2019.1706635 .

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X