No es un poco tontería que ha sido referido como el "máximo flexible" sobre John Cook Blog que me parece ser muy divertido, al menos.
La idea es la siguiente: dada una lista de valores, decir $x_1,x_2,\ldots,x_n$ , la función
$g(x_1,x_2,\ldots,x_n) = \log(\exp(x_1) + \exp(x_2) + \cdots + \exp(x_n))$
devuelve un valor muy cerca del máximo en la lista.
Esto sucede debido a que la exponenciación exagera las diferencias entre el $x_i$ valores. Para el más grande $x_i$, $\exp(x_i)$ se $really$ grandes. Esta mayor exponencial se superan con creces a todos los demás combinados. Tomando el logaritmo, es decir, deshacer la exponenciación, lo que hacemos básicamente es recuperar la mayor de las $x_i$'s. (Por supuesto, si dos de los valores estaban muy cerca el uno del otro, no nos garantiza obtener el máximo real, pero no será muy lejos!)
Acerca de esto, John Cook dice: "El suave máximo se aproxima a la difícil máximo, pero también se redondea las esquinas." Esto realmente no podía decir nada mejor.
Recuerdo tratando de construir inteligentemente secuencias de pruebas en cálculo avanzado donde no-en todas partes-diferenciable las operaciones han sido de gran utilidad si no tiene ese molesto no-diferenciable rasgo. No puedo recordar una incidencia específica donde estuve tentado a usar $max(x_i)$, pero eso parece al menos plausible que hubiera venido.
Alguien ha utilizado este antes o tener un escenario de la mano donde sería útil?