Estaba leyendo un artículo que hacía la función mediana $$ \mathcal{M} = \arg\min_c\sum_{j=1}^N\|x_j-c\|_p,$$ diferenciable sustituyendo arg min por un softmax para formar una media ponderada, es decir $ \mathcal{M} \approx \mathbf{s}^T\mathbf{X},$ donde la función softmax es $$ s_i = \frac{e^{-\frac{1}{T}||x_j-x_i||}}{\sum_{q=1}^ne^{-\frac{1}{T}||x_j-x_q||}}$$
Se utilizó Softmax para que las ponderaciones estén entre $0$ y $1$ , también podríamos ponerlo a través de otras funciones. Pero, ¿existen otros métodos diferentes para aproximar esta función (y otras similares) para hacerlas diferenciables?