En muchos problemas de aprendizaje automático, la función objetivo que pretendemos resolver tiene la forma:
$\min_w \mathcal{L}(w) + \lambda\mathcal{R}(w)$ ,
donde $\mathcal{L}(w)$ (por ejemplo, pérdida al cuadrado) es una función de pérdida, $\mathcal{R}(w)$ es una función de regularización (por ejemplo, $\mathcal{R}(w) = ||w||_2^2$ ), y $\lambda\ge 0$ es un parámetro de regularización que controla el equilibrio entre $\mathcal{L}(w)$ y $\mathcal{R}(w)$ .
Si tenemos $\lambda_1 \le \lambda_2$ y las soluciones correspondientes son $w_1$ y $w_2$ . La intuición es que tendremos $\mathcal{L}(w_1) \le \mathcal{L}(w_2)$ ya que una mayor $\lambda$ conduce a una restricción más fuerte (O también podemos pensar en el problema desde la perspectiva dual). Me preguntaba si hay alguna manera de demostrar formalmente esta intuición.
Gracias.