Loading [MathJax]/jax/element/mml/optable/BasicLatin.js

3 votos

Igualdad de los problemas de optimización de la SVM de margen suave (desplazamiento de la restricción a la función objetivo)

Estoy leyendo la derivación del problema de optimización de SVM de margen suave en Elements of Statistical learning. En él, los autores afirman que min

(que es la ecuación 12.7 del libro) es igual a esto \begin{align} \min_{b, \mathbf{w}, \mathbf{\epsilon}} \quad & \frac{1}{2}\| \mathbf{w}\|^2 + C\sum_{i=1}^m\epsilon_i \\ \text{s.t.} \quad & y_i(\mathbf{w}\cdot\mathbf{x_i}+b) \geq 1-\epsilon_i \\ \quad & \epsilon_i \geq 0 \quad \forall i \end{align}

(que es la ecuación 12.8 del libro).

Mi pregunta es cómo se puede mover la restricción \sum_{i=1}^m\epsilon_i \leq C a la función objetivo de esta manera?

1voto

joojaa Puntos 108

Tiene razón en su sospecha: no puede. Pero, creo que la confusión proviene de que citas mal a los autores. En (12.7) no utilizan

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X