Hay diferentes maneras de definir lo que es un problema de optimización convexa es pero la mayoría del tiempo es una de dos cosas:
tiene forma convexa de la función objetivo (como lineal de mínimos cuadrados de los problemas) y lineal restricciones sólo (igualdad y/o desigualdad). Esta es una definición que es numéricamente la misma orientación.
tiene forma convexa de la función objetivo lineal y restricciones de igualdad (si) y la desigualdad de las limitaciones que puede ser escrita en la forma $c_i(x) \leq 0$ donde cada restricción de la función $c_i$ es una función convexa. Esta definición es más general y se asegura de que el conjunto factible es un conjunto convexo. A su vez, esto garantiza que cualquier local minimizer es también un global minimizer.
Así, es fácil determinar si un problema es convexo o no.
Véase mi respuesta a tu post anterior para las referencias a los métodos numéricos para restringido lineal de mínimos cuadrados problemas. Vas muy rara de encontrar soluciones analíticas a un nonconvex problema. Para problemas convexos, usted sabe que las condiciones KKT caracterizar cualquier global minimizer. Por ejemplo, las condiciones KKT de
$$
\min \tfrac{1}{2} \|Ax-b\|^2_2 \quad \text{objeto} \
\tfrac{1}{2} \|x\|^2 \leq \tfrac{1}{2} \Delta^2, \ x \geq 0
$$
(donde presenté los $\tfrac{1}{2}$ a cancelar cuando me diferenciar) son:
$$
A^T (Ax-b) - \lambda x - z = 0, \
\|x\| \leq \Delta \ \lambda (\Delta \|x\|) = 0, \ (x\lambda,z) \geq 0, \ x_i z_i = 0 \ (i = 1, \ldots, n),
$$
donde $\lambda$ $z$ son multiplicadores de Lagrange.