Tengo un problema de optimización que al principio suena bastante libro de texto. Tengo un convexo de la función objetivo en $D$-dimensiones del espacio que es dos veces diferenciable en todas partes y no tiene local optima.
Normalmente sería un candidato perfecto para el numérico de Newton-Raphson métodos. Sin embargo, Newton-Raphson requiere resolver un sistema de ecuaciones lineales de tamaño $D$. Esto se lleva a $O(D^3)$ cálculos, al menos con cualquier razonablemente posibles de implementar el algoritmo soy consciente de. En mi caso $D$ está en el orden de varios miles. Puede alguien sugerir un algoritmo de optimización que normalmente es más eficaz que el de Newton-Raphson para $D$ este grande? Traté de gradiente de la pendiente, pero empíricamente se parecía absurdamente lento para converger.