En la búsqueda y optimización, existe un (conjunto de) teorema(s) popular(es) llamado(s) el "Teorema(s) Sin Almuerzo Gratis". Los autores de este teorema lo describen como "para cualquier algoritmo, cualquier rendimiento elevado sobre una clase de problemas se ve compensado por el rendimiento sobre otra clase" (https://ieeexplore.ieee.org/document/585893). Estos teoremas tienen interpretaciones importantes en muchos campos aplicados como el Aprendizaje Automático. Desde la perspectiva de un lego, la implicación del "Teorema Sin Almuerzo Gratis" afirma que no hay una clase de algoritmo "universalmente mejor" para todos los "tipos de problemas de optimización".
Me preguntaba si existe un tipo de teorema similar para la Aproximación Polinómica. Por ejemplo, sabemos que hay muchos métodos en matemáticas que se pueden utilizar para la aproximación de funciones - por ejemplo, Polinomios de Taylor, Polinomios de Lagrange, Polinomios de Padé, etc.
Al igual que en el caso de los algoritmos de Aprendizaje Automático, ¿se pueden hacer afirmaciones similares a las afirmadas por los "Teoremas Sin Almuerzo Gratis" con respecto a diferentes métodos de Aproximación Polinómica? Por ejemplo, ¿es posible que los Polinomios de Taylor aproximen "mejor" algunas funciones en comparación con los Polinomios de Padé; pero debido a este hecho, también podrían existir otras funciones que los Polinomios de Padé aproximen mejor que los Polinomios de Taylor? ¿O hemos sido capaces de determinar matemáticamente que algunos métodos de aproximación son "universalmente mejores" que otros métodos de aproximación para amplias clases de funciones?
¡Gracias!
Nota: Supongo que en este contexto, "mejor" puede ser cuantificado a través de propiedades como "fortaleza de convergencia", "tamaño del radio de convergencia" o propiedades del "error acotado" (por ejemplo, magnitud) - pero no estoy seguro de esto.