El término general para lo que están pidiendo es sobre el modelo de selección. Usted tiene un conjunto de modelos posibles, en este caso algo como
$$
\begin{aligned}
y&=\beta_1x + \beta_0\\
y&=\beta_2x^2 + \beta_1x + \beta_0 \\
y&=\beta_3x^3 + \beta_2x^2 + \beta_1x + \beta_0 \\
\end{aligned}$$
y desea determinar cual de estos modelos es más parsimoniosa con sus datos. Generalmente nos preocupe acerca de la parsimonia en lugar de mejor ajuste (he.e, mayor $R^2$) desde un modelo complejo, que podría "ajuste" a los datos. Por ejemplo, imagine que su sincronización de datos es generada por un algoritmo cuadrático, pero hay un poco de ruido en el tiempo (aleatorio de paginación por el sistema operativo, reloj inexactitud, los rayos cósmicos, lo que sea). El modelo cuadrático todavía podría encajar bastante bien, pero no va a ser perfecto. Sin embargo, podemos encontrar un (muy alto nivel) polinomio que pasa a través de cada punto de datos. Este modelo se ajusta a la perfección, pero será terrible en hacer previsiones futuras y, obviamente, no coincide con el fenómeno subyacente. Queremos equilibrar la complejidad del modelo con el modelo del poder explicativo. ¿Cómo se hace esto?
Hay muchas opciones. Hace poco me topé con esta revisión por parte de Calabacín, que podría ser una buena visión de conjunto. Un enfoque consiste en calcular algo así como el AIC (Akaike Information Criterion), que se ajusta a cada modelo de la probabilidad de que tome el número de parámetros en cuenta. Estos a menudo son relativamente fáciles de calcular. Por ejemplo, la AIC es:
$$ AIC = 2k -2ln(L) $$
donde L es la probabilidad de que los datos dado el modelo y k es el número de parámetros (por ejemplo, 2 para lineal, 3 cuadráticas, etc). Calcular este criterio para cada modelo, a continuación, elija el modelo con menor AIC.
Otro enfoque es el uso de la validación cruzada (o algo así) para mostrar que ninguno de sus modelos están sobre-ajuste. Entonces, usted puede seleccionar el mejor modelo de ajuste.
Parece que el caso general. Sin embargo, como @Michelle se señaló anteriormente, usted probablemente no quiere hacer de selección de modelo en absoluto si usted sabe algo acerca de la subyacente phenomemon. En este caso, si usted tiene el código o saber el algoritmo subyacente, sólo debe de seguimiento a través de ella para determinar el algoritmo de orden.
Además, tenga en cuenta que el Big-O el fin de que el algoritmo no está técnicamente se define en términos de la mejor forma a la observada el tiempo de ejecución; se trata más bien de una limitación de la propiedad. Usted podría factible tener un algoritmo con un gran componente lineal y un pequeño componente cuadrática a su tiempo de ejecución, algo así como
$$t(N) = 0.0000001n^2 + 999999999n$$
Yo apuesto a que en tiempo de ejecución-vs-tamaño de entrada de la parcela para la que sería bastante lineal-mirando por encima de los rangos que usted es probable para probar, pero creo que el algoritmo técnicamente considerada $O(n^2)$