En un libro de texto, me encontré con una definición de big-oh notación, se va como sigue:
Decimos que $f(x)$ $O(g(x))$ si hay constantes $C$ $k$ tal que $$|f(x)| \le C|g(x)|$$ whenever $x \gt k$.
Si no me equivoco, básicamente, esto se traduce a: $$f(x) = O(g(x)) \Leftarrow\Rightarrow (\exists C,\exists k|C,k \epsilon \Bbb R \land (x \gt k \rightarrow |f(x)| \le C|g(x)|))$$ Ahora, tengo dos preguntas sobre esta declaración:
Es mi detallado de la traducción correcta?
¿Qué significa exactamente esta definición de big-oh notación media sobre el uso de big-oh notación, porque por lo que puedo entender a través de la informática, big-oh se utiliza para representar la complejidad computacional de un algoritmo. Entonces, ¿cómo se relaciona esto con la complejidad de un algoritmo (en todo caso)?