Recientemente he leído en un libro sobre la teoría de la complejidad computacional: $$ O(f(n)) = \{g:\mathbb N \to\mathbb R \cup \{0\} : \exists \xi > 0,n_0\in \mathbb N\;\: g(n) \leq \xi \cdot f(n) \;\: \forall n \geq n_0 \} $$ Pero creo que debería ser $O(f)$ desde la notación $f(n)$ denota la imagen de $n$ bajo $f$. Es esto correcto? Gracias de antemano.
Edit: ¿Cuál es su opinión acerca de la $O(\log n)$? Debemos considerar la $\log n: \mathbb N \to\mathbb R^+\cup\{0\}, n \mapsto \log(n)$?