La función de $f(n)$ debe $\Theta (\log n)$. Actualización: Como Didier Piau señala en los comentarios a la pregunta después de que me dijeran en Matemáticas de Desbordamiento, podemos decir algo más fuerte: $\frac{f(n)}{\log_2 n} \to L$$n \to \infty$. Ver la actualización en el fin de la discusión.
Supongamos que, para algunos positivos $L$ (en el caso negativo es similar), $$\lim_{n \to \infty} \left(f(n) - 2^{-n} \sum_{k=0}^n \binom{n}{k} f(k) \right) = L.$$
Así $$f(n) = L + r(n) + 2^{-n} \sum_{k=0}^n \binom{n}{k} f(k)$$ for some function $r(n)$ such that $r(n) \a 0$ as $n \to \infty$. This gives us a recurrence relation for $f(n)$. Since $r(n) \a 0$, $L + r(n) > 0$ for all sufficiently large $n$. So, for all sufficiently large $n$, there exist positive constants $C$ and $D$ such that $C < L + r(n) < D$. Since the initial terms in the function eventually become negligible in determining the value of $f(n)$ via the recurrence relation, there exist functions $g(n)$ and $h(n)$ such that for all sufficiently large $n$, $g(n) \leq f(n) \leq h(n)$ and $g(n)$ and $h(n)$ satisfacer
$$g(n) = C + 2^{-n} \sum_{k=0}^n \binom{n}{k} g(k),$$
$$h(n) = D + 2^{-n} \sum_{k=0}^n \binom{n}{k} h(k).$$
Así el problema se reduce a mostrar que la $g(n)$$h(n)$$\Theta (\log n)$. El argumento es el mismo para ambos.
Hay algunas maneras diferentes de hacer esto; mi favorita es la de interpretar la $g(n)$ recurrencia probabilísticamente. Supongamos que comenzamos en el tiempo $g(0)$, lanzamos una serie de $n$ monedas simultáneamente en cada ronda, y se tarda $C$ unidades de tiempo para hacer una ronda de lanzamientos. Cuando una moneda se convierte cara por primera vez, dejamos de darle. Deje $T(n)$ a ser el momento en que la última moneda para lograr su primer jefe. Para encontrar $E[T(n)]$, condición en la que el número de monedas que lograr cabezas en la primera ronda de lanzamientos. Este rendimientos $$E[T(n)] = C + 2^{-n} \sum_{k=0}^n \binom{n}{k} E[T(n-k)] = C + 2^{-n} \sum_{k=0}^n \binom{n}{k} E[T(k)].$$ Thus $g(n) = E[E(n)]$.
Otra forma de ver el $T(n)$ es que el es $g(0) + C M_n$ donde $M_n = \max\{X_1, X_2, \ldots, X_n\}$ e las $X_i$'s son independientes e idénticamente distribuidas geométricas $(1/2)$ variables aleatorias. (Cada variable aleatoria geométrica de los modelos de la primera vez que un jefe). Por lo tanto $g(n) = g(0) + C E[M_n]$. Se sabe que $\frac{H_n}{\log 2} \leq E[M_n] \leq \frac{H_n}{\log 2} + 1$ y, más precisamente, que se $E[M_n]$ es de forma logarítmica summable a $\frac{H_n}{\log 2} + \frac{1}{2}$. (Véase, por ejemplo, Bennett Eisenberg del papel "En la expectativa de que el máximo de IID geométricas variables aleatorias," la Estadística y la Probabilidad Letras 78 (2008) 135-143. Ver también este MO pregunta, "¿Cuál es el Máximo Esperado de una Muestra (tamaño de la $n$) a partir de una Distribución Geométrica?")
Por lo tanto $g(n) = \frac{C}{\log 2} \log n + O(1)$, lo que significa que $h(n) = \frac{D}{\log 2} \log n + O(1)$$f(n) = \Theta (\log n)$.
Actualización: Dado $\epsilon > 0$, si tomamos $C > 0$ tal que $L - \epsilon \leq C < L$$D = L + \epsilon$, este argumento muestra que
$$L - \epsilon + O\left(\frac{1}{\log n}\right) \leq \frac{f(n)}{\log_2 n} \leq L + \epsilon + O\left(\frac{1}{\log n}\right).$$
Por lo tanto, como $n \to \infty$, $\frac{f(n)}{\log_2 n} \to L.$
Para algunas otras ideas que se refieren a este resultado, incluyendo lo que efectivamente son algunas alternativas derivaciones, ver Pradipta reciente MO pregunta, "Moneda de mover de un Tirón y una Recurrencia de la Relación". De hecho, la lectura de Pradipta de la cuestión y algunas de sus respuestas me dio las ideas necesarias para la construcción de este argumento! Así, gracias a Pradipta, Didier Piau, Emil Jeřábek, y Louigi Addario-Berry.