(Publicando una segunda respuesta para mayor claridad porque esto se relaciona con una parte diferente de mi pregunta).
Inspirado en la obra de Henning Makholm responder Puedo demostrar la siguiente afirmación que no hace ninguna referencia a un modelo específico de computabilidad como las máquinas de Turing:
Dejemos que $\varphi_e$ sea una enumeración estándar de funciones parcialmente computables $\mathbb{N}^k\rightharpoonup\mathbb{N}$ El hecho crucial en la "norma" es que el teorema s-m-n se mantiene con la función de sustitución recursiva primitiva, es decir, existe $s$ primitiva recursiva tal que $\varphi_e(m,n) = \varphi_{s(e,m)}(n)$ .
Dejemos que $h\colon\mathbb{N}\to\mathbb{N}$ se define por $h(n) := \max\{\varphi_e(e) : 0\leq e\leq n \land \varphi_e(e)\downarrow\}$ . (Es bastante obvio que $h$ satisface (B).)
Por probar: De hecho, $h$ satisface (A), es decir, si $f\colon\mathbb{N}\to\mathbb{N}$ es computable entonces existe $N$ tal que $h(n) \geq f(n)$ para $n\geq N$ .
Prueba: Dejemos que $\gamma\colon\mathbb{N}\to\mathbb{N}$ sea la función diagonal de Ackermann. (Lo que necesitamos es que $\gamma$ es computable, creciente y eventualmente domina todas las funciones recursivas primitivas, es decir, satisface el análogo de (A) para las funciones recursivas primitivas $f$ .)
Dejemos que $f\colon\mathbb{N}\to\mathbb{N}$ sea cualquier función computable. Queremos demostrar que $h(n) \geq f(n)$ para todos $n$ suficientemente grande. Definimos $g(k, j) := \max\{f(i) : 0\leq i\leq \gamma(k)\}$ (la variable $j$ se ignora). Sea $p$ sea un índice para $g$ es decir, $g = \varphi_p$ .
Ahora tenemos $\varphi_{s(p,k)}(j) = \varphi_p(k,j) = g(k,j) = \max\{f(i) : 0\leq i\leq \gamma(k)\}$ (de nuevo, $j$ se ignora). Por lo tanto, si $n \geq s(p,k)$ y $i \leq \gamma(k)$ entonces $h(n) \geq f(i)$ . En particular, si $s(p,k) \leq n \leq \gamma(k)$ entonces $h(n) \geq f(n)$ .
Pero como $s(p,k+1)$ es una función de recursión primitiva de $k$ existe $k_0$ de manera que si $k \geq k_0$ tenemos $\gamma(k) \geq s(p,k+1)$ . Entonces, si $n \geq s(p,k_0)$ es evidente que existe $k$ tal que $s(p,k) \leq n \leq \gamma(k)$ , lo que implica $h(n) \geq f(n)$ como se acaba de explicar. Esto demuestra que $h$ finalmente domina $f$ . QED
Obsérvese que la prueba funciona al pie de la letra si definimos $h$ por $h(n) := \max\{\varphi_e(0) : 0\leq e\leq n \land \varphi_e(0)\downarrow\}$ (el argumento para $\varphi_e$ sólo está ahí porque a veces es molesto considerar y enumerar funciones computables parciales de $0$ argumentos).
Aplicando esto a las máquinas de Turing, dice que la función $h$ que mapea $n$ a la máxima salida posible de los entre los $n$ primeras máquinas de Turing que se detienen (para cualquier numeración "razonable"), domina finalmente cualquier función computable. Dado que la máxima salida de parada posible de la $n$ de las primeras máquinas de Turing es ciertamente, como máximo, igual a la máxima salida de parada posible de la máquina más $n$ -máquinas de Turing de estado, recuperamos el resultado de Radó sobre la función estándar del castor ocupado. Pero lo que me parece interesante de este planteamiento es que deja claro que necesitamos suponer muy poco en la numeración: para cualquier lenguaje de programación en el que la composición sea recursiva primitiva (a muy débil ), la máxima salida de parada posible del $n$ los primeros programas acabarán dominando cualquier función computable.
(¿Cómo me inspiré en la respuesta de Henning Makholm? Básicamente utiliza $\gamma(k) = 2^k$ al decir "podemos construir el número $2^k$ en $O(k)$ estados", algo que es suficiente para el caso de las máquinas de Turing y si nos limitamos a contar su número de estados: es este argumento clave de "arranque" el que no entendí en la prueba de Radó y que intenté explicitar más arriba).