A efectos prácticos, las respuestas anteriores son muy informativas.
Sin embargo, como Marek ha señalado anteriormente, su modelo teórico fundamental de la termodinámica de la computación, en el que está basando la pregunta es, sorprendentemente, erróneo, como empezamos a descubrir hace 50 años ( ver referencias . a Landauer Charlie Bennet, Friedkin, otros). En realidad, todos los cálculos están, en principio, libres de disipación, salvo la disipación necesaria para sobrescribir u olvidar bits almacenados previamente.
El ejemplo clásico es éste. Supongamos que quieres calcular el penúltimo dígito binario del primo número zillón o algo así. Entonces lo haces, lenta y reversiblemente, con cuidado de no sobrescribir ninguno de los bits intermedios que generas, lo que requiere mucho espacio. Tal vez incluso utilices el entrelazamiento cuántico en el ordenador. Luego escribes la respuesta, sobrescribiendo (olvidando irreversiblemente) el único bit de la respuesta en algún registro (digamos externo). Luego se puede invertir el cálculo original, también sin disipación alguna. Sólo tienes que disipar la entropía necesaria para sobrescribir el bit de la respuesta registrada, porque ésa es la única información que te has visto obligado a olvidar.
Dado que el denominador se aproxima a cero, en teoría, la respuesta teórica a tu pregunta es infinito. Hay un compromiso con el espacio para contener todos los resultados intermedios. Esto es una sorpresa, un shock en realidad, pero muestra el poder del pensamiento claro. Está íntimamente relacionado con la informática cuántica, pero también tiene modelos totalmente clásicos.
Así que la forma teórica correcta de plantear tu pregunta sería más bien, para que un cálculo concreto, se complete en un tiempo t, operando con una memoria limitada de x bits, cuál es la disipación necesaria. No soy un experto, pero intentaré conseguir más referencias. PS. El cerebro en reposo consume probablemente unos 20 vatios.