18 votos

¿Cuál es la eficiencia de un ordenador de sobremesa?

Tal y como yo lo entiendo (y reconozco que no lo entiendo muy bien), un ordenador procesa la información de forma irreversible (compuertas AND, por ejemplo) y, por tanto, tiene un aumento mínimo de entropía asociado a sus cálculos. El verdadero aumento de entropía es mucho mayor y procede de la conversión de energía eléctrica en calor.

Desde este punto de vista, ¿cuál es la eficiencia de un ordenador de sobremesa normal? Haz todas las suposiciones que consideres útiles sobre el consumo de energía, los cálculos por segundo, la temperatura de la habitación, etc.

13voto

bjarkef Puntos 117

Suponiendo un ordenador típico con una potencia de procesamiento de la CPU de ~1 GHz. Esto significa que puede generar una secuencia de bytes de salida a ~ $10^9$ byte/s, que es aproximadamente ~ $10^{-13}$ J/K en términos de entropía de von Neumann. Además, el consumo de energía de una CPU típica es de ~100 W, lo que da una entropía de ~0,3 J/K a temperatura ambiente.

Así que el (ΔS mínimo) / (ΔS real) ~ $10^{-14}$

Este cálculo no es del todo correcto porque es difícil determinar cuál es el rendimiento real de un ordenador. En la mayoría de los casos, la salida anterior se utilizará como entrada más adelante. En el cálculo anterior también se ha supuesto que toda la salida se escribe continuamente en algún dispositivo externo.

Un punto de vista mejor es que cada compuerta que toma dos entradas y una salida, como AND, OR, NAND, ..., debe dejar caer un bit al entorno en forma de calor. Esta es la energía mínima $W$ necesarios para procesar la información en un ordenador clásico. En este sentido, podemos definir la eficiencia como $e = W/Q$ donde $Q$ es la generación real de calor por segundo.

La eficiencia depende de cuántas puertas lógicas de este tipo se utilicen, pero supongo que es menos de mil en una velocidad de reloj típica, por lo que $e \approx 10^{-11}$ .

Significa que nuestro ordenador es muy poco eficiente en términos de procesamiento de la información, pero probablemente bueno como calefactor. Este requisito teórico mínimo de energía también es difícil de verificar mediante experimentos debido a la gran precisión requerida.

11voto

DavLink Puntos 101

Información de ASIC world: Por ejemplo, tu procesador tiene 300 mil. transistores, y la mayoría de ellos hacen algún trabajo. Pero, para realizar, por ejemplo, una operación de suma pura de 32 bits, sólo se necesitan unos 1.000 transistores. Otros sirven para almacenar en caché y pasar datos de un lado a otro, funciones de apoyo que son imposibles de calcular. Así que las estimaciones desde el punto de vista matemático son muy difíciles de hacer.

El diseño moderno de procesos ya tiene objetivos de energía por interruptor, y se está optimizando. Por desgracia, cuanto menor es la velocidad, más eficiente es el procesador. Por ejemplo, para obtener un 50% de velocidad puedes gastar sólo un 10% de energía.

Así que son mortalmente ineficientes (y todavía hay margen para mejorar 100-10000 veces), pero estimar la CPU en su conjunto es erróneo. Deberías tener en cuenta sólo la unidad de cálculo mínima utilizada, como el sumador, no puedes predecir cuántos interruptores tendrías en la lógica de soporte que ocupa el 98% del área del chip.

4voto

Jon Galloway Puntos 320

A efectos prácticos, las respuestas anteriores son muy informativas.

Sin embargo, como Marek ha señalado anteriormente, su modelo teórico fundamental de la termodinámica de la computación, en el que está basando la pregunta es, sorprendentemente, erróneo, como empezamos a descubrir hace 50 años ( ver referencias . a Landauer Charlie Bennet, Friedkin, otros). En realidad, todos los cálculos están, en principio, libres de disipación, salvo la disipación necesaria para sobrescribir u olvidar bits almacenados previamente.

El ejemplo clásico es éste. Supongamos que quieres calcular el penúltimo dígito binario del primo número zillón o algo así. Entonces lo haces, lenta y reversiblemente, con cuidado de no sobrescribir ninguno de los bits intermedios que generas, lo que requiere mucho espacio. Tal vez incluso utilices el entrelazamiento cuántico en el ordenador. Luego escribes la respuesta, sobrescribiendo (olvidando irreversiblemente) el único bit de la respuesta en algún registro (digamos externo). Luego se puede invertir el cálculo original, también sin disipación alguna. Sólo tienes que disipar la entropía necesaria para sobrescribir el bit de la respuesta registrada, porque ésa es la única información que te has visto obligado a olvidar.

Dado que el denominador se aproxima a cero, en teoría, la respuesta teórica a tu pregunta es infinito. Hay un compromiso con el espacio para contener todos los resultados intermedios. Esto es una sorpresa, un shock en realidad, pero muestra el poder del pensamiento claro. Está íntimamente relacionado con la informática cuántica, pero también tiene modelos totalmente clásicos.

Así que la forma teórica correcta de plantear tu pregunta sería más bien, para que un cálculo concreto, se complete en un tiempo t, operando con una memoria limitada de x bits, cuál es la disipación necesaria. No soy un experto, pero intentaré conseguir más referencias. PS. El cerebro en reposo consume probablemente unos 20 vatios.

1voto

Mehdi Loohs Puntos 1

A mí me parece una cuestión filosófica. Teniendo en cuenta lo que puede hacer un ordenador. Puede manifestar una casa nueva, pero también sería eficiente en un 99,9% recurrente a la hora de calentar esa casa. El resto se dedica a iluminarla. Sin embargo, algunos ordenadores producen menos calor que otros, lo que significa que podrías considerar la iluminación como el trabajo útil realizado, y la calefacción como el trabajo útil realizado si vives en una casa fría con calefacción eléctrica.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X