Estoy haciendo un curso de diseño de sistemas informáticos y mi profesor nos dijo que en los sistemas digitales, los voltajes convencionales utilizados para denotar un 0 y un 1 digital han cambiado a lo largo de los años.
Al parecer, en los años 80 se utilizaban 5 V como "alto" y 1 V como "bajo". Hoy en día, un "alto" es 0,75 V y un "bajo" es alrededor de 0,23 V. Añadió que, en un futuro próximo, es posible que pasemos a un sistema en el que 0,4 V denote un alto, y 0,05 V, un bajo.
Argumentó que estos valores son cada vez más pequeños para que podamos reducir nuestro consumo de energía. Si es así, ¿por qué nos tomamos la molestia de ajustar el "bajo" a cualquier tensión positiva? ¿Por qué no lo ajustamos simplemente a la tensión real de 0 V (el neutro de las líneas eléctricas, supongo)?