He oído que una tarjeta gráfica típica consume unos 100 A de corriente y sólo 1 V de tensión. ¿Existe alguna razón específica por la que no sea al revés, es decir, alto voltaje y bajo amperaje? Normalmente, una corriente alta conlleva pérdidas elevadas, por eso las líneas de transmisión de energía suelen preferir un voltaje alto en lugar de una corriente alta. Entonces, ¿qué es lo que fundamentalmente no entiendo por qué es una mala idea para los circuitos integrados?
Más información: Microprocesadores modernos ¡Una guía de 90 minutos! se discute el hecho de que una frecuencia más alta normalmente requiere más voltaje para empujar la carga más rápidamente. Pero a mayor voltaje, más carga para la misma capacitancia de puerta, por lo que la potencia escala con V^2 a frecuencia constante. Y aumentar la frecuencia significa empujar la misma carga más a menudo. Así que asumiendo que funcionas a V mínimo para cualquier f, la potencia escala con f^3 a medida que aumentas la frecuencia y el voltaje para hacerlo funcionar. El "muro de potencia" es el límite de la densidad de potencia.
1 votos
Los circuitos integrados no dividen un voltaje alto en voltajes más pequeños con más corriente, eso es cosa de la corriente alterna para las líneas eléctricas. (sí, ya sé que existen los convertidores buck/boost, pero me refiero exclusivamente a las líneas de alimentación de CA). cada transistor necesita una tensión pequeña, pero muchos transistores necesitan esa corriente. Vea mi respuesta (ahora editada) para una explicación más detallada.
1 votos
La mayoría de los circuitos integrados son de bajo voltaje y baja corriente. Es cierto que algunos circuitos integrados digitales de alta velocidad que consumen mucha energía utilizan una corriente muy alta. Supongo que tu pregunta es, ¿podrían esos circuitos integrados de alta corriente diseñarse de forma diferente para que utilicen alta tensión y baja corriente?
3 votos
@mkeith No especialmente. Simplemente elegí una tarjeta gráfica como ejemplo porque pensaba que todos los circuitos integrados seguían la misma lógica. Resulta que estoy equivocado. Así que tus sugerencias serían una especie de pregunta de seguimiento, pero no lo que inicialmente quería saber. Gracias por la sugerencia.
0 votos
Además, una alta corriente significa una alta generación de calor, y es más peligroso si metes el dedo, que una alta tensión. (La razón por la que las líneas de alta tensión son tan mortales es porque también llevan muy alto corrientes .)
1 votos
@Maxim Los circuitos integrados digitales modernos utilizan puertas CMOS. Las puertas CMOS son un poco especiales: no se comportan como las resistencias tradicionales (tu descripción de la pérdida de corriente). Las puertas CMOS usan cero (casi cero como para ser efectivamente cero) corriente cuando están inactivas. Sólo consumen corriente cuando cambian de estado (de encendido a apagado o de apagado a encendido). Como tal, la corriente utilizada por las tarjetas gráficas es una función de MHz / GHz y si aumenta el voltaje que va a utilizar más o menos la misma corriente por lo tanto aumentar los vatios - para disminuir los vatios que reducir el voltaje de 5V a 3,3V a alrededor de 1V
1 votos
@Sean Prefiero tocar una conexión de 5V que suministra 10kA, que una de 10kV 5A. Los voltios determinan la corriente real que circulará por el cuerpo (y a 5V, es casi ninguna). Puedes tener una línea eléctrica a 200kV con corriente cero fluyendo, pero sigue siendo letal.
0 votos
Re: "He oído que una tarjeta gráfica típica utiliza unos 100 A de corriente y sólo 1 V de tensión". En realidad es el chip el que utiliza 100 A, no la tarjeta. La tarjeta utiliza 12 V, por las razones que has señalado. Hay un convertidor reductor en la tarjeta.