15 votos

¿Por qué la conexión en serie es más rápida que la conexión en paralelo?

Como desarrollador de software, el concepto de procesamiento paralelo suele significar un procesamiento más rápido, ya que significa que las cosas no tienen que esperar a que los otros procesos terminen si no es necesario.

Entonces, ¿cómo es que la conexión en serie se ve (posiblemente) como el futuro mientras que la paralela es cosa del pasado?

enter image description here

0 votos

Estás asumiendo que el desarrollo para hacer que las comunicaciones en serie sean más rápidas no podría ocurrir en una interfaz paralela, mientras que pasas por alto la principal desventaja del paralelo: las líneas paralelas

6 votos

¿Quién ha dicho que es más rápido? El hecho de que la transferencia de datos del puerto paralelo existente en los ordenadores antiguos sea más lenta que la del puerto serie no impone esta conclusión. "La conexión en serie es el futuro" - es discutible. Ahora mismo se está desarrollando más rápido ya que el coste del hardware es mucho menor que el del paralelo (menos señales - menos cables, menos transceptores, menos lógica).

0 votos

@JonRB ¿Estás diciendo que la comunicación en paralelo puede ser más rápida, pero que se abandonaron debido a su tamaño físico/apariencia? o ¿me estoy perdiendo tu punto de vista aquí?

22voto

El problema es mantener las señales de un bus paralelo limpias y sincronizadas en el objetivo.

Con el serial "todo lo que tienes que hacer", es poder es extraer el reloj y como resultado los datos. Puedes ayudar creando muchas transiciones, 8b/10b, codificación bifásica o manchester, hay muchos esquemas (sí, esto significa que estás añadiendo aún más bits). Sí, absolutamente que una interfaz en serie tiene que funcionar N veces más rápido que un bus paralelo de N anchos para ser "más rápido", pero hace mucho tiempo que llegamos a ese punto.

Interesantemente ahora tenemos buses seriales paralelos, su pcie, su ethernet (ok si corren 40GigE son 4 carriles de 10 gigas 100Gig son 10 10 gigas o lo nuevo que viene son 4 carriles de 25 gigas). Cada uno de estos carriles es una interfaz en serie independiente que aprovecha la "velocidad en serie", pero la transmisión general de datos se divide en una carga equilibrada por las interfaces en serie separadas, y luego se combina según sea necesario en el otro lado.

Evidentemente, una interfaz serie no puede ir más rápido que un carril de bits de un bus paralelo, si todo lo demás se mantiene constante. La clave está en la velocidad, el enrutamiento, los cables, los conectores, etc., manteniendo los bits en paralelo y cumpliendo con los tiempos de preparación y retención en el otro extremo es el problema. Se puede correr fácilmente N veces más rápido usando una interfaz serial. Además, hay que tener en cuenta el espacio entre los pines y la placa de circuito impreso y los conectores. Recientemente, en lugar de pasar de una Ethernet de 10 gigas a una de 40 gigas utilizando 4 carriles de 10 gigas, se ha pasado a una de 25 gigas por carril, de modo que un par de 25 gigas o dos pares de 25 gigas permiten obtener 50 gigas en lugar de cuatro pares de 10 gigas. Costando la mitad del cobre o la fibra en los cables y en otros lugares. Ese coste marginal en las granjas de servidores fue suficiente para abandonar el camino tradicional de los estándares de la industria y salir a la calle a preparar uno y lanzarlo a toda prisa.

Pcie igualmente, comenzó con una o más interfaces seriales con la carga de datos equilibrada. Sigue utilizando carriles serie con la carga de datos equilibrada y reagrupada, las velocidades aumentan cada generación por interfaz serie en lugar de añadir más y más pares serie.

SATA es la versión en serie de PATA, que es un descendiente directo de IDE, no es que la serie sea más rápida, sino que es mucho más fácil sincronizar y extraer un flujo en serie que mantener sincronizados N bits en paralelo de un extremo a otro. Y sigue siendo más fácil de transmitir y extraer incluso si el flujo en serie es por carril de bits 16, 32, 64 o más veces más rápido que el paralelo.

5 votos

+1 por esto; Deberías remarcar la declaración "El problema es que a medida que aumenta la velocidad, mantener las señales de un bus paralelo limpias y sincronizadas en el objetivo"

17voto

FakeMoustache Puntos 6645

¿Por qué la conexión en serie es más rápida que la conexión en paralelo?

Estás haciendo suposiciones erróneas. Tome cualquier conexión en serie. Ahora pon 10 en paralelo y llámalo versión paralela. ¿Cuál es más rápida?

Entonces, ¿cómo es que la conexión en serie se considera el futuro mientras que la paralela es cosa del pasado?

¿Quién lo dice?

Las conexiones paralelas siguen estando por todas partes. Para una conexión rápida a corta distancia, el paralelo gana a la serie en cualquier momento. Por ejemplo, la interfaz entre una CPU y su RAM.

Para la larga distancia, la mayoría de las conexiones son en serie porque el coste de los cables múltiples es mayor. Pero en la fibra óptica podemos utilizar señales de diferente longitud de onda a través de la misma fibra. A eso se le puede llamar paralelo.

7 votos

Yo añadiría que otra desventaja de los buses paralelos largos es la diafonía/ruido entre las líneas

1 votos

Correcto, eso se podría mejorar utilizando un apantallamiento pero eso encarece la conexión.

1 votos

Sí, pero yo estaba pensando sobre todo en los autobuses en un PCB, en lugar de en un cable..

16voto

jns Puntos 449

El cambio es de "paralelo en un solo reloj" a "múltiples enlaces en serie". Como en el caso de PCIe, donde una tarjeta puede tener de 1x a 16x "carriles".

Hay dos factores implicados, la inclinación y el tamaño.

Añadir más conectores hace que tanto el cable como sus conectores y los receptáculos de cada dispositivo sean más grandes y más caros. Fíjate en lo grandes que eran los cables de impresora Centronics y los cables SCSI de 40 pines. No vas a ver un teléfono con un conector Centronics. Así que, a medida que los dispositivos se hacen más pequeños, hay presión para que haya interfaces más pequeñas con menos cables.

Los dispositivos también se han vuelto más rápidos con un mejor procesamiento de la señal. Así que ahora es posible tener tasas de bits mucho más altas. Sin embargo, esto tiene un desventaja para los enlaces paralelos tradicionales: la inclinación.

El skew es la diferencia de tiempos de llegada entre las señales de un grupo. El enlace paralelo tradicional tiene un único reloj para todas las señales. Se supone que el reloj y las señales llegan todos aproximadamente al mismo tiempo. A medida que las señales son más rápidas, las pequeñas diferencias en los tiempos de llegada se vuelven más importantes. Esto significa que una conexión paralela amplia tiene una velocidad limitada: hay que ir lo suficientemente despacio como para que todos los bits lleguen dentro de la misma ventana de tiempo y no sean sobrescritos por el siguiente que viene.

0 votos

Esto. Es el número de pines. Estos buses en serie se convierten de nuevo en paralelo en un registro, por lo que el paralelo sería natural, pero nunca tendrías un teléfono móvil que cabe en el bolsillo sin puertos en serie. Sistema en un chip, etc.

3voto

Mark0978 Puntos 495

Wikipedia tiene un artículo con un lista de zócalos de CPU x86 por año . Compruébalo: a medida que las CPUs se hacían más rápidas, sus zócalos de interfaz pasaron de tener apenas 40 pines en los años 70 a más de 1500 pines en la actualidad. Esto no puede explicarse sólo por la anchura de las palabras: si un zócalo de 40 pines era suficiente para una CPU de 16 bits, seguramente una CPU de 64 bits con un diseño similar debería caber en un zócalo de 160 pines.

Lo cierto es que las importantes ganancias de rendimiento proceden de un acceso más rápido a la RAM, que se consigue añadiendo más y más líneas de datos de RAM. No es raro ver CPUs con interfaces de memoria cuádruple-DDR (256 líneas de datos en paralelo), y nadie tiene previsto sustituirlas por interfaces en serie a corto plazo.

Dicho esto, estas conexiones masivas en paralelo están muy limitadas en cuanto a la distancia de transmisión y la utilidad de los conectores, por lo que no se utilizan para conectar periféricos fuera de la placa o dispositivos externos. Aquí es donde las conexiones en serie realmente brillan.

1 votos

¿Esas conexiones de RAM son realmente paralelas con un solo reloj, o son sólo múltiples carriles en serie (como en PCIe mencionado en otras respuestas)?

1 votos

@Marki555 Como máximo puede haber una señal de reloj por cada 64 bits de un módulo de RAM. En realidad creo que todos están sincronizados con la misma señal de reloj FSB.

3 votos

Todos tienen un solo reloj. La principal diferencia es que todas las pistas de conexión están en una sola placa. Por tanto, sólo el diseñador de la placa base es responsable de garantizar la igualdad de longitudes e impedancias de todas las trazas. Las propias placas de RAM son bastante pequeñas, así que tampoco es tan difícil. Todos los demás dispositivos dependen tanto del fabricante de la placa base como del de los dispositivos, y un error en uno de ellos podría romper todo el sistema.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X