Es porque es más fácil y barato aumentar el ancho de banda de la DRAM que disminuir la latencia. Para obtener los datos de una fila abierta de la ram, es necesario un trabajo no trivial.
Hay que decodificar la dirección de la columna, accionar los muxes que seleccionan las líneas a las que hay que acceder y hacer que los datos se desplacen por el chip hasta los búferes de salida. Esto lleva un poco de tiempo, sobre todo teniendo en cuenta que los chips SDRAM se fabrican en un proceso adaptado a altas densidades de ram y no a altas velocidades lógicas. Para aumentar el ancho de banda, por ejemplo, utilizando DDR(1,2,3 o 4), la mayor parte de la lógica puede ampliarse o canalizarse, y puede funcionar a la misma velocidad que en la generación anterior. Lo único que tiene que ser más rápido es el controlador de E/S para los pines DDR.
En cambio, para disminuir la latencia hay que acelerar toda la operación, lo que es mucho más difícil. Lo más probable es que haya que fabricar partes de la ram en un proceso similar al de las CPU de alta velocidad, lo que aumentaría el coste de forma sustancial (el proceso de alta velocidad es más caro, además de que cada chip tiene que pasar por 2 procesos diferentes).
Si comparamos las cachés de la CPU con la RAM y el disco duro/SSD, existe una relación inversa entre que el almacenamiento sea grande y que sea rápido. Un L1$ es muy rápido, pero sólo puede contener entre 32 y 256kB de datos. La razón por la que es tan rápido es porque es pequeño:
- Puede colocarse muy cerca de la CPU que lo utiliza, lo que significa que los datos tienen que recorrer una distancia más corta para llegar a él
- Los cables se pueden acortar, lo que significa que los datos tardan menos en viajar a través de ellos.
- No ocupa mucha superficie ni muchos transistores, por lo que hacerlo en un proceso de velocidad optimizada y utilizando mucha energía por bit almacenado no es tan caro
A medida que se asciende en la jerarquía, cada opción de almacenamiento aumenta su capacidad, pero también su superficie y se aleja del dispositivo que lo utiliza, lo que significa que éste debe ser más lento.
1 votos
¿Podría ser otra posible razón que simplemente no es tan necesario?
0 votos
Por ejemplo, es necesario un tiempo de acceso bajo para que la búsqueda de datos en la memoria sea más rápida.
0 votos
Me doy cuenta de eso, la velocidad extra siempre es agradable, pero viniendo desde la perspectiva de un desarrollador de software, tal vez en comparación con todo el resto de IO y la arquitectura (incluyendo microservicios que literalmente pueden ejecutarse en diferentes centros de datos), la velocidad de la RAM simplemente no es tanto un cuello de botella más. A veces "lo suficientemente bueno" es bueno, o al menos no justifica el I+D adicional para acelerarlo. Yo también consideraría la posibilidad de añadir esta razón a tu pregunta.
1 votos
Según Wikipedia La DDR3-2200 tiene una latencia de primera palabra de 6,36 ns, que es el tiempo que tarda una señal en propagarse alrededor de 3 pies en FR4, yo diría que estamos bastante cerca de los límites físicos