Recientemente me encontré Dan Piponi en el blog de Un Final a la Teoría de la Codificación , y me dejó muy confundido. La parte pertinente es:
Pero en los años sesenta, Robert Gallagher miró a la generación aleatoria dispersa con síndrome de matrices y se encontró que el resultado de los códigos, llamados de Baja Densidad de Comprobación de Paridad (LDPC) códigos, fueron buenos en el sentido de que permite la transmisión de mensajes en las tasas cerca de la tasa óptima encontrada por Shannon - el llamado límite de Shannon. Por desgracia, los equipos de el día no estaban a la tarea de encontrar la más probable elemento de M a partir de un elemento dado de C., Pero que ahora están. Ahora tenemos cerca de lo óptimo códigos de corrección de errores y el diseño de estos códigos es ridículamente simple. No había ninguna necesidad de utilizar exóticas matemáticas, matrices aleatorias son tan buenos como casi cualquier otra cosa. Los últimos cuarenta años de la teoría de la codificación ha sido, más o menos, un inútil excursión. Cualquier investigación adicional en el área sólo puede producir pequeñas mejoras.
En resumen, el orador señala que la tasa de códigos LDPC es muy cerca de la capacidad del canal-tan cerca que otras mejoras no valdría la pena el tiempo.
Entonces, mi pregunta es: ¿Qué hace la investigación moderna en la corrección de errores códigos de hacer? Me di cuenta de que Dan no mencionar lo que el canal de la tasa de códigos LDPC enfoque de la capacidad, así que tal vez existen canales que los códigos LDPC no funcionan bien? ¿Qué otras indicaciones que hace la moderna investigación en el campo de explorar?