Hay que asumir que ciertas cosas simplemente funcionan, incluso en un mundo con comprobación de errores. ¿Por qué elegir IIC o SPI cuando normalmente hay muchas más señales digitales en una placa? Parece que te parece bien suponer que todas ellas se interpretarán según lo previsto.
Un circuito correctamente diseñado en una placa correctamente diseñada debería ser fiable. Piensa en una salida CMOS conduciendo una entrada CMOS a través de una placa. Aparte de un fallo total de los componentes (que es un problema totalmente diferente a la corrupción ocasional de datos), piense en lo que puede salir mal. En el extremo de accionamiento, tienes un FET con una resistencia máxima garantizada que conecta una línea a Vdd o a tierra. ¿Qué es exactamente lo que imaginas que puede hacer que no tenga el nivel correcto en el extremo receptor?
Inicialmente, el estado puede ser indeterminado, ya que cualquier capacitancia de la línea está cargada o descargada. Entonces puede haber timbre en la traza corta. Sin embargo, podemos calcular los tiempos máximos en el peor de los casos para que todo esto se estabilice y la línea cruce de forma fiable algún umbral en el otro extremo.
Una vez que se ha alcanzado este tiempo y hemos esperado a lo que sea el peor retardo de propagación de la lógica, hay poco que cambiar en la señal. Quizá pienses que el ruido de otras partes de la placa puede acoplarse a la señal. Sí, eso puede ocurrir, pero también podemos diseñar para ello. Por lo general, se conoce la cantidad de ruido que hay en otra parte de la placa. Si no es así, entonces viene de otra parte y en un diseño adecuado se sujetaría para limitarlo a un máximo dV/dt y otras características. Todas estas cosas pueden ser diseñadas.
En teoría, el ruido externo puede alterar las trazas de una placa, pero la intensidad del campo tendría que ser excesivamente grande para que la placa estuviera bien diseñada. Los entornos con mucho ruido existen, pero se limitan a lugares conocidos. Una placa puede no funcionar a 10 metros de un transmisor de 10 kW, pero incluso para eso se puede diseñar.
Así que la respuesta es básicamente que las señales digitales en la misma placa, si se diseñan adecuadamente, pueden considerarse absolutamente fiables para la mayoría de los usos ordinarios. En casos especiales en los que el coste del fallo es muy alto, como el espacio y algunas aplicaciones militares, se utilizan otras estrategias. Éstas suelen incluir subsistemas redundantes. Sigues considerando fiables las señales individuales de una placa, pero asumes que las placas o subsistemas en su conjunto pueden fallar ocasionalmente. También hay que tener en cuenta que estos sistemas cuestan mucho más, y una carga de costes así haría inútiles la mayoría de los sistemas ordinarios, como los ordenadores personales, por ejemplo, por ser demasiado caros.
Dicho esto, hay casos en los que incluso en la electrónica de consumo ordinaria se recurre a la detección y corrección de errores. Esto suele deberse a que el propio proceso tiene una cierta probabilidad de error y a que se están sobrepasando los límites. Las memorias principales de alta velocidad de los ordenadores suelen incluir bits adicionales para la detección y/o corrección de errores. Es más barato conseguir el rendimiento y la tasa de error final forzando los límites y añadiendo recursos a la corrección de errores que ralentizar las cosas y utilizar más silicio para que todo sea inherentemente más fiable.