Actualmente estoy matriculado en un curso de Introducción a las Redes y he estado estudiando para un próximo examen haciendo problemas de práctica en el libro de texto del curso. Me encontré con esta pregunta que me dejó perplejo. Trata de la probabilidad, que siempre me ha costado entender y nunca he estudiado en profundidad.
Supongamos que un paquete IP se fragmenta en 10 fragmentos, cada uno con un 1% de (independiente) de pérdida. En una aproximación razonable, esto significa que hay un 10% de posibilidades de perder todo el paquete debido a la pérdida de un fragmento. ¿Cuál es la probabilidad de pérdida neta de todo el paquete si el paquete se transmite dos veces
A) Suponiendo que todos los fragmentos recibidos deben haber sido parte de la misma transmisión?
B) Suponiendo que un fragmento determinado pueda haber formado parte de cualquiera de los dos transmisión?
Supongo que para la parte A hay un 20% de posibilidades de perder todo el paquete, porque como enviamos dos transmisiones la probabilidad se duplica. Lo que no entiendo es cómo se ve afectada la probabilidad en la parte B. ¿Cómo cambia la probabilidad si los dos paquetes se mezclan dentro de cada transmisión? ¿Alguien puede explicar esto a alguien que no sea matemático? Gracias de antemano.