Marcaré esto como tarea, aunque sólo sea de interés general. El escenario es un poco tonto, porque es sólo un caso del mundo real para un problema teórico en el que he estado pensando.
Un hombre se presenta cada año a un concurso de comer perritos calientes y en el concurso tiene que comerse 10 perritos calientes en 5 minutos (sí, es diferente a los concursos normales de perritos calientes):
En cuanto el hombre se come su 5º perrito caliente (a medio camino de acabárselos) se registra el tiempo, y cuando se come su último perrito caliente se vuelve a registrar el tiempo. Así que tenemos dos conjuntos de datos que se pueden aproximar con distribuciones normales, es decir, cuánto se tarda en comer 5 perritos calientes y cuánto en comer 10.
Llame a la primera media y std dev $\mu_{h}, \sigma_{h}$ (h para la mitad) y la media y desviación estándar de la segunda distribución $\mu_{f}, \sigma_{f}$ . Ambas medias se expresan en minutos.
Este año el hombre se presenta al concurso y se ve que lleva $\mu_{h} +\epsilon$ minutos para terminar el quinto perrito caliente, por alguna $\epsilon > 0$ es decir, es más lento de lo habitual.
Mi pregunta es, ¿a qué hora podemos esperar que el hombre dos termine el concurso, y cómo calcular esto? Pensando en ello, he pensado que lo mejor sería considerar las dos distribuciones como una distribución normal bivariante. Así que si tenemos la primera variable aleatoria $X$ como el tiempo que se tarda en llegar a la mitad del camino, y $Y$ como el tiempo que se tarda en terminar, quiero $E(Y|X =\mu_{h} +\epsilon )$ .
No sé si esto es pensar correctamente, por favor corríjanme si me equivoco. Tampoco sé cómo calcular el valor esperado anterior. Cualquier ayuda es bienvenida.