Comprendo las reglas para hallar la probabilidad de que ocurra A o B. Sin embargo, las reglas para hallar la probabilidad de que ocurran A y B son un poco más elusivas. En el primer caso, hay que sumar, lo que tiene sentido; en el segundo, hay que multiplicar, lo que no tiene tanto sentido. Quizá tenga que ver con el hecho de que ambos sucesos ocurran simultáneamente tiene una probabilidad menor. ¿Es ésta una interpretación válida? Agradecería mucho que alguien me pudiera explicar la mecánica de lo que está pasando, es decir, cómo puedo interpretar los símbolos matemáticos abstractos en este caso concreto.
Respuestas
¿Demasiados anuncios?En primer lugar, puede añadir en el primer caso sólo si los eventos $A$ y $B$ son disjuntos; si pueden ocurrir simultáneamente, la probabilidad de $A\text{ or }B$ no es la suma de las probabilidades de $A$ y $B$ . Por ejemplo, supongamos que tiras un dado justo. Evento $A$ es obtener un número par, y el evento $B$ es obtener un número que no sea un cuadrado perfecto. Estos sucesos tienen probabilidades $\frac12$ y $\frac23$ respectivamente, por lo que la suma de sus probabilidades es $\frac76$ que es mayor que $1$ y no puede ser una probabilidad de nada. La probabilidad real de $A\text{ or }B$ es la probabilidad de obtener algo distinto de un $1$ , por lo que es $\frac56$ .
La probabilidad de obtener $A\text{ and }B$ es la probabilidad de obtener $2$ ou $6$ que es $\frac13$ . Añadir $P(A)=\frac12$ y $P(B)=\frac23$ cuenta este acontecimiento dos veces, una como parte de $A$ y una vez como parte de $B$ por lo que para obtener el valor correcto de $P(A\text{ or }B)$ hay que restar una vez lo que se ha contado dos veces, a saber, $P(A\text{ and }B)$ :
$$P(A\text{ or }B)=P(A)+P(B)-P(A\text{ and }B)\;.$$
En cuanto a $P(A\text{ and }B)$ en $P(A)P(B)$ estás en el buen camino con la idea de que conseguir ambos $A$ y $B$ es más difícil que conseguir que se produzca una de ellas por separado. Supongamos que realizas el experimento muchas veces; por término medio esperas que $A$ que se produzca en $P(A)$ fracción de los ensayos, y $B$ que se produzca en $P(B)$ fracción de los ensayos. Si $A$ y $B$ son independientes, $B$ se producirá por término medio en $P(B)$ fracción de los ensayos en los que $A$ y también en $P(B)$ fracción de los ensayos en los que $A$ no se produce. A usted le interesan los primeros: los juicios en los que $A$ y $B$ ambos ocurren. En general, por término medio $P(B)$ fracción del $P(A)$ fracción de los ensayos en los que $A$ se produce, o $P(A)P(B)$ fracción de todas las pruebas. En otras palabras, si $A$ y $B$ son independientes, entonces $P(A\text{ and }B)=P(A)P(B)$ . En el ejemplo anterior, $$P(A\text{ and }B)=\frac13=\frac12\cdot\frac23\;:$$ la mitad de las veces obtenemos por término medio un número par, y por término medio dos tercios de esos números pares son $2$ ou $6$ .
Las probabilidades son aditivas sobre uniones disjuntas son aditivas. Supongamos que tenemos sucesos $A$ y $B$ . Se tiene la siguiente unión disjunta. $$A \cup B = (A - B) \cup (A \cap B) \cup (B - A),$$ así que $$P(A\cup B) = P(A - B) + P(A\cap B) + P(B - A).$$ Desde $A = (A - B) \cup (A\cap B)$ tenemos $P(A) = P(A - B) + P(A\cap B)$ , dando $$P(A\cup B) = P(A) + P(B - A).$$ Ahora, por simetría del razonamiento, tenemos $$P(A\cup B) = P(A) + P(B - A) + P(A\cap B) - P(A\cap B) = P(A) + P(B) - P(A\cap B).$$
Utiliza el principio de inclusión/exclusión para encontrar probabilidades de uniones e intersecciones en general. Cuando los sucesos se excluyen mutuamente, se pueden multiplicar las probabilidades para obtener la probabilidad de una intersección (es decir, "Y").
Tienes razón en que la probabilidad de las intersecciones será menor que las probabilidades individuales de cada suceso componente. Esto se debe a que las probabilidades son números entre $0$ y $1$ .