41 votos

Si sabemos que A es independiente de B, ¿por qué P(A|B,C) = P(A|C) no es necesariamente cierta?

Digamos que sabemos que A es independiente de B, o matemáticamente:

$$P(A|B) = P(A)$$

Entonces, ¿cómo es que no podemos decir que lo siguiente es necesariamente cierto? $$P(A|B,C) = P(A|C)$$

Si el resultado de B no tiene efecto sobre el resultado de $A$ Entonces, ¿por qué el resultado de $B$ Y $C$ tienen un efecto sobre $A$ que es diferente al efecto del resultado de sólo $C$ ?

¿Existe acaso un contraejemplo sencillo para ilustrar esto? Por ejemplo, digamos que $A$ y $B$ son el caso de escoger un as de picas de una baraja (cada uno tiene su propia baraja).

84voto

Mi ejemplo favorito es un tablero de ajedrez: si eliges un punto de manera uniforme, la fila, la columna y el color son independientes entre sí.

Supongamos que A es el color, B es la fila y C es la columna. Entonces P(A="blanco"|B)=0,5 y P(A="blanco"|C)=0,5 para cualquier valor de B, pero P(A="blanco"|B,C) es 0 o 1 para cualquier valor de B y C.

28voto

Andre Miller Puntos 182

Imagina $A$ y $B$ son variables aleatorias Bernoulli independientes con probabilidad de éxito 1/2, y sea $C = AB + (1 - A)(1 - B)$ (si te gusta, $A$ es el caso de que una moneda salga cara, $B$ es el caso de que otra moneda salga cara, y $C$ es el caso de que ambas monedas caigan por el mismo lado). A continuación, $P(A = 1 \mid C = 1) = 1/2$ pero $P(A = 1 \mid B = 1, C = 1) = 1$ .

De forma más general, una situación común en la que esto no es cierto es cuando $(A, B, C)$ formar un estructura en v es decir, donde $A \rightarrow C \leftarrow B$ , donde $A$ y $B$ son marginalmente independientes pero donde $B$ puede proporcionar información sobre $A$ si ambos causan $C$ .

18voto

Gordon Smyth Puntos 170

Continuemos su ejemplo con dos barajas de cartas, suponiendo que se elige una carta al azar de cada baraja. Usted ha propuesto que $A$ es el caso de que se elija el as de picas de la primera baraja y que $B$ es el caso de que se elija el as de picas de la segunda baraja.

Ahora dejemos que $C$ sea el caso de que las dos cartas de las dos barajas sean de distinto color. Entonces $$P(A|C) = P(A) = 1/52$$ pero $$P(A|B,C) = 0$$ porque $A$ , $B$ y $C$ no pueden ser simultáneamente verdaderos.

Tenga en cuenta que dos de $A$ , $B$ y $C$ son independientes, pero los tres eventos son dependientes cuando se toman juntos.

15voto

user164061 Puntos 281

Hay dos situaciones en las que esto puede ocurrir.

Sesgo del colisionador

Una forma común de cómo puede ocurrir la situación es sesgo del colisionador .

Un ejemplo está en la imagen de abajo. En este ejemplo, la inteligencia y la apariencia no están estadísticamente relacionadas (ni siquiera hay un efecto en este caso como en el ejemplo de la moneda). Pero condicionado a la suma de la inteligencia y la apariencia los dos se correlacionan.

example of bias

Efecto invariante

Con el sesgo del colisionador, tanto A como B tienen un efecto sobre C. En algunos casos especiales, la situación también puede aparecer cuando B tiene un efecto causal sobre A, pero no aparece como una dependencia estadística.

La razón de fondo por la que puede darse esta situación contraintuitiva es que: Cuando hablamos de independencia estadística entre A y B no significa necesariamente que A y B no tengan ninguna relación funcional/causal.

Digamos que lanzamos dos monedas justas $B$ y $C$ y asignar valores $-1$ y $1$ a los lados de las monedas. Definamos $A := B \times C$ .

 B   C   A := B*C
 1   1   1
 1  -1  -1
-1   1  -1
-1  -1   1

Ahora $B$ hace influir en el resultado $A$ pero $A$ no es estadísticamente depende de $B$ solo. Es decir, tenemos que $P(A = 1) = P(A = -1) = 0.5$ independientemente del valor de $B$ .

Las variantes de este caso se dan cuando $B$ es una variable que influye en $A$ dejando la distribución de $A$ sin cambios. Así que este caso se da cuando $B$ tiene un efecto sobre $A$ que deja la distribución de $A$ invariante. Por ejemplo, ocurre cuando $B$ cambia las etiquetas de una moneda justa o de un dado.

Esto parece un caso rebuscado, pero también se trata de una interpretación particular de la probabilidad. Cuando lanzamos una moneda, ¿importa si empezamos con cara o cruz? Desde el punto de vista estadístico, puede que no haya ninguna relación. Pero en el proceso físico subyacente, la posición inicial de la moneda tiene (según la teoría) una influencia en la posición de la moneda después del lanzamiento. Al fin y al cabo, la situación puede considerarse determinista, pero la describimos como probabilística porque no tenemos un conocimiento completo del estado inicial de todo el sistema y de todos los parámetros que intervienen en el resultado.

5voto

user Puntos 21

Cito a Joseph Blitzstein Introducción a la probabilidad (2019 2 edn), p. 65.

Ejemplo 2.5.11 (La independencia no implica la independencia condicional).

Mi mis amigos Alice y Bob son las únicas dos personas que me llaman por teléfono. Cada día día, deciden independientemente si me llaman ese día. Sea A el suceso que Alice me llame el próximo viernes y B el evento de que Bob me llame el próximo viernes. Supongamos que A y B son incondicionalmente independientes con P(A) > 0 y P(B) > 0.

Sin embargo, dado que recibo exactamente una llamada el próximo viernes, A y B ya no son independientes: la llamada es de Alicia si y sólo si no es de Bob. En otras palabras, dejando que C sea el caso de que reciba exactamente una llamada el próximo viernes, $P(B|C) > 0$ mientras que $P(B|A,C) = 0$ por lo que A y B no son condicionalmente independientes dado C.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X