Intento explicar en palabras sencillas la condición causal de Markov para establecer la causalidad probabilística. La definición de Hausman y Woodward (1999) es la siguiente:
Sea G un grafo causal con un conjunto de vértices V y P una distribución de probabilidad sobre los vértices de V generada por la estructura causal representada por G. G y P satisfacen la condición de Markov causal si y sólo si para cada X en V, X es independiente de V\(Descendientes(X) Padres(X)) dado Padres(X)
Mi explicación es que una condición de Markov causal se cumple si el conjunto de variables en una relación causal con distribuciones de probabilidad dadas son independientes de todas las demás variables a menos que sean sus padres o sus descendientes. Esto es ligeramente diferente a otras definiciones por ahí así que, ¿es mi explicación primera, correcta?, segunda clara? Agradeceré cualquier consejo.
0 votos
Ha omitido la última cláusula de la definición de Hausman y Woodward: "dado Padres(X)". Sin esa cláusula, tanto la definición como su reformulación son incorrectas.
1 votos
Obsérvese también que Hausman y Woodward (1999) no definieron originalmente la Condición de Markov Causal. Citaron claramente el libro de Spirtes, Glymour y Scheines Causalidad, predicción y búsqueda y señalan que el CMC fue "aparentemente descrito por primera vez por Kiiveri y Speed (1982)".
1 votos
Y no parece cuantificarse en ninguna parte de la definición.
1 votos
Acabo de recibir tanto el documento de Kiiveri como el libro de Spirtes, Scheines y Glymour. Referencias corregidas. También he añadido la última cláusula que faltaba. Afortunadamente estaba incluida en mi Ms original. Gracias por notarlo.