45 votos

¿Es el aprendizaje automático menos útil para comprender la causalidad y, por tanto, menos interesante para las ciencias sociales?

La diferencia que entiendo entre el aprendizaje automático y otras técnicas estadísticas de predicción y el tipo de estadística que utilizan los científicos sociales (por ejemplo, los economistas) es que los economistas parecen estar muy interesados en comprender el efecto de una o varias variables, tanto en términos de magnitud como en detectar si la relación es causal. Para ello, acaban preocupándose por los métodos experimentales y cuasi-experimentales, etc.

El aprendizaje automático o los modelos estadísticos predictivos suelen descuidar por completo este aspecto y, en muchos casos, no ofrecen un grado específico de afectación de una variable sobre el resultado (el logit y el probit sí parecen hacer ambas cosas).

Una pregunta relacionada es hasta qué punto los modelos económicos o de comportamiento inspirados en la teoría tienen ventaja sobre los modelos ateóricos a la hora de predecir a nuevos dominios. ¿Qué diría un estadístico orientado al aprendizaje automático o a la predicción a la crítica de que sin un modelo económico no se podría predecir correctamente nuevas muestras en las que las covariables fueran muy diferentes?

Me encantaría escuchar la opinión de la gente desde todos los puntos de vista.

35voto

Nathan Long Puntos 30303

En mi opinión, no hay diferencias formales que distingan el aprendizaje automático y la estadística en el nivel fundamental de ajuste de modelos a los datos. Puede haber diferencias culturales en la elección de los modelos, los objetivos de la adaptación de los modelos a los datos y, en cierta medida, las interpretaciones.

En los ejemplos típicos que se me ocurren siempre tenemos

  • una colección de modelos $M_i$ para $i \in I$ para algún conjunto de índices $I$ ,
  • y para cada $i$ un desconocido componente $\theta_i$ (los parámetros, pueden ser de dimensión infinita) del modelo $M_i$ .

Equipamiento $M_i$ a los datos es casi siempre un problema de optimización matemática que consiste en encontrar la elección óptima del componente desconocido $\theta_i$ para hacer $M_i$ ajustarse a los datos medidos por alguna función favorita.

La selección entre los modelos $M_i$ es menos estándar, y hay una gama de técnicas disponibles. Si el objetivo del ajuste del modelo es puramente predictivo, la selección del modelo se hace intentando obtener un buen rendimiento predictivo, mientras que si el objetivo principal es interpretar los modelos resultantes, se pueden seleccionar modelos más fácilmente interpretables en lugar de otros modelos, incluso si se espera que su poder predictivo sea peor.

Lo que podría llamarse de la vieja escuela La selección de modelos estadísticos se basa en pruebas estadísticas, tal vez combinadas con estrategias de selección por etapas, mientras que la selección de modelos de aprendizaje automático suele centrarse en el error de generalización esperado, que a menudo se estima utilizando la validación cruzada. Sin embargo, los desarrollos actuales y la comprensión de la selección de modelos parecen converger hacia un terreno más común, véase, por ejemplo, Selección de modelos y promediación de modelos .

Inferir la causalidad de los modelos

El quid de la cuestión es cómo ¿podemos interpretar un modelo? Si los datos obtenidos proceden de un experimento cuidadosamente diseñado y el modelo es adecuado, es plausible que podamos interpretar el efecto de un cambio de una variable en el modelo como un efecto causal, y si repetimos el experimento e intervenimos sobre esta variable concreta podemos esperar observar el efecto estimado. Sin embargo, si los datos son observacionales, no podemos esperar que los efectos estimados en el modelo se correspondan con los efectos observables de la intervención. Esto requerirá supuestos adicionales, independientemente de si el modelo es un "modelo de aprendizaje automático" o un "modelo estadístico clásico".

Es posible que las personas formadas en el uso de modelos estadísticos clásicos centrados en la estimación de parámetros univariantes y en la interpretación del tamaño del efecto tengan la impresión de que una interpretación causal es más válida en este marco que en un marco de aprendizaje automático. Yo diría que no es así.

El ámbito de la inferencia causal en estadística no elimina realmente el problema, pero hace explícitas las suposiciones sobre las que descansan las conclusiones causales. Se denominan suposiciones no comprobables . El papel Inferencia causal en estadística: Una visión general de Judea Pearl es un buen artículo para leer. Una de las principales contribuciones de la inferencia causal es la recopilación de métodos para la estimación de los efectos causales bajo supuestos en los que realmente hay factores de confusión no observados, lo que por otra parte es una gran preocupación. Véase la sección 3.3 del artículo de Pearl. Un ejemplo más avanzado puede encontrarse en el documento Modelos estructurales marginales e inferencia causal en epidemiología .

Es una cuestión de materia si los supuestos no comprobables se mantienen. Son precisamente incuestionables porque no podemos probarlas con los datos. Para justificar los supuestos se necesitan otros argumentos.

Como ejemplo del encuentro entre el aprendizaje automático y la inferencia causal, las ideas de estimación de máxima verosimilitud dirigida tal y como se presenta en Aprendizaje por máxima verosimilitud dirigida de Mark van der Laan y Daniel Rubin suelen explotar las técnicas de aprendizaje automático para la estimación no paramétrica seguida de la "orientación" hacia un parámetro de interés. Este último podría ser perfectamente un parámetro con una interpretación causal. La idea en Super Aprendiz es confiar en gran medida en las técnicas de aprendizaje automático para la estimación de los parámetros de interés. Mark van der Laan (comunicación personal) señala que los modelos estadísticos clásicos, sencillos e "interpretables" suelen ser erróneos, lo que conduce a estimadores sesgados y a una evaluación demasiado optimista de la incertidumbre de las estimaciones.

15voto

pkaeding Puntos 12935

Existe un conjunto (bastante limitado) de herramientas estadísticas para la llamada "inferencia causal". Están diseñadas para evaluar realmente las relaciones causales y se ha demostrado que lo hacen correctamente. Son excelentes, pero no son aptas para los débiles de corazón (o de cerebro, en realidad).

Aparte de eso, en muchos casos, la capacidad de implicar causalidad es mucho más una consecuencia de tu diseño que de las técnicas que tienes a mano: si tienes control sobre "todas" las variables de tu experimento, y ves que algo ocurre cada vez que (sólo) cambias una variable, es razonable llamar a lo que ocurre una "consecuencia" de lo que cambias (por desgracia, en la investigación real, estos casos extremos rara vez se dan). Otro razonamiento intuitivo pero sólido es el basado en el tiempo: si cambias aleatoriamente (pero de forma controlada) una variable y otra cambia al día siguiente, la causalidad también está a la vuelta de la esquina.

Todo mi segundo párrafo funciona esencialmente independientemente de los métodos que se utilicen para encontrar qué variables cambiaron en qué condiciones, por lo que, al menos en teoría, no hay ninguna razón por la que el aprendizaje automático (ML) sea peor que los métodos basados en la estadística.

Descargo de responsabilidad : Párrafo altamente subjetivo siguiente

Sin embargo, según mi experiencia, con demasiada frecuencia las técnicas de ML se sueltan sobre una masa de datos sin tener en cuenta de dónde proceden o cómo se han recogido (es decir, sin tener en cuenta el diseño). En esos casos, a menudo se obtiene un resultado, pero será muy difícil decir algo útil sobre la causalidad. Este se ser exactamente la misma cuando se ejecuta algún método estadísticamente sólido sobre esos mismos datos. Sin embargo, las personas con una sólida formación estadística están capacitadas para ser críticas con estas cuestiones y, si todo va bien, evitarán estos escollos. Tal vez sea simplemente la mentalidad de los primeros (pero chapuceros) adoptantes de las técnicas de ML (normalmente no los desarrolladores de las nuevas técnicas, sino aquellos ansiosos por "probar" algunos resultados con ellas en su campo de interés) la que ha dado al ML su mala reputación en este sentido. (Nótese que soy no decir que la estadística es mejor que el ML, o que toda la gente que hace ML es chapucera y los que hacen estadística no)

12voto

Pankaj Kumar Puntos 150

Mi opinión es que los modelos utilizados en economía y en las demás ciencias sociales sólo son útiles en la medida en que tienen capacidad de predicción en el mundo real: un modelo que no predice el mundo real no es más que una matemática inteligente. Una de mis frases favoritas para los colegas es que "los datos son el rey".

Me parece que su pregunta plantea dos críticas a un enfoque predictivo. En primer lugar, usted señala que los modelos producidos por las técnicas de aprendizaje automático pueden no ser interpretable . En segundo lugar, sugieres que los métodos utilizados por las ciencias sociales son más útiles para descubrir relaciones causales que el aprendizaje automático.

Para abordar el primer punto, ofrezco el siguiente contraargumento. La moda actual del aprendizaje automático favorece métodos (como las SVM y las NN) que no son nada fáciles de entender para un profano. Esto no significa que todo Las técnicas de aprendizaje automático tienen esta propiedad. Por ejemplo, el venerable árbol de decisión C4.5 sigue siendo ampliamente utilizado 20 años después de alcanzar la fase final de su desarrollo, y produce como salida una serie de reglas de clasificación. Yo diría que esas reglas se prestan mejor a la interpretación que conceptos como el log odds ratio, pero esa es una afirmación subjetiva. En cualquier caso, estos modelos son interpretable.

En cuanto al segundo punto, reconozco que si se entrena un modelo de aprendizaje automático en un entorno y se prueba en otro, es probable que falle, pero no hay razón para suponer a priori que esto no sea también cierto en el caso de un modelo más convencional: si construyes tu modelo bajo un conjunto de supuestos y luego lo evalúas bajo otro, obtendrás malos resultados. Para cooptar una frase de la programación informática: "garbage in, garbage out" se aplica por igual tanto al aprendizaje automático como a los modelos diseñados.

9voto

John Richardson Puntos 1197

No. La inferencia causal es un área activa de investigación en el aprendizaje automático, por ejemplo, véanse las actas de este taller y este . Sin embargo, me gustaría señalar que incluso si la inferencia causal o la interpretación del modelo es su principal interés, sigue siendo una buena idea probar un enfoque opaco puramente predictivo en paralelo, para saber si hay una penalización significativa de rendimiento al insistir en un modelo interpretable.

4voto

RHPT Puntos 114

No voy a reiterar los muy buenos puntos ya expuestos en otras respuestas, pero me gustaría añadir una perspectiva algo diferente. Lo que digo aquí es algo filosófico, no necesariamente extraído de la experiencia profesional, sino de una formación mixta en las ciencias físicas, la teoría de los sistemas complejos y el aprendizaje automático (y, tengo que admitir, en gran medida la estadística de grado).

Una diferencia sustancial entre el aprendizaje automático y los enfoques estadísticos clásicos (que yo conozca) es el conjunto de supuestos que se hacen. En la estadística clásica, muchos supuestos sobre los procesos y distribuciones subyacentes son fijos y tienden a darse por sentados. En el aprendizaje automático, sin embargo, estos supuestos se eligen explícitamente para cada modelo, lo que da lugar a un conjunto mucho más amplio de posibilidades y quizás a una mayor conciencia de los supuestos que se hacen.

Cada vez vemos más que los sistemas del mundo que nos rodea se comportan de forma compleja y no lineal, y que muchos procesos no obedecen a los supuestos de normalidad, etc., típicamente presentes en la estadística clásica. Yo diría que, debido a la flexibilidad y variedad de los supuestos del modelo, los enfoques de aprendizaje automático suelen conducir a un modelo más sólido en estos casos.

Las frases como "magnitud del efecto", "relación causal" y "grado en que una variable afecta al resultado" contienen fuertes suposiciones del modelo. En un sistema complejo (como una economía), estos supuestos sólo serán válidos dentro de una determinada ventana de posibles estados del sistema. En el caso de algunos observables y procesos, esta ventana puede ser amplia y dar lugar a modelos relativamente sólidos. Con otros, puede ser pequeña o incluso vacía. Tal vez el mayor peligro sea el término medio: un modelo puede parecer que funciona, pero cuando el sistema cambia, falla de forma repentina y sorprendente.

El aprendizaje automático no es la panacea. Más bien lo veo como una búsqueda de nuevas formas de extraer significado de nuestras observaciones, buscando nuevos paradigmas que son necesarios si queremos tratar eficazmente la complejidad que estamos empezando a percibir en el mundo que nos rodea.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X