Me gustaría hacerme eco de algunos de los puntos de la otra respuesta con un énfasis ligeramente diferente.
Para mí, la cuestión más importante es que el punto de vista bayesiano de la incertidumbre/probabilidad/aleatoriedad es el que responde directamente a las preguntas que probablemente nos interesan, mientras que el punto de vista frecuentista de la incertidumbre responde directamente a otras preguntas que a menudo no vienen al caso. Las inferencias bayesianas tratan de decirnos lo que nosotros (o un algoritmo, máquina, etc.) deberíamos creer dados los datos que hemos visto, o en otras palabras "¿qué puedo aprender sobre el mundo a partir de estos datos?" Las inferencias frecuentistas tratan de decirnos lo diferentes que serían nuestros resultados si los datos que realmente vimos fueran "re-generados" o "muestreados repetidamente" un número infinito de veces. Personalmente, a veces encuentro interesantes las preguntas frecuentistas, pero no se me ocurre un escenario en el que las preguntas bayesianas no sean las que más importan (ya que al final quiero tomar una decisión sobre qué creer o hacer ahora que he visto nuevos datos). Vale la pena señalar que a menudo la gente (incluidos los estadísticos) interpreta incorrectamente los análisis frecuenciales como si respondieran a preguntas bayesianas, lo que probablemente traiciona sus verdaderos intereses. Y mientras la gente se preocupa por la subjetividad inherente a los métodos bayesianos, yo pienso en la frase de Tukey: "Mucho mejor una respuesta aproximada a la pregunta correcta, que a menudo es vaga, que una respuesta exacta a la pregunta incorrecta, que siempre se puede precisar". Por si sirve de algo, los métodos frecuentistas también son subjetivos, y podría decirse que de forma menos obvia y conveniente de criticar.
Dejando de lado mi orgullo bayesiano, tienes razón en que las respuestas a las preguntas frecuentistas (especialmente la MLE) a veces coinciden estrechamente (y en raros casos, exactamente) con las respuestas a las preguntas bayesianas.
Sin embargo, los datos grandes son una noción vaga en algunos sentidos que pueden hacer que las respuestas bayesianas y frecuenciales (MLE) sigan siendo diferentes:
- La mayoría de los resultados sobre datos grandes son asintóticos a medida que el tamaño de la muestra llega al infinito, lo que significa que no nos dicen cuándo nuestro tamaño de muestra es realmente lo suficientemente grande para que el resultado asintótico sea lo suficientemente preciso (hasta cierto nivel de error conocido). Si te tomas la molestia de hacer tanto el análisis bayesiano como el frecuencial de tus datos y descubres que son numéricamente similares, entonces no importa tanto.
- A menudo, con los datos "grandes" (por ejemplo, muchas observaciones) también tenemos un gran número de preguntas o parámetros de interés. Esto es básicamente el punto #4 de Bernhard.
- Muchos de los grandes conjuntos de datos no están perfectamente diseñados y se relacionan con nuestros intereses de forma indirecta debido a cuestiones como el error de medición o el sesgo de muestreo. Tratadas con honestidad, estas complicaciones pueden no desaparecer ni siquiera asintóticamente, lo que significa que los modelos que relacionan de forma realista los datos con lo que nos interesa tienen parámetros de sensibilidad no identificables que son los más naturales para tratar con el uso de priores y la maquinaria bayesiana.
Por supuesto, la otra cara de esta pregunta es "¿Por qué debería ser frecuentista si mi conjunto de datos es grande?"