Voy a enfocar esto desde la dirección alternativa de la filosofía, a la luz de los principios realmente útiles de la Gestión de la Incertidumbre discutidos en los libros de George F. Klir sobre conjuntos difusos. No puedo dar a van der Laan la exactitud, pero puedo proporcionar un caso algo exhaustivo de por qué su objetivo es lógicamente imposible; eso va a requerir una larga discusión que hace referencia a otros campos, así que tened paciencia conmigo.
Klir y sus coautores dividen la incertidumbre en varios subtipos, como la inespecificidad (es decir, cuando se tiene un conjunto desconocido de alternativas, que se trata con medios como la función de Hartley); la imprecisión en las definiciones (es decir, la "borrosidad" modelada y cuantificada en los conjuntos difusos); la lucha o discordia en las pruebas (abordada en la teoría de la evidencia de Dempster-Shafer); además de la teoría de la probabilidad, la teoría de la posibilidad y la incertidumbre en la medición, en las que el objetivo es tener un alcance adecuado para capturar las pruebas pertinentes, minimizando los errores. Considero que toda la caja de herramientas de las técnicas estadísticas es un medio alternativo para dividir la incertidumbre de diferentes maneras, como un cortador de galletas; los intervalos de confianza y los valores p ponen en cuarentena la incertidumbre de una manera, mientras que medidas como la Entropía de Shannon la reducen desde otro ángulo. Sin embargo, lo que no pueden hacer es eliminarla por completo. Para conseguir un "modelo exacto" como el que parece describir Van der Laan, tendríamos que reducir todos estos tipos de incertidumbre a cero, de modo que no quedara ninguna partición. Un modelo verdaderamente "exacto" tendría siempre valores de probabilidad y posibilidad de 1, puntuaciones de inespecificidad de 0 y ninguna incertidumbre en las definiciones de los términos, los rangos de valores o las escalas de medición. No habría discordancia en las fuentes de evidencia alternativas. Las predicciones realizadas por un modelo de este tipo serían siempre cien por cien exactas; los modelos de predicción dividen esencialmente su incertidumbre en el futuro, pero no quedaría ninguna para postergar. La perspectiva de la incertidumbre tiene algunas implicaciones importantes:
- Esta tarea no sólo es físicamente inverosímil, sino que es lógicamente imposible. Obviamente, no podemos conseguir escalas de medición perfectamente continuas con grados infinitesimales, reuniendo observaciones finitas con equipos científicos falibles y físicos; siempre habrá cierta incertidumbre en cuanto a la escala de medición. Del mismo modo, siempre habrá cierta imprecisión en torno a las propias definiciones que empleamos en nuestros experimentos. El futuro también es intrínsecamente incierto, por lo que las predicciones supuestamente perfectas de nuestros modelos "exactos" tendrán que ser tratadas como imperfectas hasta que se demuestre lo contrario, lo que llevaría una eternidad.
- Por si fuera poco, ninguna técnica de medición está libre de errores al 100% en algún momento del proceso, ni puede ser lo suficientemente exhaustiva como para abarcar toda la información posiblemente conflictiva del universo. Además, la eliminación de posibles variables de confusión y la completa independencia condicional no pueden probarse a fondo sin examinar todos los demás procesos físicos que afectan al que estamos examinando, así como los que afectan a estos procesos secundarios, etc.
- La exactitud sólo es posible en la lógica pura y su subconjunto, las matemáticas, precisamente porque las abstracciones están divorciadas de las preocupaciones del mundo real, como estas fuentes de incertidumbre. Por ejemplo, mediante la lógica deductiva pura, podemos demostrar que 2 + 2 = 4 y que cualquier otra respuesta es 100% incorrecta. También podemos hacer predicciones perfectamente precisas de que siempre será igual a 4. Este tipo de precisión sólo es posible en estadística cuando se trata de abstracciones. La estadística es increíblemente útil cuando se aplica al mundo real, pero la misma cosa que la hace útil inyecta al menos cierto grado de incertidumbre ineludible, lo que la hace inexacta. Es un dilema inevitable.
- Además, Peter Chu plantea otras limitaciones en la sección de comentarios del artículo al que rvl ha enlazado. Lo explica mejor que yo:
"Esta superficie de solución de los problemas NP-duros suele estar plagada de muchos óptimos locales y en la mayoría de los casos es computacionalmente inviable resolver el problema, es decir, encontrar la solución óptima global en general. Por lo tanto, cada modelizador utiliza algunas técnicas de modelización (heurísticas), en el mejor de los casos, para encontrar los óptimos locales adecuados. para encontrar soluciones óptimas locales adecuadas en el vasto espacio de soluciones de esta compleja función objetivo". espacio de soluciones de esta compleja función objetivo".
- Todo esto significa que la ciencia en sí misma no puede ser perfectamente exacta, aunque van der Laan parece hablar de ella de este modo en su artículo; el método científico como proceso abstracto es definible con precisión, pero la imposibilidad de una medición exacta universal y perfecta significa que no puede producir modelos exactos desprovistos de incertidumbre. La ciencia es una gran herramienta, pero tiene límites.
- A partir de ahí la cosa empeora: Incluso si fuera posible medir exactamente todas las fuerzas que actúan sobre cada quark y gluón constitutivo del universo, algunas incertidumbres todavía permanecer. En primer lugar, cualquier predicción realizada por un modelo tan completo seguiría siendo incierta debido a la existencia de múltiples soluciones para las ecuaciones quínticas y los polinomios superiores. En segundo lugar, no podemos estar completamente seguros de que el escepticismo extremo encarnado en la clásica pregunta "tal vez todo esto sea un sueño o una alucinación" no sea un reflejo de la realidad, en cuyo caso todos nuestros modelos están efectivamente equivocados de la peor manera posible. Esto equivale básicamente a una interpretación ontológica más extrema de las formulaciones epistemológicas originales de filosofías como el fenomenalismo, el idealismo y el solipsismo.
- En su 1909 Ortodoxia clásica G.K. Chesterton señaló que las versiones extremas de estas filosofías sí pueden ser juzgadas, pero por el hecho de que lleven o no a sus creyentes a instituciones mentales; el solipsismo ontológico, por ejemplo, es en realidad un marcador de esquizofrenia, al igual que algunos de sus primos. Lo mejor que podemos conseguir en este mundo es eliminar la duda razonable; la duda irracional de este tipo tan inquietante no puede eliminarse con rigor, ni siquiera en un mundo hipotético de modelos exactos y mediciones exhaustivas y sin errores. Si van der Laan pretende librarnos de la duda irracional, está jugando con fuego. Si nos aferramos a la perfección, el bien finito que podemos hacer se nos escapará de las manos; somos criaturas finitas que existen en un mundo infinito, lo que significa que el tipo de conocimiento completo y totalmente seguro que defiende van der Laan está permanentemente fuera de nuestro alcance. La única forma en que podemos alcanzar ese tipo de certeza es retirándonos de ese mundo a los estrechos confines del perfectamente abstracto que llamamos "matemáticas puras". Esto no significa, sin embargo, que una retirada a las matemáticas puras sea la solución para eliminar la incertidumbre. Este fue esencialmente el enfoque adoptado por los sucesores de Ludwig Wittgenstein (1889-1951), que vació su filosofía del positivismo lógico de cualquier sentido común que tuviera al rechazar la metafísica por completo y retirarse por completo a las matemáticas puras y al cientificismo, así como al escepticismo extremo, la sobreespecialización y el énfasis excesivo en la exactitud sobre la utilidad. En el proceso, destruyeron la disciplina de la filosofía disolviéndola en un marasmo de minuciosidad sobre las definiciones y de mirarse el ombligo, haciéndola así irrelevante para el resto del mundo académico. De este modo, acabaron con toda la disciplina, que hasta principios del siglo XX seguía estando en la vanguardia del debate académico, hasta el punto de que seguía siendo objeto de atención por parte de los medios de comunicación y algunos de sus líderes eran nombres conocidos. Se aferraron a una explicación perfecta y pulida del mundo y se les escapó de las manos, igual que a los enfermos mentales de los que hablaba GKC. También se le escapará de las manos a van der Laan, que ya ha refutado su propio punto de vista, como se comenta a continuación. La búsqueda de modelos demasiado exactos no sólo es imposible, sino que puede ser peligrosa, si se lleva hasta el punto de la obsesión autodestructiva. La búsqueda de ese tipo de pureza rara vez acaba bien; a menudo es tan contraproducente como esos germofóbicos que se frotan las manos tan furiosamente que acaban con heridas que se infectan. Es una reminiscencia de Ícaro tratando de robar el fuego del Sol: como seres finitos, sólo podemos tener una comprensión finita de las cosas. Como también dice Chesterton en Ortodoxia: "Es el lógico el que busca meter los cielos en su cabeza. Y es su cabeza la que se rompe".
A la luz de lo anterior, permítanme abordar algunas de las cuestiones específicas enumeradas por rvl:
1) Un modelo sin suposiciones de ningún tipo o bien a) no es consciente de sus propias suposiciones o bien b) debe estar limpiamente divorciado de las consideraciones que introducen incertidumbre, como los errores de medición, la contabilización de cada una de las posibles variables de confusión, las escalas de medición perfectamente continuas y similares.
2) Todavía soy un novato en lo que se refiere a la estimación de máxima verosimilitud (MLE), así que no puedo comentar la mecánica de la verosimilitud objetivo, excepto para señalar lo obvio: la verosimilitud es sólo eso, una verosimilitud, no una certeza. Derivar un modelo exacto requiere la eliminación completa de la incertidumbre, lo que la lógica probabilística rara vez puede hacer, si es que lo hace.
3) Por supuesto que no. Dado que todos los modelos conservan cierta incertidumbre y, por tanto, son inexactos (excepto en los casos de matemáticas puras, divorciadas de las mediciones físicas del mundo real), la raza humana no habría podido realizar ningún progreso tecnológico hasta la fecha, ni tampoco ningún otro progreso. Si los modelos inexactos fueran siempre inútiles, estaríamos teniendo esta conversación en una cueva, en lugar de en esta increíble hazaña tecnológica llamada Internet, todo lo cual fue posible gracias a la modelización inexacta.
Irónicamente, el propio modelo de van der Laan es un ejemplo primordial de inexactitud. Su propio artículo esboza una especie de modelo de cómo debería gestionarse el campo de la estadística, con el objetivo de conseguir modelos exactos; todavía no hay números asociados a este "modelo", no se mide lo inexactos o inútiles que son ahora la mayoría de los modelos en su opinión, no se cuantifica lo lejos que estamos de su visión, pero supongo que se podrían idear pruebas para esas cosas. Sin embargo, tal y como están las cosas, su modelo es inexacto. Si no es útil, significa que su punto de vista es erróneo; si es útil, derrota su punto principal de que los modelos inexactos no son útiles. En cualquier caso, refuta su propio argumento.
4) Probablemente no, porque no podemos tener información completa con la que probar nuestro modelo, por las mismas razones por las que no podemos derivar un modelo exacto en primer lugar. Un modelo exacto requeriría, por definición, una predictibilidad perfecta, pero incluso si las primeras 100 pruebas resultan 100% precisas, la 101ª podría no serlo. Luego está todo el tema de las escalas de medición infinitesimales. Después de eso, entramos en todas las demás fuentes de incertidumbre, que contaminarán cualquier evaluación de la Torre de Marfil de nuestro modelo de la Torre de Marfil.
5) Para abordar el tema, he tenido que situarlo en el contexto más amplio de cuestiones filosóficas mucho más amplias que suelen ser controvertidas, por lo que no creo que sea posible discutirlo sin entrar en opiniones (fíjate que eso en sí mismo es otra fuente de incertidumbre) pero tienes razón, este artículo merece una respuesta. Mucho de lo que dice en otros temas va por buen camino, como la necesidad de hacer estadísticas relevantes para el Big Data, pero hay algún extremismo poco práctico mezclado que debería corregirse.