Creo que le gustaría leer un excelente artículo reciente de Scott Aaronson titulado "Por qué los filósofos deberían preocuparse por la complejidad computacional" . Abarca un amplio abanico de temas de filosofía que han cambiado drásticamente no sólo por la computabilidad sino también por la teoría de la complejidad.
Discute algunos puntos sobre Godel. En particular, se menciona una gran (pero no muy conocida) carta de Godel a Von Neumann en la que Godel anticipa esencialmente toda la idea de P vs. NP y cuáles serían sus ramificaciones en las matemáticas humanas si P resultara ser realmente igual a NP.
Otro trabajo reciente que utiliza los teoremas de Godel de forma muy técnica para abordar un problema filosófico es "La paradoja del examen sorpresa y el segundo teorema de incompletitud" por Kritchman y Raz.
En él, toman el ejemplo clásico de un examen que se hará la semana que viene, pero no podrás saber el día del examen con antelación (también se suele reformular en términos de una ejecución la semana que viene, pero no sabrás el día de la ejecución; así es descrito en Wikipedia ).
Hay una "resolución" muy ingenua a esta paradoja utilizando la inducción hacia atrás. Kritchman y Raz dan un argumento genial que básicamente afirma que todo depende de lo que quieras decir con "saber el día del examen con antelación". Resulta que si quieres decir "ser capaz de demostrar que el examen no será mañana", entonces el teorema de Godel te permite escapar de la inducción hacia atrás y, por lo tanto, la configuración aparentemente paradójica no tiene por qué ser paradójica en absoluto.
Además, un lugar muy importante donde se invoca el teorema de Godel es en el libro de Roger Penrose "La nueva mente del emperador". El argumento principal de Penrose es que no se puede dar a los cerebros una explicación plenamente reduccionista en términos de la física actualmente entendida, porque hay algo en un matemático humano que de alguna manera puede "ver" la consistencia del propio "sistema formal" del matemático, lo que debería ser impedido por el teorema de Godel si nuestros cerebros fueran sólo sistemas formales en el sentido de las máquinas de Turing / tesis de Church-Turing. Y, por tanto, Penrose rechaza la plausibilidad de Inteligencia Artificial fuerte En el caso de la Inteligencia Artificial, el autor afirma que no es posible diseñar o aprovechar los efectos de la gravedad cuántica en el cerebro.
Creo que Robin Hanson escribió una excelente refutación del uso altamente especulativo que hace Penrose del teorema de Godel ( enlace ). He aquí una breve cita de esa refutación:
"Penrose da muchas razones por las que se siente incómodo con la IA basada en ordenadores. Le preocupa "la 'paradoja' del teletransporte" por la que se podrían hacer copias de personas, y piensa "que el argumento de Searle [Chinese-Room] tiene una fuerza considerable, aunque no sea del todo concluyente". También encuentra "muy difícil de creer... que algún tipo de proceso de selección natural sea eficaz para producir [incluso] algoritmos aproximadamente válidos", ya que "la más mínima 'mutación' de un algoritmo... tendería a hacerlo totalmente inútil."
Se trata de objeciones conocidas a las que, en mi opinión, se ha dado una respuesta bastante adecuada. Pero el argumento contra la Inteligencia Artificial que para Penrose es "la más flagrante reductio ad absurdum que podemos esperar, ¡a falta de una prueba matemática real!" resulta ser una variación del muy criticado argumento "Godel" de John Lucas, presentado en 1961.
Un matemático suele emitir juicios sobre qué enunciados matemáticos son verdaderos. Si no es más poderoso que un ordenador, en principio se podría escribir un programa informático (muy complejo) que duplicara exactamente su comportamiento. Pero cualquier programa que infiera enunciados matemáticos no puede inferir más de lo que se puede demostrar dentro de un sistema formal equivalente de axiomas matemáticos y reglas de inferencia, y por un famoso resultado de Godel, hay al menos un enunciado verdadero que tal sistema de axiomas no puede demostrar que es verdadero. "Sin embargo, podemos (en principio) ver que P_k(k) es realmente verdadera". Esto parecería proporcionarle una contradicción, ya que debería ser capaz de ver eso también".
Este argumento no se sostiene si el conjunto de axiomas al que equivale formalmente el matemático humano es demasiado complejo para que éste lo entienda. Así que Penrose afirma que no puede ser porque "¡esto va en contra de lo que son las matemáticas! ... cada paso [en una demostración matemática] puede reducirse a algo simple y obvio ... cuando los comprendemos [las pruebas], su verdad es clara y acordada por todos".
Y a las críticas de los revisores de que los matemáticos se describen mejor como algoritmos aproximados y heurísticos, Penrose responde (en BBS) que esto no explica el hecho de que "la comunidad matemática en su conjunto comete extraordinariamente pocos" errores.
Son afirmaciones sorprendentes, que Penrose apenas se molesta en defender. Sin embargo, los críticos conocedores del trabajo de Godel se han limitado a señalar que un sistema de axiomas puede inferir que si sus axiomas son autoconsistentes, entonces su sentencia de Godel es verdadera. Un sistema de axiomas simplemente no puede determinar su propia autoconsistencia. Pero tampoco los matemáticos humanos pueden saber si los axiomas que favorecen explícitamente (y mucho menos los axiomas a los que son formalmente equivalentes) son autoconsistentes. Los axiomas de la teoría de conjuntos propuestos por Cantor y Frege resultaron ser inconsistentes, y este tipo de cosas volverán a ocurrir sin duda".
Por último, creo que el artículo de Aaronson enlazado más arriba hace un excelente trabajo de síntesis de las razones de la teoría de la complejidad por las que el argumento de la Habitación China fracasa totalmente. Es sólo un interés nerd, pero algo que quizás otros aquí apreciarán.