Es bastante fácil construir máquinas de Turing que no se detengan. Pero, ¿hasta qué punto podemos hacerlas más complejas? Por ejemplo, supongamos que una máquina tiene acceso a su tabla de transición de estados y puede escribir en ella como un programa C podría apuntar a su propia página de código en la RAM y hurgar en ella. La motivación de la pregunta debería aclarar los detalles:
Imagina que hemos construido un robot autónomo inteligente (pero determinista) que puede autorrepararse completamente del entorno. Imagina que es una sonda espacial. No queremos que se apague solo. Como puede cambiar físicamente, también puede cambiar su propia programación. No tenemos control sobre eso una vez que lanzamos la cosa. Existe la posibilidad de que sufra una serie de cambios que hagan que se detenga y se convierta en chatarra espacial.
¿Hay alguna forma de entender la topología de una "trayectoria" de automodificación para poder minimizar el riesgo de parada? Por ejemplo, tal vez haya algún tipo de "atractor" en el que la detención sea rara.
¿O simplemente tenemos que suponer que se aplica la constante Omega de Chaitin, y que hay una probabilidad constante desconocida de que la cosa se detenga?
Actualización: Gracias por los comentarios me hicieron tomar nuevas direcciones. Aquí hay algunos antecedentes adicionales.
- Microsoft tiene un proyecto de investigación activo a lo largo de estas líneas.
Turing demostró que, en general, probar la terminación de un programa es indecidible. Sin embargo, este resultado no excluye la existencia de herramientas de prueba de terminación de programas que funcionen el 99,9 por ciento de del tiempo en programas escritos por humanos. Este es el tipo de herramienta que pretendemos hacer. -Byron Cook, director del proyecto
- Normalmente queremos que los programas se detengan y nos den alguna salida. Pero para el ejemplo que he dado, queremos que se ejecute para siempre. ¿Podemos construir una IA que no se apague espontáneamente con una alta probabilidad, como la de Shannon? La máquina definitiva "? Suponiendo que una civilización sea efectivamente computable (un gran "si", pero es un punto de partida), ¿hay alguna manera de protegerse contra el auto-calentamiento? Peter Suber estudió esta idea, limitada a los sistemas legislativos, y creó el juego Nomic . Paul Krugman da un ejemplo de un gobierno que realmente se auto-aseguró. Mis propios pensamientos sobre esto están en este documento donde asumí que el Omega de Chaitin "gravaría" la probabilidad de supervivencia de cualquier sistema computable. Sin embargo, esto no es muy satisfactorio. Implica que no podemos hacer nada mejor que seleccionar un algoritmo al azar.