Cosas como la de primer orden teorema de completitud y la Löwenheim-Skolem teorema se consideran fundamentales en la lógica matemática.
El enfoque moderno parece ser, por lo general, para interpretar un "modelo" específicamente como un conjunto en algunos otros (normalmente de primer orden) "conjunto de metatheory." Así que cuando hablamos de un modelo de PA, por ejemplo, que por lo general significa que estamos formalizando como una subteoría de algo como de primer orden de ZFC. Modelos de ZFC puede ser formalizado en el conjunto más fuerte de las teorías, tales como los que se obtienen mediante la adición de grandes cardenales, etc.
Pero cuando Gödel demostró que un primer orden de la frase tiene un número finito de prueba, si y sólo si se mantiene en cada "modelo" -- ¿en qué estaba hablando? Del mismo modo, ¿cómo podemos entender la Löwenheim-Skolem teorema de si los modelos no existían en el momento?
Es claro que estos investigadores no estaban hablando sobre el uso de primer orden ZFC como un metatheory, como la teoría ni siquiera ganar popularidad hasta después de Cohen trabajo en forzar en los años 60. Del mismo modo, la teoría de conjuntos NBG todavía no se había formalizado. Y, sin embargo, que, obviamente, estaban hablando acerca de algo. Tenían una idea diferente de la semántica que el moderno conjunto teórico uno?
En el cierre, dos preguntas:
- En general, ¿cómo hicieron los primeros investigadores (digamos pre-Cohen) formalizar semántica de conceptos como estas?
- Tiene cualquiera de estas obras originales sido traducido al inglés, sólo para ver directamente en su forma de tratar la semántica?