En primer lugar, permítanme aclarar la terminología:
Mediante una prueba sintáctica ( $\vdash$ ) nos referimos a una prueba que opera puramente sobre un conjunto de reglas que manipulan cadenas de símbolos, sin hablar de notaciones semánticas como asignación, verdad, modelo o interpretación. Un sistema de prueba sintáctico es aquel que dice, por ejemplo, "Si tienes $A$ escrito en una línea y $B$ en otra línea, entonces puede escribir los símbolos $A \land B$ en una línea inferior". Ejemplos de sistemas de demostración sintáctica son los cálculos de tipo Hilbert, los cálculos secuenciales y la deducción natural en sus diversos sabores o los cuadros de Beth, también conocidos como árboles de verdad.
Mediante una prueba semántica ( $\vDash$ ) nos referimos a una prueba que opera sobre las nociones semánticas del lenguaje, como asignación, verdad, modelo o interpretación. Ejemplos de pruebas semánticas son las tablas de verdad, la presentación de (contra)modelos o argumentos en texto (del tipo "Supongamos $A \to B$ es verdadera. Entonces hay una asignación tal que...").
Además, el término "vinculación" suele entenderse como una noción puramente semántica ( $\vDash$ ), mientras que la contraparte sintáctica ( $\vdash$ ) se denomina normalmente derivabilidad .
(La división " $\vDash$ = semántica/modelos y $\vdash$ = sintaxis/pruebas" es simplificar un poco las cosas semántica de la teoría de la prueba Por ejemplo, argumenta que una semántica puede establecerse en términos de pruebas formales (= "sintácticas") en lugar de sólo por consideraciones teóricas del modelo, pero en aras de esta explicación, mantengamos esta doble distinción más simple).
Lo aclaro porque la forma en que expones las cosas no es del todo exacta:
La vinculación sintáctica significa que hay una prueba utilizando la sintaxis del lenguaje
En cierto modo sí, la sintaxis de una lógica es siempre relevante cuando se habla de nociones como la de vinculación o derivabilidad -- pero la característica crucial que nos hace llamar a esta noción sintáctica no es porque la sintaxis del lenguaje esté implicada en el establecimiento de relaciones de vinculación o derivabilidad sino porque la conjunto de normas que utilizamos es puramente sintáctico, es decir, se limita a operar con cadenas de símbolos sin hacer referencia explícita al significado.
mientras que por otro lado la vinculación semántica no se preocupa por la sintaxis
Eso no es del todo exacto: para establecer el valor de verdad de una fórmula y, por tanto, nociones como validez o vinculación, tenemos que investigar la sintaxis de una fórmula para determinar cualquier valor de verdad. Al fin y al cabo, la verdad se define inductivamente sobre la estructura (= la sintaxis) de las fórmulas: " $[[A \land B]]_v = \text{true iff} [[A]]_v = \text{true and } [[B]]_v = \text{true}...$ " Si no nos importara la sintaxis, no podríamos hablar de semántica.
Ahora a su pregunta real:
¿Por qué deberíamos preocuparnos por las pruebas sintácticas si podemos demostrar semánticamente que los enunciados son verdaderos?
La respuesta corta es: porque las pruebas sintácticas suelen ser mucho más fáciles.
Para la lógica proposicional, el mundo sigue siendo relativamente inocente: Podemos simplemente escribir una tabla de verdad, mirar el valor de verdad de cada fórmula y decidir si se da el caso de que todas las líneas en las que las columnas de todas las premisas tienen un "verdadero" también tienen la columna de la conclusión como "verdadero". Como señalas, este procedimiento explota rápidamente para fórmulas con muchas variables proposicionales, pero sigue siendo un procedimiento determinista que se puede hacer en tiempo finito.
También podríamos presentar una prueba en lenguaje natural argumentando en términos de asignaciones de verdad. Esto puede ser un poco más engorroso, pero podría ser más instructivo, y sigue siendo relativamente manejable para el lenguaje y la interpretación relativamente simples de la lógica proposicional.
Pero las cosas empeoran cuando entramos en la lógica de primer orden. Aquí nos enfrentamos a fórmulas que cuantifican sobre modelos cuyos dominios son potencialmente infinitos. Peor aún, en contraste con la lógica proposicional donde el número de asignaciones es (~= interpretaciones) siempre finito y completamente determinado por el número de variables proposicionales, las estructuras (~= interpretaciones) en las que una fórmula de primer orden puede o no ser verdadera son ilimitadas en tamaño y forma. Es decir, no sólo las estructuras en sí pueden ser infinitas, sino que ahora nos enfrentamos a una cantidad infinita de estructuras en las que nuestras fórmulas pueden ser interpretadas en primer lugar. Escribir simplemente una tabla de verdad ya no funcionará para el lenguaje de la lógica de predicados, por lo que determinar el valor de verdad, y por lo tanto las propiedades y relaciones semánticas como la validez y la vinculación, ya no es un simple procedimiento determinista para la lógica de predicados.
Por tanto, si queremos presentar una prueba semántica, tenemos que recurrir a argumentos sobre las estructuras que satisface o no satisface una fórmula. Aquí es donde entra una interesante dualidad:
-
Para demostrar que
- una meta-afirmación semántica cuantificada existencialmente es verdadera (Por ejemplo "La fórmula $\phi$ es satisfacible", es decir, " Existe un modelo de $\phi$ ) o
- una meta-afirmación semántica universalmente cuantificada es falsa (Por ejemplo $\not \vDash \phi$ La fórmula fórmula $\phi$ no es válido", es decir, " No se trata de que todos los las estructuras satisfacen $\phi$ )
basta con proporcionar un (contra)modelo y ya está: Si encontramos una sola estructura en la que $\phi$ es cierto, entonces sabemos que $\phi$ es satisfacible, y a la inversa, si encontramos una estructura en la que $\phi$ no es cierto entonces ahora que $\phi$ no es válido.
Análogamente, para demostrar que
- una fórmula existencialmente cuantificada del lenguaje de objetos ( $\exists x ...$ ) es verdadera en una estructura o
- una fórmula universalmente cuantificada del lenguaje de objetos ( $\forall x ...$ ) es falso en una estructura,
basta con encontrar un elemento en el dominio de la estructura que proporcione un ejemplo para la fórmula cuantificada existencialmente o, respectivamente, un contraejemplo a la cuantificación universal y ya está.
Sin embargo,
-
para demostrar que
- una meta-afirmación semántica universalmente cuantificada es verdadera (Por ejemplo $\vDash \phi$ La fórmula fórmula $\phi$ es válido", es decir, " Todo las estructuras satisfacen $\phi$ ), o
- una meta-afirmación semántica cuantificada existencialmente es falsa (Por ejemplo "La fórmula $\phi$ es insatisfactible", es decir, " No existe ningún modelo de $\phi$ ),
de repente nos enfrentamos a la difícil tarea de hacer una afirmación sobre todo posibles estructuras. No podemos simplemente enumerarlas, ya que hay ininitadamente muchas, así que lo único que podemos hacer es escribir un texto en lenguaje natural argumentando sobre los posibles valores de verdad de las fórmulas mostrando finalmente que todas las estructuras deben cumplir o no un determinado requisito.
Análogamente, para demostrar que
- una fórmula universalmente cuantificada del lenguaje de objetos ( $\forall x ...$ ) es verdadera en una estructura o
- una fórmula existencialmente cuantificada del lenguaje de objetos ( $\exists x ...$ ) es falso en una estructura,
tenemos que iterar sobre todos los elementos del dominio de la estructura. Si el dominio es finito, tenemos suerte y podemos simplemente pasar por todos los valores posibles (aunque esto puede llevar bastante tiempo si el dominio es lo suficientemente grande), pero si es infinito, no hay manera de que podamos terminar si simplemente comprobamos por fuerza bruta la fórmula de los elementos uno tras otro.
Esta es una situación bastante desagradable, y exactamente el punto en el que las pruebas sintácticas son muy útiles.
Recordemos la definición de vinculación:
$\Gamma \vDash \phi$ si todo interpretaciones que satisfacen todas las fórmulas de $\Gamma$ también satisfacen $\phi$
o de forma equivalente
$\Gamma \vDash \phi$ si no hay interpretación que satisface todas las fórmulas de $\Gamma$ pero no $\phi$ .
Este es precisamente el tipo de cuantificación universal que dificulta las pruebas puramente semánticas: Tendríamos que establecer una prueba sobre la infinidad de todas las estructuras posibles para comprobar si la relación de vinculación semántica se mantiene o no.
Pero ahora mira la definición de derivabilidad sintáctica:
$\Gamma \vdash \phi$ si hay un derivación con premisas de $\Gamma$ y conclusión $\phi$ .
El desagradable cuantificador universal se convirtió de repente en uno existencial. En lugar de tener que discutir sobre todo las posibles estructuras, ahora basta con mostrar sólo un derivación sintáctica y ya está. (Lo mismo ocurre en el caso de que no tengamos ninguna premisa, es decir $\vDash \phi$ (" $\phi$ es válido" = "verdadero en todas las estructuras" vs. $\vdash \phi$ (= " $\phi$ es derivable" = "existe una derivación sin supuestos abiertos y $\phi$ como conclusión). Esta es una enorme ventaja, llámala "superior" si quieres.
Ahora tenemos una especie de disparidad: Para algunas cosas la semántica es difícil mientras que la sintaxis es fácil, así que ¿cómo podemos utilizar esta disparidad para el bien?
Por suerte, en el caso de la lógica clásica, disponemos de solidez y completitud:
Solidez: Si $\Gamma \vdash \phi$ entonces $\Gamma \vDash \phi$ -- si encontramos una derivación sintáctica, entonces sabemos que la vinculación se mantiene semánticamente.
Completo: Si $\Gamma \vDash \phi$ entonces $\Gamma \vdash \phi$ -- si una vinculación semántica se mantiene, entonces podemos encontrar una derivación sintáctica.
Aunque cualquier sistema de derivación razonable será sólido con respecto a la semántica del lenguaje, la completitud es un resultado no trivial y muy poderoso: Si queremos demostrar una vinculación semántica, por completitud sabemos que debe haber una derivación sintáctica, por lo que podemos ir a buscar una de esas derivaciones, y en cuanto lo hagamos, la solidez nos asegura que se trata de una prueba de que la vinculación es semánticamente válida. Por lo tanto, podemos utilizar las pruebas sintácticas para evitar los engorrosos argumentos semánticos que implican la cuantificación meta-lógica sobre todas las estructuras. Esto está muy bien.
Ahora observa cómo se invierten las cosas para el cálculo sintáctico:
- Para demostrar que
- un meta-enunciado sintáctico cuantificado universalmente es verdadero o un meta-enunciado sintáctico cuantificado existencialmente es falso (Por ejemplo $\not \vdash \phi$ La fórmula fórmula $\phi$ es sub-vivible", es decir, " No hay derivación con conclusión $\phi$ "/" Todo intenta encontrar una derivación con conclusión $\phi$ eventualmente fallan)
tendríamos que argumentar sobre todas las posibles pruebas sintácticas, lo que de nuevo puede ser difícil.
Ahora podemos aplicar los resultados de solidez y plenitud en la otra dirección: Si queremos demostrar que una fórmula no es derivable, entonces por contraposición en la completitud sabemos que no es válida (porque si lo fuera, entonces por completitud habría una derivación), así que podemos realizar una prueba semántica proporcionando sólo un contramodelo a la validez de $\phi$ y casi hemos terminado; porque entonces, de nuevo por contraposición a la solidez, podemos estar seguros de que si la fórmula no es válida, no habrá derivación (porque si hubiera una derivación para algo que no es semánticamente válido, nuestro sistema no sería sólido), así que tenemos nuestra prueba de la infravalidez sin necesidad de discutir sobre hipotéticas derivaciones que no pueden existir.
Y es precisamente así como se produce la mencionada dualidad:
--------------------------------------------------------------------------------
semantic syntactic
--------------------------------------------------------------------------------
positive ⊨ ⊢
universal quantif. existential quantif.
("all structures"/ ("there is a derivation"/
"no structure such that not") "not all derivations fail")
=> difficult