Compacidad Lógica

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 181

JOSÉ ALFREDO AMOR MONTAÑO

COMPACIDAD EN LA LÓGICA DE
PRIMER ORDEN Y SU RELACIÓN
CON EL TEOREMA DE COMPLETUD

FACULTAD DE CIENCIAS, UNAM


Compacidad en la lógica de primer orden
y su relación con el Teorema de Completud
2ª edición, 2006
3ª edición, 2013

Diseño de portada: Laura Uribe

© D. R. Universidad Nacional Autónoma de México


Facultad de Ciencias
Circuito exterior s/n. Ciudad Universitaria
México 04510, D. F.
editoriales@ciencias.unam.mx

ISBN 10: 968-36-7540-9


ISBN 13: 978-968-36-7540-8

Impreso y hecho en México


iii

La formalidad rigurosa de la sintaxis


sólo tiene sentido cuando detrás de ella
se encuentra la riqueza creativa de la semántica.
Prefacio

La lógica matemática es una rama más de la matemática moderna, que en


el siglo veinte se desarrolló de una manera sorprendente y está integrada
por cuatro areas: Teorı́a de Modelos, Teorı́a de Conjuntos, Teorı́a de la Recursión
y Teorı́a de la Demostración.
Inicialmente la lógica matemática puede considerarse como un modelo
matemático del razonamiento correcto que al desarrollarse y nutrirse de
la teorı́a intuitiva de los conjuntos y del álgebra universal, dio origen a la
teorı́a de modelos. El Teorema de Compacidad junto con el Teorema de
Completud son la puerta de entrada a la Teorı́a de los Modelos.
Compacidad, etimológicamente significa “calidad de compacto”. En la
lógica matemática significa “la existencia de un modelo para cualquier con-
junto infinito de enunciados cuyos subconjuntos finitos tengan modelo”.
Este poderoso teorema de enormes aplicaciones en la teorı́a de modelos
y en muy diversas ramas de la matemática, puede considerarse, desde el
punto de vista semántico como el teorema fundamental de la lógica ma-
temática. Desde un punto de vista sintáctico tal consideración serı́a para
el Teorema de Completud de Gödel.
El objetivo central de este libro es el estudio del Teorema de Compaci-
dad, sus aplicaciones y su relación con el Teorema de Completud.
El texto puede considerarse como una monografı́a sobre el Teorema de
Compacidad en la Lógica de Primer Orden y su relación con el Teorema
de Completud de Gödel.
En el primer capı́tulo se presentan algunos antecedentes, los conceptos
necesarios y los resultados preliminares. Después, algunas equivalencias
del teorema, su prueba, sus limitaciones y su relación con compacidad
en topologı́a. En el capı́tulo 2 se presentan algunos corolarios y varias
aplicaciones muy interesantes de compacidad en diversas ramas de la ma-
temática, como son el problema de los cuatro colores para mapas infinitos, el lema
de König para árboles infinitos, un modelo no-estandar para la aritmética

v
vi PREFACIO

de los números naturales y un modelo para los números infinitesimales.


Finalmente, en el tercer capı́tulo se presentan algunos resultados de tipo
semántico sobre formas normales de Skolem, los Teoremas de Skolem y
de Herbrand, que permiten dar una demostración semántica del Teorema
de Completud de Gödel en su forma restringida o débil, el cual afirma la
existencia de un sistema formal correcto y completo para la validez univer-
sal. Aquı́ se hace un análisis de los conceptos esenciales relacionados con
sistemas axiomáticos. Finalmente se presenta una prueba semántica para
el Teorema de Completud Extendido de Gödel, el cual afirma la existencia
de un sistema formal correcto y completo para la consecuencia lógica.
Se presenta al final un apéndice con la demostración sintáctica del
Teorema de Completud Extendido, realizada en forma análoga a la de-
mostración semántica del Teorema de Compacidad del capı́tulo primero,
sustituyendo el concepto “S-consistente” (consistencia relativa al sistema
formal S) en lugar del concepto “finitamente satisfacible” (existencia de
un modelo para cada subconjunto finito). De este modo queda explı́cita la
analogı́a entre los dos teoremas.
Aunque el objetivo central es el estudio de la compacidad en la lógica
de primer orden, hay otros objetivos secundarios, pero muy interesan-
tes, como la relación del concepto algebraico de isomorfismo y el con-
cepto lógico de verdad en estructuras algebraico-relacionales, de la cual se
presentan el Teorema del Homomorfismo y varios corolarios interesantes
como: isomorfismo entre estructuras implica equivalencia elemental entre
ellas, Lowenheim-Skolem para la lógica sin identidad, y el hecho de que
la relación de identidad no es axiomatizable o axiomáticamente definible.
Quiero dedicar este libro a mis maestros de lógica matemática: Dr.
Ignacio Jané y Dra. Susana Berestovoy. Agradezco al maestro Francisco
Zubieta Russi por sus enseñanzas; al maestro Gonzalo Zubieta Russi y al
Dr. Raúl Orayen por escucharme y orientarme siempre en mi investigación.
Quiero agradecer también a mis compañeros, los maestros Carlos
Torres, Rafael Rojas, Yolanda Torres, Asunción Preisser y Lourdes Guerre-
ro, ya que juntos iniciamos de modo autodidacta el camino fascinante de
la lógica matemática y juntos hemos descubierto muchas de sus facetas y
sorpresas.
Agradezco a todos mis alumnos de mis cursos de lógica matemática
en la Facultad de Ciencias y en la UAM Iztapalapa de quienes también
yo he aprendido. Un agradecimiento especial merece el Dr. Diego Rojas
Rebolledo por el trabajo de edición de texto en LATEX, ası́ como por sus
vii

valiosas sugerencias.
Para la presente segunda edición (corregida y aumentada) de este li-
bro, conté con los valiosos comentarios y sugerencias del Dr. David Meza
Alcántara a quien agradezco la cuidadosa revisión de una versión prelimi-
nar, lo que ayudo mucho a mejorar el nuevo texto.
En la elaboración en LATEX agradezco la colaboración de Héctor Miguel
Cejudo Camacho quien corrigió las erratas de la edición anterior y capturó
las muchas modificaciones, siendo las principales el complemento sobre
consecuencia lógica de Capı́tulo 1, ası́ como los importantes cambios rea-
lizados en el Capı́tulo 3 donde presento la prueba semántica del Teorema
de Correctud-Completud Extendido de Gödel.
Espero que este libro sea útil como texto para los cursos de lógica
matemática en las escuelas y facultades de ciencias y logre motivar a los
lectores a seguir avanzando en este tema.
José Alfredo Amor.
Contenido

Prefacio v

Introducción xi

1 El Teorema de Compacidad para la Lógica de Primer Orden 1


1.1 Antecedentes . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.1 Conceptos y resultados preliminares . . . . . . . . . . 1
1.1.2 Consecuencia lógica . . . . . . . . . . . . . . . . . . . 17
1.1.3 Relaciones entre estructuras . . . . . . . . . . . . . . . 20
1.2 Equivalencias del Teorema de Compacidad . . . . . . . . . . 29
1.3 Prueba del Teorema de Compacidad . . . . . . . . . . . . . . 32
1.3.1 El Teorema de Compacidad . . . . . . . . . . . . . . . 32
1.3.2 Limitaciones del Teorema de Compacidad . . . . . . 40
1.4 ¿Por qué el Teorema de Compacidad en la lógica de primer
orden, se llama “de compacidad”? . . . . . . . . . . . . . . . 42

2 Aplicaciones del Teorema de Compacidad 49


2.1 El Teorema de Lowenheim-Skolem . . . . . . . . . . . . . . . 49
2.2 El problema de los cuatro colores para mapas infinitos . . . 51
2.3 Todo conjunto es totalmente ordenable . . . . . . . . . . . . . 54
2.4 El Lema de Infinitud de König . . . . . . . . . . . . . . . . . . 58
2.5 Un modelo no estándar para la teorı́a de los números naturales 62
2.6 Reivindicación de los infinitesimales . . . . . . . . . . . . . . 64
2.6.1 Un modelo para la teorı́a de los números reales, con
números infinitesimales . . . . . . . . . . . . . . . . . 66
2.6.2 Método general para demostrar propiedades de una
relación ∗ R u operación ∗ f : principio de transferencia. 71

ix
x CONTENIDO

2.6.3 Finitos, infinitos e infinitesimales. Estándar y no-


estándar . . . . . . . . . . . . . . . . . . . . . . . . . . 73
2.6.4 Propiedades algebraicas . . . . . . . . . . . . . . . . . 74

3 El Teorema de Completud de Gödel y su relación con el Teorema de Com-


pacidad 77
3.1 Teoremas de equivalencia y formas normales prenex . . . . . 78
3.2 Skolemización. Teoremas de Skolem y de Herbrand . . . . . 86
3.3 Sistemas axiomáticos . . . . . . . . . . . . . . . . . . . . . . . 104
3.4 Resultados metalógicos . . . . . . . . . . . . . . . . . . . . . . 114
3.5 Una prueba semántica del Teorema de Correctud-Comple-
tud Extendido . . . . . . . . . . . . . . . . . . . . . . . . . . . 119

A Prueba Sintáctica del Teorema de Completud-Correctud Extendido de


Gödel 139
A.1 Teorema de Correctud-Completud para Lρ . . . . . . . . . . 139
A.2 Prerrequisitos sintácticos . . . . . . . . . . . . . . . . . . . . . 147
A.3 Demostración de la versión A del Teorema de Completud-
Correctud . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152
A.3.1 Sublemas sobre constantes (para el Lema 2) . . . . . . 157
Introducción

La primera noticia que tenemos del Teorema de Compacidad, data de


1930, cuando Kurt Gödel lo presentó junto con el Teorema de Completud
en su tesis doctoral, en la Universidad de Viena, aunque esta presentación
fue para lenguajes contables. Después, en 1936, el teorema, fue presentado
implı́citamente, para lenguajes incontables, en un artı́culo de Anatolii Mal-
cev; su prueba utiliza funciones de Skolem y el Teorema de Compacidad
para la Lógica de Enunciados; más tarde, el mismo Malcev en un artı́culo
de 1941 dió una presentación explı́cita del mismo teorema, para lenguajes
incontables y es al parecer la primera vez que se hacı́a. Como muchos
otros resultados matemáticos, existen diferentes pruebas de este teorema,
como la ya clásica, de León Henkin [Malitz], y otras que utilizan resultados
más fuertes, como la prueba del Teorema de Compacidad, que hace uso de
ultraproductos [Bell & Slomson], debida a Morel, Scott y Tarski (1958).
La prueba del Teorema de Compacidad que aquı́ veremos se hará utili-
zando exclusivamente métodos semánticos y no como usualmente se pre-
senta en muchos libros clásicos de Lógica, en los que se obtiene el Teorema
de Compacidad como corolario del Teorema de Completud Extendido de
Gödel. El procedimiento que seguiremos para la prueba se basa en el
método de Henkin, para expandir universos, que es una técnica usual en
Lógica Matemática. A diferencia de la prueba original de Gödel, la prueba
de Henkin se generaliza fácilmente a lenguajes de cualquier cardinalidad.
Supondré algunos conocimientos y resultados básicos de la Teorı́a de
Conjuntos, que pueden verse en [Amor 2005] y en los capı́tulos introduc-
torios de [Enderton] y de [Mendelson 1987].

xi
Capı́tulo 1

El Teorema de Compacidad para la Lógica de Pri-


mer Orden

1.1 Antecedentes
1.1.1 Conceptos y resultados preliminares
Lenguajes de primer orden y su semántica

Definición 1.1. Un tipo o signatura es un conjunto ρ de sı́mbolos, de la


siguiente forma: [ [
ρ = [ Rn ] ∪ [ Fm ] ∪ C,
1≤n 1≤m

donde Rn es un conjunto de sı́mbolos relacionales de aridad n, Fm es un


conjunto de sı́mbolos funcionales de aridad m y C un conjunto de sı́mbolos
de constante.

La palabra “aridad” denota el número de argumentos de la relación o


función en cuestión, ya que los sı́mbolos relacionales y funcionales sólo
adquieren sentido cuando se asocia alguna semántica o interpretación al
tipo. Ası́, los sı́mbolos relacionales, funcionales y constantes del tipo se
interpretarán respectivamente, como relaciones, funciones y elementos dis-
tinguidos en un universo de interpretación. Supondremos que un sı́mbolo
no es una sucesión de sı́mbolos.
Para expresarnos en la lógica de primer orden, requerimos de un len-
guaje formal de primer orden de algún tipo ρ. Utilizamos el adjetivo de

1
2 [Cap. 1.] EL TEOREMA DE COMPACIDAD PARA...

primer orden, para indicar que los predicados se aplican únicamente a in-
dividuos, y que la cuantificación es únicamente sobre individuos. Esto
permite distinguirlos de aquellos lenguajes en los que hay predicados que
tienen a otros predicados como argumentos o en los cuales, se permite
cuantificación sobre predicados o funciones, a éstos últimos se les deno-
mina lenguajes de orden superior.

Definición 1.2. Sı́mbolos de un lenguaje de primer orden de tipo ρ. Los sı́mbolos


para construir expresiones de un lenguaje de tipo ρ y al que denotaremos
con Lρ , son los siguientes:

i) v0 , v1 , . . . , vn , vn+1 , . . . variables individuales.

ii) (, ), ,. sı́mbolos auxiliares.

iii) ¬, ∨. conectivos proposicionales.

iv) ≈. sı́mbolo de igualdad.

v) ∃. cuantificador existencial.

vi) Los sı́mbolos de ρ. todos los sı́mbolos de ρ.

A los sı́mbolos de i) a v) les daremos una interpretación canónica y


les llamamos sı́mbolos lógicos; a los sı́mbolos de vi), les daremos una
interpretación variable y les llamamos sı́mbolos no-lógicos; de ahı́ que sea
ρ el que determine el tipo de lenguaje y el nombre del lenguaje de tipo ρ
de primer orden: Lρ . El lenguaje con el que hablamos acerca del lenguaje
formal, en este caso español más algunas expresiones nuevas, recibe el
nombre de metalenguaje. Ası́, nuestras definiciones y afirmaciones acerca
del lenguaje formal, están dadas en el metalenguaje.

Definición 1.3. Sea ρ un tipo. Una expresión de tipo ρ o ρ-expresión, es una


sucesión finita de sı́mbolos de Lρ .

Definición 1.4. El conjunto de los términos de tipo ρ o ρ-términos, es el menor


conjunto X de ρ-expresiones, tal que:
i) {vi : 0 ≤ i} ∪ C ⊆ X, donde C ⊆ ρ, es el conjunto de constantes de ρ.
1.1 ANTECEDENTES 3

ii) Si f ∈ Fm ⊆ ρ, 1 ≤ m y t1 , . . . , tm ∈ X, entonces f (t1 , . . . , tm ) ∈ X.


Un término de tipo ρ es un elemento del conjunto de los términos de tipo ρ.

Definición 1.5. Una ρ-fórmula atómica es una expresión de la forma:


(t1 ≈ t2 ) o P(t1 , . . . , tn ), donde t1 , . . . , tn son ρ-términos y P ∈ Rn ⊆ ρ.

Definición 1.6. El conjunto de las fórmulas de tipo ρ, es el menor conjunto X


de ρ-expresiones, tal que:
i) {α : α es una ρ − fórmula atómica} ⊆ X
ii) Si α y β están en X, entonces (¬α), (α ∨ β) ∈ X.
iii) Si α ∈ X y vi ∈ Var = {vi : 0 ≤ i}, entonces (∃vi α) ∈ X.
Una ρ-fórmula es un elemento del conjunto de las fórmulas de tipo ρ.

Observaciones: 1.- En la definición 1.4, t1 , . . . , tm se usan como variables del


metalenguaje o metavariables que varı́an sobre los términos del lenguaje
formal y en la definición 1.6, α y β se utilizan como metavariables, que
representan cualquier ρ- fórmula de un Lρ .
2.- Las definiciones de términos y de fórmulas dadas anteriormente fueron
hechas de modo recursivo, forma válida en Lógica Matemática, justificada
por un teorema general de recursión, véase [5].

Definición 1.7. Adoptaremos las usuales abreviaturas siguientes:


i) (α ∧ β), como abreviatura de ¬((¬α) ∨ (¬β)).
ii) (α → β), como abreviatura de ((¬α) ∨ β).
iii) (α ↔ β), como abreviatura de ((¬α) ∨ β) ∧ (α ∨ (¬β)).
iv) (∀vi α), como abreviatura de (¬(∃vi (¬α))).

Definición 1.8. Una ρ-interpretación o ρ-estructura para un lenguaje Lρ , es un


par A = hA, Ii, donde:
i) A , ∅ (A conjunto no vacı́o es el universo o dominio de A).
m n
S
ii) I : ρ → A ∪ { f : A → A, 1 ≤ m} ∪ [ {P(A ) : 1 ≤ n}].
(donde P(An ) denota el conjunto potencia de An ), y tal que para cualquier
x ∈ ρ:
Si x ∈ Rn , I(x) = xA ⊆ An .
Si x ∈ Fm , I(x) = xA : Am → A.
4 [Cap. 1.] EL TEOREMA DE COMPACIDAD PARA...

Si x ∈ C, I(x) = xA ∈ A.
I es la función interpretación de A sobre el universo A.

Usualmente si ρ = {x1 , . . . , xn }, denotaremos a la estructura A = hA, Ii


como sigue:
A = hA, xA1 , . . . , xAn i.

Ejemplo:
Si ρ = {P2 , f1 , f2,1 , f2,2 , c0 }, donde P2 ∈ R2 ; f1 ∈ F1 ; f2,1 , f2,2 ∈ F2 y c0 ∈ C (una
constante). Entonces una interpretación posible para Lρ es:

B = hN, PB B B B B
2 , f1 , f2,1 , f2,2 , co i = hN, ≤, s, +, ·, 0i.

Si A = hA, Ii es una ρ-estructura, su tipo (denotado ρ(A)) es precisamente

el dominio de I, la función de interpretación de A, usualmente, cuando no


haya confusión escribiremos simplemente A, para denotar el dominio o
universo de A, B para el universo de B, C para el universo de C, etc.

Verdad en estructuras (Tarski, 1936)

Definición 1.9. Sea A una ρ-estructura. Una asignación S, para A, es una


función S : N → A, es decir, una sucesión de elementos de A. Notación:
N
S∈ A = { f : N → A}.

Una asignación S se conoce también como estado de las variables ya que


intuitivamente cada i ∈ N se corresponde con la variable xi y cada Si con
el valor o estado asociado a xi

Observaciones:
1.- Dada la asignación S, S(i/a) denota la nueva asignación tal que
S , si n , i;

S(i/a)(n) = n
a , si n = i.
2.- [S(i/a)](j/b), se denota S(i/a, j/b).
3.- S(i/a, j/b) = S( j/b, i/a), si i , j.
4.- S(i/a, j/b) = S( j/b) = S(i/b), si i = j.
1.1 ANTECEDENTES 5

Definición 1.10. La interpretación (o denotación) de un término t, bajo una


asignación S, en una estructura A, lo que denotaremos mediante tA [S], será
un elemento de A, tA [S] ∈ A, definido ası́:
i) Si t = vi , tA [S] = vAi [S] = Si .
ii) Si t = c, tA [S] = cA [S] = cA .
iii) Si t = f (t1 , . . . , tn ),
tA [S] = ( f (t1 , . . . , tn ))A [S] = f A (tA1 [S], . . . , tAn [S]).

Definición 1.11. Dada una ρ-estructura A, una asignación S ∈ N A, y una


ρ-fórmula α, definimos la relación: S satisface a la fórmula α en la estructura
A, lo que denotamos A |= α[S], de la siguiente manera:
i) A |= (t1 ≈ t2 ) [S] sii tA1 [S] = tA2 [S]
ii) A |= P(t1 , . . . , tn ) [S] sii htA1 [S], . . . , tAn [S]i ∈ PA ,
iii) A |= (¬α)[S] sii A 6|= α[S],
iv) A |= (α ∨ β)[S] sii A |= α[S] o A |= β[S],
v) A |= (∃vi α)[S] sii hay a ∈ A, tal que A |= α[S(i/a)].

Observaciones:
1.- Con “sii”, abreviamos “si y sólo si”.
2.- Para decir que la asignación S no satisface a la fórmula α en la estructura
A, escribiremos:
A 6|= α[S].
Definición 1.12. (Verdad en una estructura)

i) Una fórmula α, es verdadera en una estructura A, sii A |= α[S], para toda


S ∈ N A. Y denotamos este hecho como sigue:

A |= α.

En el caso anterior también diremos que A es un modelo de α.


ii) Diremos que una fórmula α es falsa en una estructura A sii A |= ¬α.
iii) Una interpretación A es un modelo para un conjunto Σ de fórmulas sii
toda fórmula de Σ es verdadera en A.

Debemos observar que si una fórmula no es verdadera en una estructura


A, no necesariamente es falsa en A, pues puede ser el caso de que unas
sucesiones la satisfagan, mientras otras no, en A.
6 [Cap. 1.] EL TEOREMA DE COMPACIDAD PARA...

Definición 1.13. (Validez Universal o Validez Lógica).


Diremos que una ρ-fórmula α, es universalmente válida o lógicamente válida
sii A |= α, para toda ρ-estructura A. Y denotaremos este hecho como sigue:

|= α.

Más adelante presentamos ejemplos variados de fórmulas universalmente

válidas.

Definición 1.14. La noción “una presencia de la variable v aparece libre en


la fórmula α”, se define por recursión como sigue:

i) v aparece libre en α atómica sii v aparece en α,

ii) v aparece libre en (¬α) sii v aparece libre en α,

iii) v aparece libre en (α ∨ β) sii v aparece libre en α o v aparece libre en β,

iv) v aparece libre en (∃vi α) sii v aparece libre en α y v , vi .

Definición 1.15. Un ρ-enunciado es una ρ-fórmula en la cual no aparecen


variables libres.

Proposición 1.1. Sea t un ρ-término cualquiera, α una ρ-fórmula cualquiera, S


y S′ dos asignaciones en una ρ- estructura cualquiera A.
a) Si Si = S′i para toda i , tal que vi aparece en t, entonces:

tA [S] = tA [S′ ].

b) Si Si = S′i para toda i , tal que vi aparece libre en α, entonces:

A |= α[S] sii A |= α[S′ ].

Las demostraciones se hacen por inducción sobre la formación de términos y


fórmulas, respectivamente y se dejan como ejercicio.

1.1 ANTECEDENTES 7

Corolario 1.1.1. Sea φ un ρ-enunciado cualquiera y A una ρ- estructura cual-


quiera, entonces:
a) Para cualesquiera S, S′ ∈ N A, A |= φ[S] sii A |= φ[S′ ].
b) A |= φ sii hay S ∈ N A tal que A |= φ[S].
c) A |= φ o A |= (¬φ).
(Es decir, φ es verdadera en A o (¬φ) es verdadera en A).
Es decir, φ es verdadera o falsa en A, en caso de ser enunciado.

Es importante en una fórmula poder sustituir un término por otro, tanto


por comodidad como por conveniencia, sin embargo, tales sustituciones
no se pueden hacer arbitrariamente, pues pueden cambiar el sentido de la
expresión, por ello reglamentaremos las sustituciones.

Definición 1.16. Sean t0 , t ρ-términos, sean además v una variable y α una


ρ-fórmula, definiremos por recursión: (t0 )vt que se lee “la sustitución de t
en lugar de cada presencia libre de la variable v en t0 ”, y (α)vt que se lee
“la sustitución de t en lugar de cada presencia libre de la variable v en α”,
como sigue:
a) Para términos tenemos, (recursivamente)
t, si v = vi ;

v
Si t0 = vi , (vi )t =
vi , si v , vi .
Si t0 = c, (c)vt = c.
Si t0 = f (t1 , . . . , tn ), ( f (t1 , . . . , tn ))vt = f ((t1 )vt , . . . , (tn )vt ).
b) Para fórmulas tenemos, (recursivamente)
i) Atómicas
(t1 ≈ t2 )vt = ((t1 )vt ≈ (t2 )vt ),
(P(t1 , . . . , tn ))vt = P((t1 )vt , . . . , (tn )vt ).
ii) Fórmulas compuestas
(¬α)vt = ¬((α)vt ),
(α ∨ β)vt = ((α)vt ∨ (β)vt ),
(∃vi α) , si v = vi ;


v
v

(∃vi α)t =  ∃v ((α) ) , si v , vi y vi no aparece en t o v no aparece libre en α;

i t
 vi v
∃z((α)z )t ), si v , vi y vi aparece en t y v aparece libre en α.

(Donde z es la primera nueva variable z , v que no aparece en (∃vi α), ni en
t). Observar que si v no aparece libre en α, entonces (α)vt = α para cualquier
α y cualquier t; por inducción sobre α.
8 [Cap. 1.] EL TEOREMA DE COMPACIDAD PARA...

Ejemplo: Consideremos la siguiente fórmula: (∃w¬(w ≈ v))vf (c,w) , donde


w, v son variables y f (c, w) un término. Entonces, como v aparece libre
en la fórmula, v , w y w aparece en el término, por definición la fórmula
anterior es igual a:
∃z(¬(w ≈ v)wz )vf (c,w) ,
considerando que la fórmula ¬(w ≈ v)wz es por definición: ¬(z ≈ v), tenemos
que la fórmula resultante es:

∃z¬(z ≈ v)vf (c,w) ,

ya que v aparece libre en la fórmula y z no aparece en f (c, w), la fórmula


final es:
∃z¬(z ≈ f (c, w)).
Observación:

y
En otros textos de lógica matemática se define (α)t de modo diferente para
el caso existencial, ya que se pide que vi no aparezca en t. Esta petición
se conoce como: “x es libre para t en α” o como “(α)vt es admisible”. Con
nuestra definición cualquier sustitución es admisible y sin restricciones.

Teorema 1.2. (Teorema de Sustitución)


Sean t, t0 ρ-términos, α una ρ-fórmula, A una ρ-estructura y S una asignación
S ∈ N A, entonces:

1) tA0 [S(i/tA [S])] = ((t0 )vt i )A [S].

2) A |= α[S(i/tA [S])] sii A |= (α)vt i [S].

Informalmente, este teorema afirma que la sustitución de objetos en la


interpretación, se corresponde con la sustitución de sı́mbolos en el lenguaje.
Demostración:
1) (Indución sobre la formación de términos.) Con H.I. abreviamos Hipó-
tesis Inductiva.
vA [S] = ((vn )vt i )A [S], si i , n; ∗
(
i) vn [S(i/t [S])] = An
A A
t [S] = ((vn )vt i )A [S] , si i = n.
[∗ Por Proposición 1 y por definición 1.16 a).]
1.1 ANTECEDENTES 9

ii) cA [S(i/tA [S])] = cA [S] = ((c)vt i )A [S].


iii) ( f (t1 , . . . , tn ))A [S(i/tA [S])] =
= f A (tA1 [S(i/tA [S])], . . . , tAn [S(i/tA [S])]), . . . def. de interp. de términos.
= f A (((t1 )vt i )A [S], . . . , ((tn )vt i )A [S]), . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . H.I.
= ( f ((t1 )vt i , . . . , (tn )vt i ))A [S], . . . . . . . . . . . . . . . . . def. de interp. de términos.
= (( f (t1 , . . . , tn ))vt i )A [S], . . . . . . . . . . . . . . . . . . . . . . . . . . . def. de sustitución.
2) Por inducción sobre el número de sı́mbolos de la fórmula α. Probamos
2) para fórmulas de n sı́mbolos, suponiendo su verdad para fórmulas con
menos de n sı́mbolos.
i) A |= (t1 ≈ t2 ) [S(i/tA [S])]
sii tA1 [S(i/tA [S])] = tA2 [S(i/tA [S])], . . . . . . . . . . . . . . . def. de satisfacción,
sii ((t1 )vt i )A [S] = ((t2 )vt i )A [S], . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . por 1),
sii A |= ((t1 )vt i ≈ (t2 )vt i ) [S], . . . . . . . . . . . . . . . . . . . . . . . . . def. de satisfacción,
sii A |= (t1 ≈ t2 )vt i [S], . . . . . . . . . . . . . . . . . . . . . . . . . . . . . def. de sustitución.
ii) A |= P(t1 , . . . , tn ) [S(i/tA [S])]
sii htA1 [S(i/tA [S])], . . . , tAn [S(i/tA [S])]i ∈ PA , . . . . . . def. de satisfacción,
sii h((t1 )vt i )A [S], . . . , ((tn )vt i )A [S]i ∈ PA , . . . . . . . . . . . . . . . . . . . . . . . . . . por 1),
sii A |= P((t1 )vt i , . . . , (tn )vt i )[S], . . . . . . . . . . . . . . . . . . . . . . def. de satisfacción,
sii A |= (P(t1 , . . . , tn ))vt i [S], . . . . . . . . . . . . . . . . . . . . . . . . def. de sustitución.
iii) A |= (¬α) [S(i/tA [S])]
sii A 6|= α [S(i/tA [S])], . . . . . . . . . . . . . . . . . . . . . . . . . . . . def. de satisfacción,
sii A 6|= (α)vt i [S], . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . H.I.,
sii A |= ¬(α)vt i [S], . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . def. de satisfacción,
sii A |= (¬α)vt i [S], . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . def. de sustitución.
iv) A |= (α ∨ β) [S(i/tA [S])]
sii A |= α [S(i/tA [S])] o A |= β [S(i/tA [S])], . . . . . . . def. de satisfacción,
sii A |= (α)vt i [S] o A |= (β)vt i [S], . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . H.I,
sii A |= ((α)vt i ∨ (β)vt i ) [S], . . . . . . . . . . . . . . . . . . . . . . . . . . def. de satisfacción,
sii A |= (α ∨ β)vt i [S], . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . def. de sustitución,
v) A |= (∃vn α) [S(i/tA [S])] sii A |= (∃vn α)vt i [S]
Existen tres casos según la definición de sustitución:
Caso 1) vi no está libre en (∃vn α):
A |= (∃vn α) [S(i/tA [S])]
sii A |= (∃vn α) [S], . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . por Proposición 1,
10 [Cap. 1.] EL TEOREMA DE COMPACIDAD PARA...

sii A |= (∃vn α)vt i [S], . . . . . . . . . . . . . . . . . . . . . . . . . ya que (∃vn α)vt i = (∃vn α).


Caso 2) vi está libre en (∃vn α) (entonces i , n) y vn no aparece en t.
A |= (∃vn α) [S(i/tA [S])]
sii hay a ∈ A, tal que A |= α [S(i/tA [S], n/a)], . . . . . . . . . def. satisfacción,
sii hay a ∈ A, tal que A |= α [S(n/a, i/tA [S])], . . . . . . . . . . . . . . . . . . . . . . . . . ∗
sii hay a ∈ A, tal que A |= α [S(n/a, i/tA [S(n/a)])], . . . . . . . . . . . . . . . . . . . ∗∗
sii hay a ∈ A, tal que A |= (α)vt i [S(n/a)], . . . . . . . . . . . . H.I. con S = S(n/a),
sii A |= (∃vn (α)vt i ) [S], . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . def. satisfacción,
sii A |= (∃vn α)vt i [S], . . . . . . . . . . . . . . . . . . . def. de sustitución, pues i , n.
[∗ Observación 3 de la definición 1.9 con i , n.]
[∗∗ Como vn no aparece en t, tA [S] = tA [S(n/a)], por la Proposición 1.]
Caso 3) vi está libre en (∃vn α) (entonces i , n) y vn sı́ aparece en t. Sea k el
menor entero positivo tal que vk no aparece en (∃vn α) ni en t; ası́, k , n y
k , i.
A |= (∃vn α) [S(i/tA [S])]
sii hay a ∈ A, tal que A |= α [S(i/tA [S], n/a)], . . . . . . . . . def. satisfacción,
sii hay a ∈ A, tal que A |= α [S(i/tA [S], n/a, k/a)], . . . . . . . . . . . . . . . . . . . . ∗ 1,
sii hay a ∈ A, tal que A |= α [S(i/tA [S], k/a, n/a)], . . . . . . . . . . . . . . . . . . . . ∗ 2,
sii hay a ∈ A, tal que A |= α [S(i/tA [S], k/a, n/vAk [S(i/tA [S], k/a)])],
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . pues vAk [S(i/tA [S], k/a)] = a,
sii hay a ∈ A, tal que A |= (α)vvnk [S(i/tA [S], k/a)],
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . H.I. con S = S(i/tA [S], k/a),
sii hay a ∈ A, tal que A |= (α)vvnk [S(k/a, i/tA [S])], . . . . . . . . . . . . . . . . . . . . . ∗ 3,
sii hay a ∈ A, tal que A |= (α)vvnk [S(k/a, i/tA [S(k/a)])], . . . . . . . . . . . . . . . . ∗ 4,
sii hay a ∈ A, tal que A |= ((α)vvnk )vt i [S(k/a)], . . . . . por H.I. con S = S[k/a],
sii A |= (∃vk ((α)vvnk )vt i [S], . . . . . . . . . . . . . . . . . . . . definición de satisfacción,
sii A |= (∃vn α)vt i [S], . . . . . . . . . . . . . . . . . . . def. de sustitución en el caso 3.
[∗ 1 Proposición 1, pues vk no aparece en α.

2 Observación 3 de la definición de 1.9, con k , n.

3 Observación 3 de la definición de 1.9, con i , k.

4 Proposición 1, pues vk no aparece en t, entonces: tA [S] = tA [S(k/a)].]
Observe que α y (α)vvnk , poseen el mismo número de sı́mbolos, lo cual
justifica el segundo paso inductivo (sólo para este caso, es que nuestra
inducción es sobre el número de sı́mbolos que aparece n en las fórmulas,
en vez de ser sobre la construcción de las fórmulas, pues α y (α)vvnk son
fórmulas distintas, pero con el mismo número de sı́mbolos. ⋄
1.1 ANTECEDENTES 11

Corolario 1.2.1. Si hay un ρ-término t, tal que A |= (α)vt i [S], entonces


A |= (∃vi α) [S].

Demostración: Sea t tal que A |= (α)vt i [S]; por el teorema de sustitución


tenemos que A |= α [S(i/tA [S])]. Sea a = tA [S] ∈ A, luego hay a ∈ A, tal
que A |= α [S(i/a)] y por definición de satisfacción A |= (∃vi α) [S]. ⋄

Corolario 1.2.2. Para cualquier ρ-término t,

|= [(∀vi α) → (α)vt i ].

Demostración: Sean A, ρ-estructura y S ∈ N A; supongamos que A |=


(∀vi α) [S], esto es, A 6|= (∃vi ¬α) [S], por abreviatura de ∀; luego por el
Corolario 2.1, para cada ρ-término t, A 6|= (¬α)vt i [S], ası́ por definición de
sustitución y de satisfacción, para cualquier ρ-término t, A |= (α)vt i [S]. ⋄

En las siguientes páginas presentamos muchos ejemplos de fórmulas


universalmente válidas clasificadas según su forma.

Ejercicios: Sean φ, γ1 , . . . , γm , γ fórmulas cualesquiera. En lo que sigue el


sı́mbolo “⇔” denota la relación “si y sólo si” del metalenguaje.
1.- |= φ ⇔|= (∀xφ).
2.- |= φ ⇔|= (∀φ), donde ∀φ denota la cuantificación universal de todas
las posibles variables que ocurren libres en φ.
3.- |= φ ⇔ ((¬φ) es no satisfacible) (es decir, no hay interpretación ni
asignación que la satisfagan).
4.- φ es satisfacible ⇔ (∃xφ) es satisfacible.
5.- φ es satisfacible ⇔ (∃φ) es satisfacible, donde ∃φ denota cuantifi-
cación existencial de todas las posibles variables que ocurren libres en φ.

Presentamos enseguida algunos ejemplos clasificados de fórmulas uni-


versalmente válidas cuya verdad depende únicamente de los criterios de
verdad de los conectivos, las que son generalmente conocidas como tau-
tologı́as. También incluimos el nombre con el que se conocen. En lo que
sigue, α, β, γ, son fórmulas cualesquiera de un lenguaje de primer orden.
12 [Cap. 1.] EL TEOREMA DE COMPACIDAD PARA...

A. Leyes Clásicas
1.- α ↔ α . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Identidad
2.- ¬(α ∧ ¬α) . . . . . . . . . . . . . . . . . . . . . . . . . . . . No Contradicción
3.- α ∨ ¬α . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Tercero Excluido
B. Asociatividad y Conmutatividad
1.- (α ∧ β) ∧ γ ↔ α ∧ (β ∧ γ)
2.- (α ∨ β) ∨ γ ↔ α ∨ (β ∨ γ)
3.- ((α ↔ β) ↔ γ) ↔ (α ↔ (β ↔ γ))
4.- (α ∧ β) ↔ (β ∧ α)
5.- (α ∨ β) ↔ (β ∨ α)
6.- (α ↔ β) ↔ (β ↔ α)
C. Leyes de Negación
1.- ¬¬α ↔ α . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Doble Negación
2.- ¬(α ∨ β) ↔ (¬α ∧ ¬β) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ∗
3.- ¬(α ∧ β) ↔ (¬α ∨ ¬β) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ∗
4.- ¬(α → β) ↔ (α ∧ ¬β)
5.- ¬(α ↔ β) ↔ (α ∧ ¬β) ∨ (β ∧ ¬α)

[De Morgan o Dualidad.]
D. Leyes de Simplificación
1.- α ∨ α ↔ α . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Idempotencia
2.- α ∧ α ↔ α . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Idempotencia
3.- α ∧ (α ∨ β) ↔ α . . . . . . . . . . . . . . . . . . . . . . . . . . . Eliminación
4.- α ∨ (α ∧ β) ↔ α . . . . . . . . . . . . . . . . . . . . . . . . . . . Eliminación
5.- α ∧ (β ∨ ¬β) ↔ α . . . . . . . . . . . . . . . . . . . . . . . . . . . . Absorción
6.- α ∧ (β ∧ ¬β) ↔ (β ∧ ¬β) . . . . . . . . . . . . . . . . . . . . . Absorción
7.- α ∨ (β ∧ ¬β) ↔ α . . . . . . . . . . . . . . . . . . . . . . . . . . . . Absorción
8.- α ∨ (β ∨ ¬β) ↔ (β ∨ ¬β) . . . . . . . . . . . . . . . . . . . . . Absorción
9.- (α ∨ β) ∧ (α ∨ ¬β) ↔ α . . . . . . . . . . . . . . . . . . Simplificación
10.- (α ∧ β) ∨ (α ∧ ¬β) ↔ α . . . . . . . . . . . . . . . . . Simplificación
E. Distributividad-Factorización
1.- α ∨ (β ∧ γ) ↔ (α ∨ β) ∧ (α ∨ γ)
2.- α ∧ (β ∨ γ) ↔ (α ∧ β) ∨ (α ∧ γ)
3.- [α → (β ∨ γ)] ↔ [(α → β) ∨ (α → γ)]
4.- [α → (β ∧ γ)] ↔ [(α → β) ∧ (α → γ)]
5.- [α ∨ (β → γ)] ↔ [(α ∨ β) → (α ∨ γ)]
6.- [α ∧ (β → γ)] → [(α ∧ β) → (α ∧ γ)]
1.1 ANTECEDENTES 13

7.- [(α ∨ β) → γ] ↔ [(α → γ) ∧ (β → γ)]


8.- [(α ∧ β) → γ] ↔ [(α → γ) ∨ (β → γ)]

F. Exportación-Importación
1.- [(α ∧ β) → γ] ↔ [α → (β → γ)]
2.- [α ∧ (β → γ)] → [(α ∧ β) → γ)]
3.- [α ∧ (α ∧ β → γ)] → [β → γ)]
4.- [α ∧ (β → γ)] → [β → (α ∧ γ)]
5.- [α ∨ (β → γ)] → [β → (α ∨ γ)]

G. Leyes de la Implicación
1.- (α → β) ↔ (¬α ∨ β)
2.- (α → β) ↔ ¬(α ∧ ¬β)
3.- (α → β) ↔ (¬β → ¬α) . . . . . . . . . . . . . . . . . . . . Contrapuesta
4.- [α → (β → γ)] ↔ [β → (α → γ)] . . . . . . . . . . . . . . . . . . . . . . . ∗
5.- α → (β → α) . . . . . . . . . . . . . . . Afirmación del antecedente
6.- (¬α → α) → α . . . . . . . . . . . . . . . . . . Consecuentia Mirabilis
7.- ¬α → (α → β) . . . . . . . . . . . . . . . . . . . Ley de Contradicción
8.- (α → β) ↔ (α → α ∧ β) . . . . . . . . . . . . . . . . . . . . . . Expansión
9.- (α → β) ↔ (α ∨ β → β) . . . . . . . . . . . . . . . . . . . . . . Expansión

[Intercambio de premisas]

H. Leyes del Bicondicional


1.- (α ↔ β) ↔ [(α → β) ∧ (β → α)]
2.- (α ↔ β) ↔ [(¬α ∨ β) ∧ (α ∨ ¬β)]
3.- (α ↔ β) ↔ [(α ∧ β) ∨ (¬α ∧ ¬β)]
4.- (α ↔ β) ↔ (¬α ↔ ¬β)
5.- (α ↔ β) ↔ ¬(α ∧ ¬β) ∧ ¬(β ∧ ¬α)
14 [Cap. 1.] EL TEOREMA DE COMPACIDAD PARA...

Presentamos ahora algunas fórmulas universalmente válidas, que son


tautologı́as, de la forma α → γ o [α ∧ β] → γ, o en general de la forma
[α1 ∧ . . . ∧ αn ] → γ, y que corresponden a argumentos correctos o válidos
o bien a las llamadas reglas de inferencia usuales (véase Capı́tulo 3). En lo
que sigue, α, β, γ, δ, αi , α j , βi , denotan fórmulas cualesquiera de un lenguaje
de primer orden.
1.- [(α → β) ∧ α] → β . . . . . . . . . . . . . . . . . . . . . . Modus Ponens.
2.- [(α → β) ∧ ¬β] → ¬α . . . . . . . . . . . . . . . . . . . Modus Tollens.
3.- [(α ∨ β) ∧ ¬α] → β . . . . . . . . . . . . . . Silogismo Disyuntivo.
[(α ∨ β) ∧ ¬β] → α . . . . . . . . . . . . . . Silogismo Disyuntivo.
4.- [(α → β) ∧ (β → γ)] → (α → γ) . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . .Silogismo hipotético, o transitividad de la implicación.
5.- α → α ∨ β . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Adición.
β → α ∨ β . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Adición.
6.- (α ∧ β) → α . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Simplificación.
(α ∧ β) → β . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Simplificación.
7.- [α ∧ β] → (α ∧ β) . . . . . . . . . . . . . . . . . . . . . . . . . . . Adjunción.
8.- [(α → β) ∧ (α → γ)] → (α → β ∧ γ) . . . . . . . Composición.
9.- [(α → γ) ∧ (β → δ) ∧ (α ∨ β)] → (γ ∨ δ) . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Dilema Constructivo.
10.- [(α → γ) ∧ (β → δ) ∧ (¬γ ∨ ¬δ)] → (¬α ∨ ¬β) . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Dilema Destructivo.
11.- [¬β → ¬α] → (α → β) . . . . Prueba por Contraposición.
12.- [(α → γ) ∧ (β → γ) ∧ (α ∨ β)] → γ . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Prueba por casos.
13.- [(α → γ) ∧ (¬α → γ)] → γ . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . Caso especial de Prueba por Casos.
14.- [ ni=1 (αi → γ) ∧ ( ni=1 αi )] → γ . . . . . . . . . . . . . . . . . . . . . . . .
V W

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Prueba General por casos.


15.- [α ∧ ¬α] → β . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . De una contradicción, inferir cualquier proposición.
16.- [(¬α → β) ∧ (¬α → ¬β)] → α . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Reducción al Absurdo.
[¬α → (β ∧ ¬β)] → α . . . . . . . . . . Reducción al Absurdo.
17.- [(α → γ) ∧ (β → δ) ∧ (α ∨ β) ∧ ¬(α ∧ β) ∧ (γ ∨ δ) . . . . . .
∧¬(γ ∧ δ)] → (γ → α) ∧ (δ → β) . . . . . . . Ley de Hauber.
1.1 ANTECEDENTES 15

Presentamos ahora algunos ejemplos de fórmulas universalmente vá-


lidas no tautologı́as, es decir, tales que su verdad depende de los criterios
de verdad de los cuantificadores además de los de los conectivos. En lo
que sigue, α y β representan fórmulas cualesquiera y σ una fórmula en la
cual la variable x no aparece libre; x, y, representan variables vi , v j , i, j ∈ N
y t representa un término cualquiera.
A. Relación entre ∀x y ∃x
1.- ∀xα ↔ ¬∃x¬α
2.- ¬∀xα ↔ ∃x¬α
3.- ∃xα ↔ ¬∀x¬α
4.- ¬∃xα ↔ ∀x¬α
5.- ∀xα → (α)xt
La prueba de este último ejemplo es el Corolario 2 del Teorema de Susti-
tución.
B. Intercambio de cuantificadores
y
1.- ∀x(σ)x ↔ ∀yσ
y
2.- ∃x(σ)x ↔ ∃yσ
3.- ∀x∀yα ↔ ∀y∀xα
4.- ∃x∃yα ↔ ∃y∃xα
5.- ∀xα → ∃xα
6.- ∃x∀yα → ∀y∃xα
C. Relación de cuantificadores y conectivos
1.- ∀x(α ∧ β) ↔ ∀xα ∧ ∀xβ
2.- ∃x(α ∧ β) → ∃xα ∧ ∃xβ
3.- ∀xα ∨ ∀xβ → ∀x(α ∨ β)
4.- ∃x(α ∨ β) ↔ ∃xα ∨ ∃xβ
5.- ∀x(α → β) → (∀xα → ∀xβ)
6.- (∃xα → ∃xβ) → ∃x(α → β)
D. Doble cuantificación
1.- ∀x(∀xα → α)
2.- ∃x(∃xα → α)
3.- ∀x(α → ∃xα)
4.- ∃x(α → ∀xα)
5.- ∀x∀xα ↔ ∀xα
6.- ∃x∃xα ↔ ∃xα
16 [Cap. 1.] EL TEOREMA DE COMPACIDAD PARA...

E. Relación de cuantificadores con fórmulas sin presencias de la variable


cuantificada. Aquı́ x no aparece libre en σ.
1.- ∀xσ ↔ σ
2.- ∃xσ ↔ σ
3.- ∀x(α ∧ σ) ↔ ∀xα ∧ σ
4.- ∃x(α ∧ σ) ↔ ∃xα ∧ σ
5.- ∀x(α ∨ σ) ↔ ∀xα ∨ σ
6.- ∃x(α ∨ σ) ↔ ∃xα ∨ σ
7.- ∀x(σ → α) ↔ (σ → ∀xα)
8.- ∃x(σ → α) ↔ (σ → ∃xα)
9.- ∀x(α → σ) ↔ (∃xα → σ)
10.- ∃x(α → σ) ↔ (∀xα → σ)

F. Con igualdad
1.- ∀x(x ≈ x)
2.- ∀x∀y(x ≈ y → y ≈ x)
3.- ∀x∀y∀z(x ≈ y ∧ y ≈ z → x ≈ z)
Si α(x/y) denota el resultado de sustituir y en lugar de x en α, en cero o
más lugares o todos los lugares. Entonces:
4.- ∀x∀y[x ≈ y → (α → α(x/y))] (Ley de Leibniz).

G. Paradoja de Russell
1.- ¬∃x∀y[α ↔ ¬(α)xy ]
2.- ¬∃x∀y[(α)xg(x) ↔ ¬(α)xg(y) ]
y y
3.- ¬∃x∀y[(α) g(y) ↔ ¬((α) g(y) )xy ]

H. Otras universalmente válidas


1.- ∃x[α ∧ ∀y(β → γ)] → ∀y[β → ∃x(α ∧ γ)]
2.- ∃x[α(x) ∧ ∀y(β(y) → γ(x, y))] → ∀y[β(y) → ∃x(α(x) ∧ γ(x, y))]
3.- ∃x(P(x) ∨ Q(x)) ↔ ∃yP(y) ∨ ∃zQ(z))
4.- ∀x∃y[P(x) → Q(y)] ↔ [∃xP(x) → ∃yQ(y)]

Para aclarar más los tres ejemplos de universalmente válidas del tipo G.
Paradoja de Russell, daremos tres instancias particulares con α = P(x, y):
1.- ¬∃x∀y(P(x, y) ↔ ¬P(y, y))
2.- ¬∃x∀y(P(g(x), y) ↔ ¬P(g(y), y))
3.- ¬∃x∀y(P(x, g(y)) ↔ ¬P(y, g(y)))
1.1 ANTECEDENTES 17

1.1.2 Consecuencia lógica


Dedicamos esta sección a uno de los conceptos fundamentales de la lógica
matemática, el concepto de consecuencia lógica. Es importante hacerlo
preciso aquı́, pues en su definición intervienen los conceptos vistos an-
teriormente, como interpretación, asignación, satisfacción y en el caso de
enunciados, el concepto de verdad, y por otro lado lo usaremos en una
de las formulaciones del teorema de compacidad y en el resto del libro,
especialmente en el capı́tulo tres. En lo que sigue nos referiremos como
antes únicamente a lenguajes formales de primer orden con igualdad. Con
respecto a la notación, usaremos las letras griegas minúsculas α, β, γ, ϕ,
ψ, para referirnos a fórmulas del lenguaje. Las letras griegas mayúsculas
Σ, ∆, Γ, las usaremos para referirnos a conjuntos, finitos o infinitos, de
fórmulas de dicho lenguaje. Las letras góticas como A, B, C, representarán
estructuras como interpretaciones del lenguaje o modelos de fórmulas.
La relación semántica básica de ser forzado a ser verdad por otras ver-
dades, es la idea intuitiva de la relación de consecuencia lógica. Decimos
que una fórmula α es una consecuencia lógica de un conjunto de formulas
Σ, si siempre que las fórmulas de Σ son satisfechas por alguna asignación
dada para las variables en una interpretación, la fórmula α también es
satisfecha por esa asignación en esa interpretación.
Definición 1.17. Sea Σ ∪ {ϕ} un conjunto de fórmulas, no necesariamente
enunciados, en un lenguaje de primer orden con igualdad. Decimos que
ϕ es una consecuencia lógica de Σ o que Σ implica lógicamente a ϕ (denotado
Σ |= ϕ) si y sólo si en toda interpretacion A toda asignación para variables s
(de elementos del universo de A) que satisface α para cada α ∈ Σ, también
satisface ϕ1 . Ilustramos esto con los siguientes ejemplos: ∀xP(x) |= P(c)
pero P(x) 6|= ∀xP(x). También, para cualquier fórmula dada ϕ, no necesa-
riamente un enunciado, ϕ |= ∀xϕ implica que |= (ϕ → ∀xϕ).
Nótese que la definición de “ϕ es consecuencia lógica de Σ” significa
que es imposible que haya una interpretación y una asignación donde
todas las fórmulas del conjunto Σ sean satisfechas y la fórmula ϕ no.
Se sigue inmediatamente de las definiciones, que en el caso particular
de los enunciados, un enunciado ϕ es una consecuencia lógica de un con-
junto de enunciados Σ, si y sólo si para cualquier interpretación, siempre
1
Cf. [Mendelson 1987] página 52, [Enderton 2001] página 88 y [Enderton 2004] página
132.
18 [Cap. 1.] EL TEOREMA DE COMPACIDAD PARA...

que todos los enunciados de Σ sean verdaderos, entonces el enunciado ϕ


también es verdadero. En otras palabras, si todos los modelos de Σ son
también modelos de ϕ2 .
Las fórmulas que son verdaderas en cualquier interpretación se llaman
lógicamente validas. Cuando una fórmula es verdadera en una interpre-
tación de su lenguaje, decimos que la interpretación es un modelo de la
fórmula; ası́, una fórmula es lógicamente válida si todas las interpretacio-
nes para su lenguaje son modelos de la fórmula. En particular tenemos que
si una fórmula es lógicamente válida, será consecuencia lógica de cualquier
conjunto de fórmulas. Por otro lado, si Σ es un conjunto de fórmulas que
no es satisfacible, entonces trivialmente cualquier fórmula es consecuencia
lógica de Σ.
Usaremos algunas propiedades semánticas básicas3 cuya prueba es ele-
mental, pues depende solamente de las definiciones de verdad y de con-
secuencia lógica. Estas son las siguientes:

a) Si Γ ⊆ Σ y Γ |= ϕ entonces Σ |= ϕ (Monotonı́a)
b) Si Σ |= ϕ y para todo α en Σ, Γ |= α, entonces Γ |= ϕ (Corte)
c) Σ, α |= β si y sólo si Σ |= (α → β)
d) Σ |= ϕ si y sólo si Σ ∪ {¬ϕ} no es satisfacible
e) Γ es satisfacible si y sólo si Γ 6|= ∃x(x , x)
f) Σ, α, (α → β) |= β

La propiedad c) para el caso Σ vacı́o, establece la equivalencia entre la


noción de consecuencia lógica entre dos fórmulas y la noción de validez
lógica de la fórmula de forma implicativa correspondiente. La propiedad
d) es una reescritura de la definición de consecuencia lógica. Recordemos
que nuestro lenguaje no tiene el sı́mbolo “→” de implicación, pero enten-
deremos que la fórmula implicativa (α → β) es una abreviatura para la
fórmula (¬α ∨ β).
Algunas de estas propiedades semánticas, cuya prueba es elemental,
pueden ser usadas en adelante, apelando a cualquiera de ellas sólo como
“propiedades semánticas”.
En la sección 1.2 presentaremos el teorema de compacidad para len-
2
Recordar que un modelo para un conjunto de fórmulas es una interpretación para el
lenguaje respecto al cual todas las fórmulas del conjunto son verdaderas.
3
También llamadas propiedades estructurales de la lógica deductiva clásica.
1.1 ANTECEDENTES 19

guajes de primer orden con igualdad, al que consideramos el resultado


semántico fundamental. Consideramos ahora sus dos formas equivalen-
tes:

Teorema 1.3. Teorema de Compacidad (Gödel-Malcev)(Primera forma)


Si Σ es un conjunto infinito de fórmulas de un lenguaje de primer orden con
igualdad, tal que cada subconjunto finito de Σ es satisfacible, entonces Σ es
tambien satisfacible.

Teorema 1.4. Teorema de Compacidad (Segunda forma)


Si Σ ∪ {ϕ} es un conjunto infinito de fórmulas de un lenguaje de primer orden con
igualdad y si Σ |= ϕ, entonces hay un subconjunto finito Γ ⊆ Σ, tal que Γ |= ϕ.
Nótese que el teorema de compacidad es una afirmación puramente se-
mántica que involucra únicamente nociones semánticas. Daremos una
demostración puramente semántica para él, con base en propiedades
semánticas. Damos ahora un esbozo de la demostración de la primera
forma:
Partimos de un conjunto infinito de fórmulas Σ tal que cada subconjunto
finito suyo es satisfacible (llamaremos a esta propiedad “finitamente sa-
tisfacible”). Después desarrollamos dos procesos alternativamente, el pri-
mero consiste en obtener un conjunto Γ tal que Σ ⊆ Γ y Γ es un conjunto
maximal finitamente satisfacible de fórmulas. El segundo proceso consiste
en obtener un conjunto Ω tal que Σ ⊆ Ω, y Ω está cerrado bajo testigos
existenciales4 y es un conjunto finitamente satisfacible de fórmulas. Entonces
los dos procesos se iteran uno en seguida del otro en un nuevo proceso
infinito. Finalmente, la unión de todos esos conjuntos de los dos procesos
alternados infinitamente, es un conjunto de fórmulas Σ∗ tal que: Σ ⊆ Σ∗
y Σ∗ es un conjunto maximal cerrado bajo testigos existenciales y finita-
mente satisfacible. Entonces se construye un modelo para Σ∗ . Ese modelo
es obviamente un modelo para Σ y ası́ tenemos que Σ es satisfacible. Esta
prueba se desarrollará con todo detalle en la sección 1.3.

Ejercicios:

1. Probar todas las propiedades semánticas básicas.


4
Es decir, si ∃xϕ(x) ∈ Ω entonces hay una constante c (el testigo existencial), tal que
ϕ(c) ∈ Ω.
20 [Cap. 1.] EL TEOREMA DE COMPACIDAD PARA...

2. Probar la equivalencia de las dos formas del teorema de compacidad.

3. Probar lo siguiente:
a) γ1 , . . . , γn |= γ ⇔ |= [(γ1 ∧ . . . ∧ γn ) → γ].
b) γ1 , . . . , γn |= γ ⇔ |= (γ1 → (γ2 → . . . → (γn → γ)) . . .).

1.1.3 Relaciones entre estructuras


Es natural pensar en las relaciónes de contención entre los conjuntos que
son universos de determinadas estructuras, ası́ como en la “contención” de
una estructura en otra; estas relaciones son interesantes y a continuación
las presentamos.

Definición 1.18. Sean A, B dos ρ-estructuras, decimos que A es una sub-


estructura de B, lo que denotaremos A ⊆ B, sii
i) A ⊆ B
ii) Si P ∈ Rn ⊆ ρ, entonces PA = PB ∩ An ,
iii) Si f ∈ Fm ⊆ ρ, entonces f A = f B |Am (la función f B restringida al
conjunto Am ),
iv) Si c ∈ C ⊆ ρ, entonces cA = cB .

El que A sea subestructura de B, también se conoce como que B es una


extensión de A.

Definición 1.19. Sea A = hA, Ii, una ρ-estructura y sea B = hB, Ji una
ρ′ -estructura, donde I y J son funciones de interpretación. Decimos que A
es el reducto de B a ρ o bien que B es una expansión de A a ρ′ sii
i) ρ ⊆ ρ′
ii) A = B
iii) I = J|ρ (la función de interpretación I, es igual a la restricción de J al
tipo ρ).

Ejemplo:
Consideremos la siguiente estructura B = hN, <, +, ·, 0i, donde:
N = Conjunto de los números naturales.
<= (P2 )A , la relación menor,
+ = ( f2,1 )A , la función suma,
1.1 ANTECEDENTES 21

· = ( f2,2 )A , la función producto,


0 = (c0 )A , el cero.
Entonces una subestructura de B, es A = h2N, <, +, ·, 0i, donde
2N = {n ∈ N : tal que n es par}, la relación menor y las funciones de suma
y producto son restringidas a 2N. Ası́ A ⊆ B
A su vez la estructura C = h2N, +, 0i es el reducto de A, al tipo ρ tipo de C,
ρ = { f2,1 , c0 } ⊆ {P2 , f21 , f22 , c0 } tipo de A.

Veamos ahora una de las relaciones más importantes entre estructuras,


la de homomorfismo.

Definición 1.20. Sean A = hA, Ii y B = hB, Ji dos ρ-estructuras, h es un


homomorfismo de A en B sii
i) h es una función de A en B; h : A → B,
ii) Para cada Pn ∈ ρ y cada a1 , . . . , an ∈ A,

ha1 , . . . , an i ∈ PAn sii hh(a1 ), . . . , h(an )i ∈ PB


n,

iii) Para cada fn ∈ ρ y cada a1 , . . . , an ∈ A,

h( fnA (a1 , . . . , an )) = f B (h(a1 ), . . . , h(an )),

iv) Para cada c ∈ ρ, h(cA ) = cB .

Definición 1.21. Sea h un homomorfismo de A en B, entonces decimos


que:
i) h es un monomorfismo sii h es una función inyectiva,
ii) h es un epimorfismo sii h es una función suprayectiva,
iii) h es un isomorfismo sii h es una función biyectiva.

Cuando haya un isomorfismo de A sobre B, diremos que A y B son


isomorfas y lo denotaremos de la siguiente manera: A  B.

Ejemplos:
1.- Homomorfismo
A = hZ, +, ·i y B = hZ2 , ⊕.⊙i son homomorfas, donde: Z es el conjunto
de los enteros, Z2 el conjunto de los enteros módulo 2, los sı́mbolos +, ·
denotan las operaciones de suma y producto usuales, y ⊕, ⊙ se definen de
la siguiente manera:
22 [Cap. 1.] EL TEOREMA DE COMPACIDAD PARA...

⊕ 0 1 ⊙ 0 1

0 0 1 0 0 0
1 1 0 1 0 1

definiendo el homomorfismo, h : Z → Z2 , como sigue:


(
0, si z es par;
h(z) =
1, si z es impar.
ası́,
h(2 + 3) = h(5) = 1 = 0 ⊕ 1 = h(2) ⊕ h(3),
y
h(2 · 3) = h(6) = 0 = 0 ⊙ 1 = h(2) ⊙ h(3).
2.- Isomorfismo
Sea A el conjunto de las potencias enteras de 3, A = {3 j : j ∈ Z} entonces
hA, ·i  hZ, +i, definiendo el isomorfismo h de la siguiente manera: si
3 j ∈ A con j ∈ Z, entonces h(3 j ) = j. Observar que

h(3 j · 3k ) = h(3 j+k ) = j + k = h(3 j ) + h(3k ).

Proposición 1.5. A es una subestructura de B = hB, Ji, es decir, A ⊆ B sii la

función identidad i : A → B, es un monomorfismo.


Demostración: Ejercicio ⋄

Pasaremos ahora a la demostración del teorema del homomorfismo,


que bajo ciertas condiciones, nos permite trasladar un enunciado, que se
cumple en una cierta estructura, a otra estructura homomorfa.

Teorema 1.6. (Teorema del Homomorfismo, TH).


Sea h un homomorfismo de A en B y S ∈ N A, h ◦ S ∈ N B denota la composición
de funciones. Entonces para todo término t y toda fórmula α:
i) h(tA [S]) = tB [h ◦ S].
1.1 ANTECEDENTES 23

ii) Si α no tiene cuantificadores ni sı́mbolo ≈, entonces

A |= α [S] sii B |= α [h ◦ S].

iii) Si h es un monomorfismo y α no tiene cuantificadores, entonces

A |= α [S] sii B |= α [h ◦ S].

iv) Si h es un epimorfismo y α no tiene sı́mbolo ≈, entonces

A |= α [S] sii B |= α [h ◦ S].

v) Si h es un isomorfismo, entonces

A |= α [S] sii B |= α [h ◦ S].

Demostración:
Veamos antes la necesidad de la hipótesis:
1.- Supongamos que α sı́ tiene cuantificadores, sea A = h1N, PA i, donde
1N = {n ∈ N : n es impar }, con PA = ∅ y B = hN, PB i, con PB = {n ∈ N :
n es par }. Es fácil ver que A ⊆ B, y por la Proposición (3), i : A → B es un
monomorfismo, sea α = (∃xP(x)), tendrı́amos que: A 6|= (∃xP(x)) [S], pero
B |= (∃xP(x)) [i ◦ S].
2.- Supongamos ahora que α sı́ tiene sı́mbolo ≈, sea A = hZ, +, ·i y sea
B = hZ2 , ⊕, ⊙i, donde Z2 = {0, 1}. Ahora bien sea α = ¬(v1 ≈ v2 ) y
definamos la siguiente función, h : Z → Z2 , tal que:
(
0, si z es par;
h(z) =
1, si z es impar.

Con esto garantizamos que h es un epimorfismo, luego tendrı́amos


A |= ¬(v1 ≈ v2 ) [2, 4], mientras que B 6|= ¬(v1 ≈ v2 ) [h ◦ [2, 4]] o sea
B 6|= ¬(v1 ≈ v2 ) [0, 0].
Ahora demostraremos la suficiencia de la hipótesis; haremos una prueba
por inducción sobre la formación de términos y fórmulas;
i) Para el caso de los términos tenemos:
Si t = vi ,

h(tA [S]) = h(vAi [S]) = h(S(i)) = (h ◦ S)(i) = vB


i [h ◦ S].
24 [Cap. 1.] EL TEOREMA DE COMPACIDAD PARA...

Si t = c,

h(tA [S]) = h(cA [S]) = h(cA ) = cB = cB [h ◦ S].

Si t = f (t1 , . . . , tn ) y suponemos que se cumple i) para toda ti ,


h(tA [S]) = h( f (t1 , . . . , tn )A [S]) = h( f A (tA1 [S], . . . tAn [S]))
= f B (h(tA1 [S]), . . . , h(tAn [S])) = f B (tB
1
[h ◦ S], . . . , tB
n [h ◦ S])

= f (t1 , . . . , tn )B [h ◦ S].
Paso inductivo para negación y disyunción de ii) a v). Para α, β
fórmulas, supongamos: A |= α [S] sii B |= α [h ◦ S],
A |= ¬α [S] sii A 6|= α [S] . . . . . . . . . . . . . . . . . . . . . . . . . def. de satisfacción,
sii B 6|= α [h ◦ S] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . por hipótesis inductiva,
sii B |= ¬α [h ◦ S] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . def. de satisfacción.
A |= (α ∨ β) [S]
sii A |= α [S] o A |= β [S] . . . . . . . . . . . . . . . . . . . . por def. de satisfacción,
sii B |= α [h ◦ S] o B |= β [h ◦ S] . . . . . . . . . . . . . por hipótesis inductiva,
sii B |= (α ∨ β) [h ◦ S] . . . . . . . . . . . . . . . . . . . . . . . por def. de satisfacción.
Ası́, para probar ii), solo resta demostrarlo para las atómicas sin igual-
dad:
A |= Pn (t1 , . . . , tn ) [S]
sii htA1 [S], . . . , tAn [S]i ∈ PAn . . . . . . . . . . . . . . por definición de satisfacción,
sii hh(tA1 [S]), . . . , h(tAn [S])i ∈ PB n . . . . . . . . . . . . . por ser h homomorfismo,
sii htB1
[h ◦ S], . . . , tB
n [h ◦ S]i ∈ PB n . . . . . . . . . . . . . . . . . . . . . . por la parte i),
sii B |= Pn (t1 , . . . , tn ) [h ◦ S] . . . . . . . . . . . . . . . . . . por def. de satisfacción.
Para probar iii), sólo resta demostrarlo para las atómicas con igualdad.
Supongamos que h es monomorfismo:
A |= (t1 ≈ t2 ) [S],
sii tA1 [S] = tA2 [S] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . por def. de satisfacción,
sii h(tA1 [S]) = h(tA2 [S]) . . . . . . . . . . . . . . . . . . por ser h función e inyectiva,
sii tB
1
[h ◦ S] = tB2
[h ◦ S] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . por la parte i),
sii B |= (t1 ≈ t2 ) [h ◦ S] . . . . . . . . . . . . . . . . . . . . por la def. de satisfacción.
Para probar el caso iv) y el v), sólo resta demostrar el caso de cuantifi-
cación, α = (∃vi β). Para iv) supongamos que β no tiene igualdad (≈), y que
la función h es epimorfismo, para el caso v) β es cualquier fórmula y h es
isomorfismo, entonces:
1.1 ANTECEDENTES 25

A |= (∃vi β) [S]
sii hay a ∈ A, tal que A |= β [S(i/a)], . . . . . . . . . . . . . . . def. de satisfacción,
sii hay a ∈ A, tal que B |= β [h ◦ (S(i/a))] . . . . . . . . . . . . por H.I. con S(i/a),
sii hay a ∈ A, tal que B |= β [(h ◦ S)(i/h(a))]
Obsérvese que h ◦ (S(i/a)) = (h ◦ S)(i/h(a)), pues
(
h(a), si j = i;
h ◦ (S(i/a)) j =
h(S j ), si j , i.
y, (
h(a), si j = i;
(h ◦ S)(i/h(a)) j =
h(S j ), si j , i.
sii hay b ∈ B, tal que B |= β [(h ◦ S)(i/b)]. . . . . . . . . . (⇒) con b = h(a) ∈ B,
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . (⇐) porque h es epimorfismo.
sii B |= (∃vi β) [h ◦ S] . . . . . . . . . . . . . . . . . . . . . . . . . por def. de satisfacción.

Antes de ver algunos corolarios, requerimos de una definición más.

Definición 1.22. Si para todo ρ-enunciado σ, sucede que A |= σ sii B |= σ,


decimos entonces que A y B son elementamente equivalentes y lo denotare-
mos de la siguiente manera:
A ≡ B.

Ası́ pues, dos ρ-estructuras son elementalmente equivalentes si hacen


verdaderos a los mismos enunciados del lenguaje de su tipo.

Corolario 1.6.1. Si A  B, entonces A ≡ B

Demostración:
Supongamos que A  B y sea σ un enunciado; por la parte v) del TH,
tenemos que A |= σ [S] sii B |= σ [h ◦ S]; ahora como σ es un enunciado
(no tiene variables libres), las sucesiones son irrelevantes (Proposición 1),
por lo que tendremos de hecho que A |= σ sii B |= σ o sea A ≡ B. ⋄

Corolario 1.6.2. Si α no tiene cuantificadores y A ⊆ B, entonces para cualquier


S ∈ N A,
A |= α [S] sii B |= α [S].
26 [Cap. 1.] EL TEOREMA DE COMPACIDAD PARA...

Demostración:
Sea i la función identidad (inclusión) de A en B, i : A → B; como A ⊆ B,
tenemos que i es un monomorfismo y por iii) del TH, tenemos que:

A |= α [S] sii B |= α [i ◦ S],

puesto que [i ◦ S] = S, tenemos finalmente que:

A |= α [S] sii B |= α [S].

Corolario 1.6.3. Si A es ρ-estructura y E un conjunto tal que A ⊆ E, entonces


hay una ρ-estructura C, con universo E y tal que para todo enunciado α que no
tenga el sı́mbolo de igualdad, se tiene que:

A |= α sii C |= α.

Demostración:

Sea a0 ∈ A y sea h : E → A, definida de la siguiente manera:


x, si x ∈ A ⊆ E;

h(x) =
a0 , si x ∈ E \ A.
Definiremos ahora la estructura C sobre E:
a) he1 , . . . , en i ∈ PCn sii hh(e1 ), . . . , h(en )i ∈ PAn .
b) f C (e1 , . . . , en ) = f A (h(e1 ), . . . , h(en )).
c) cC = cA .
Hemos definido la nueva estructura C, usando la estructura dada, es inme-
diato de la definición de C, que h es homomorfismo de C en A. Ası́, siendo
h un epimorfismo y α sin sı́mbolo ≈, por la parte iv) del TH, se obtiene que:

C |= α [S] sii A |= α [h ◦ S];


N N
obsérvese que h ◦ S ∈ A, aunque S ∈ E; ya que α es enunciado tenemos
que:
C |= α sii A |= α.
1.1 ANTECEDENTES 27

Definición 1.23. Si A = hA, Ii es una ρ-estructura, el cardinal de A es el


cardinal de su universo: |A|.

Corolario 1.6.4. (Teorema de Lowenheim Skolem para Lógica sin identi-


dad)
Si Σ es un conjunto de enunciados sin sı́mbolo ≈, que tiene un modelo A de
cardinal κ, entonces Σ tiene un modelo C de cualquier cardinal λ > κ.

Demostración:
Sea λ > κ. Si λ es cardinal finito, sea B un conjunto ajeno con A, de cardinal
λ \ κ. Y si λ es infinito, sea B un conjunto de cardinal λ. Entonces E = B ∪ A
cumple las hipótesis del Corolario 4.3 de donde hay una estructura C con
universo E tal que: A es modelo de Σ sii C es modelo de Σ; por lo que C es
modelo de Σ y el cardinal de C es igual al cardinal de E que es λ. ⋄

Identidad y axiomatización
El siguiente corolario nos muestra un hecho interesante: supongamos que
la “igualdad”, la interpretamos como una relación binaria; ¿Serı́a entonces
posible, dar un conjunto de propiedades expresadas en Lρ (axiomas de
igualdad), de modo que si son verdaderas en esta interpretación, entonces
la interpretación de la igualdad sea necesariamente la identidad?
Esto no se puede hacer, es decir, la igualdad como identidad no es
definible axiomáticamente.

Definición 1.24. Diremos que la identidad es axiomáticamente definible sii hay


una letra predicativa o sı́mbolo de relación binario P, y un conjunto Σ de
ρ-enunciados, con P ∈ ρ, tales que:
i) En todo σ ∈ Σ, no aparece el sı́mbolo ≈.
ii) Para toda ρ-estructura A, donde PA = {(a, a) : a ∈ A}, A es un modelo de
Σ.
iii) Para cualquier ρ-estructura B, si B es modelo de Σ, entonces
PB = {(b, b) : b ∈ B}. Es decir, PB es la identidad.

Corolario 1.6.5. La relación de identidad no es axiomáticamente definible.


28 [Cap. 1.] EL TEOREMA DE COMPACIDAD PARA...

Demostración:
Supongamos que la identidad sı́ fuera axiomáticamente definible, y sean
P y Σ, tales que cumplen con la definición anterior. Considérese ahora el
enunciado siguiente:
n−1
^ n−1
_
∃v0 , ∃v1 , . . . , ∃vn−1 ( ¬P(vi , v j ) ∧ ∀w( P(w, vi ))),
i,j i=0

que se abrevia: (∃!n) “hay exactamente n elementos”.


Sea A = {1, . . . , 7} ⊆ E = {1, . . . , 8}, sea A una ρ-estructura con dominio A tal
que PA = {(a, a) : a ∈ A}; por el corolario 4.3 (TH), hay una ρ-estructura C,
tal que E es el dominio de C, y para cualquier ρ-enunciado σ, sin sı́mbolos
de igualdad:
A |= σ sii C |= σ,
en particular A |= ∃!7 sii C |= ∃!7. Pero por hipótesis, A |= σ para todo
σ ∈ Σ; ahora por el corolario 4.3 (TH); C |= σ, para todo σ ∈ Σ, y por la
clausula iii), de la definición de definibilidad axiomatica de la identidad,
PC debe ser la identidad por lo que E, debe tener exactamente 7 elementos,
¡pero tiene 8!.

1.2. EQUIVALENCIAS DEL TEOREMA DE COMPACIDAD 29

1.2 Equivalencias del Teorema de Compacidad


Recordemos que si Σ es un conjunto de ρ-enunciados, decimos que una
ρ-estructura A es un modelo de Σ sii A |= σ, para todo σ ∈ Σ. (Def.
1.12). Recordemos también que los sı́mbolos no lógicos son los sı́mbolos
relacionales, funcionales y constantes (Def. 1.1 y Def. 1.2).
En esta sección, presentamos formas equivalentes del Teorema de Com-
pacidad.

Definición 1.25. Decimos que un conjunto de ρ-enunciados Σ, es satisfaci-


ble, sii Σ tiene modelo.

Definición 1.26. Un conjunto de enunciados Σ, es finitamente satisfacible, sii


todo subconjunto finito de Σ es satisfacible.

Definición 1.27. Sea L un lenguaje de primer orden y sea Σ un conjunto de


fórmulas. Definimos:
1) El tipo de Σ, τ(Σ) como el conjunto
τ(Σ) = {s : s es sı́mbolo no lógico de L y s
aparece en alguna fórmula de Σ}.
En particular, τ(φ) denota a τ({φ}).
2) Σ es de tipo ρ sii τ(Σ) ⊆ ρ. En particular, φ es de tipo ρ sii τ(φ) ⊆ ρ.

Definición 1.28. Un conjunto de ρ-enunciados Σ, se llama completo sii para


cualquier ρ-enunciado σ, σ ∈ Σ o ¬σ ∈ Σ.

Ejemplo:
Dada A estructura, TeoA = {σ : σ enunciado y A |= σ} es completo. TeoA
se llama la Teorı́a de A.

Definición 1.29. Un conjunto de ρ-enunciados Σ es maximal finitamente


satisfacible, sii Σ es finitamente satisfacible y para todo ∆ conjunto de enun-
ciados finitamente satisfacible si Σ ⊆ ∆, entonces Σ = ∆.
30 [Cap. 1.] EL TEOREMA DE COMPACIDAD PARA...

Definición 1.30. Sea Σ un conjunto de fórmulas, decimos que Σ es cerrado


bajo testigos, sii para toda fórmula (∃vα) ∈ Σ hay una constante c ∈ τ(Σ), tal
que: (α)vc ∈ Σ.

Teorema de Compacidad
Sea Σ un conjunto de ρ-enunciados. Σ es finitamente satisfacible sii Σ es
satisfacible.
Recordemos que la idea de la demostración del Teorema de Compaci-
dad es la siguiente:
Partir de un conjunto de enunciados finitamente satisfacible, “completar y
cerrar bajo testigos” dicho conjunto, de modo que siga siendo finitamente
satisfacible; a continuación iterar los dos pasos anteriores hasta un mo-
mento en que obtengamos un conjunto finitamente satisfacible, completo
y cerrado bajo testigos, el cual veramos que es satisfacible construyéndole
un modelo.
Aunque la prueba que presentaremos en la siguiente sección está hecha
para enunciados, al final veremos que se puede generalizar a fórmulas.

Proposición 1.7. Las siguientes afirmaciones son equivalentes:


i) Para todo conjunto de enunciados Σ, Σ es finitamente satisfacible sii Σ es
satisfacible.
ii) Para todo conjunto de enunciados Σ ∪ {φ}, Σ |= φ sii hay Σ0 ⊆ Σ, finito tal
que Σ0 |= φ.
iii) Para todo conjunto de enunciados Σ, Σ es finitamente satisfacible sii hay un
conjunto de enunciados ∆, finitamente satisfacible tal que Σ ⊆ ∆, ∆ es maximal
finitamente satisfacible y cerrado bajo testigos.
Demostración:
i) ⇒ ii)
Supongamos i). Sea Σ ∪ {φ} un conjunto de enunciados.
⇒) Σ |= φ. Entonces Σ ∪ {¬φ} no tiene modelo, de donde hay un subcon-
junto finito Σ0 de Σ tal que Σ0 ∪ {¬φ} no tiene modelo, entonces Σ0 |= φ.
⇐) Es inmediato que si hay Σ0 ⊆ Σ, finito tal que Σ0 ⊆ Σ tal que Σ0 |= φ,
entonces Σ |= φ.
ii) ⇒ iii)
⇒) Supongamos la contrapositiva de la parte fuerte de ii), es decir, suponga-
mos que: dado Σ∪{φ}, un conjunto de enunciados, si para todo subconjunto
finito Σ0 de Σ, Σ0 6|= φ, entonces Σ 6|= φ. Sea Σ un conjunto de enunciados
1.2. EQUIVALENCIAS DEL TEOREMA DE COMPACIDAD 31

finitamente satisfacible, entonces para todo Σn ⊆ Σ, finito, Σn 6|= ∃x(x 0 x),


entonces por hipótesis Σ 6|= ∃x(x 0 x), de donde hay un modelo A0 de Σ.
Para cada a ∈ A universo de A0 sea ca una nueva constante distinta y
sea C = {ca |a ∈ A}. Sea A la expansión de A0 al tipo τ(A) = τ(A0 ) ∪ C donde
cada ca se interpreta como a y el universo de A es A, el mismo de A0 . Es
claro que A también es modelo de Σ.
Sea ∆ = Teo(A) = {σ : σ enunciado y A |= σ}, entonces:
1) Σ ⊆ ∆, pues si σ ∈ Σ, entonces A |= σ y σ ∈ ∆.
2) ∆ es finitamente satisfacible, ya que A es modelo de ∆.
3) ∆ es maximal finitamente satisfacible, pues si σ es un enunciado tal que
σ < ∆, entonces ∆ ∪ {σ} no es finitamente satisfacible: Por definición de
∆ = Teo(A),

A 6|= σ ⇒ A |= ¬σ ⇒ ¬σ ∈ ∆ y {¬σ, σ} ⊆ ∆ ∪ {σ}.

Pero entonces {¬σ, σ}, es un subconjunto finito de ∆ ∪ {σ} que no es satisfa-


cible.
4) ∆ es cerrado bajo testigos, pues si (∃vα) ∈ ∆ entonces A |= (∃vα) de
donde hay a ∈ A universo de A tal que A |= α[a] y entonces A |= (α)vca por lo
que hay una constante ca ∈ τ(∆) = τ(A) tal que (α)vca ∈ ∆.
⇐) Es inmediato que si ∆ es maximal finitamente satisfacible, tal que
Σ ⊆ ∆, entonces Σ es finitamente satisfacible.
iii) ⇒ i)
⇒) La prueba de esta parte, requiere de trabajo adicional que es de hecho
la prueba del teorema de compacidad, que se hará en la sección 3 de este
capı́tulo, ya que iii) será un resultado previo que ahı́ se demostrará.
⇐) Si Σ es satisfacible entonces es finitamente satisfacible, pues un modelo
de Σ, lo es para todo subconjunto finito de Σ.

32 [Cap. 1.] EL TEOREMA DE COMPACIDAD PARA...

1.3 Prueba del Teorema de Compacidad


1.3.1 El Teorema de Compacidad

Lema 1.0. Si Σ es un conjunto de ρ-enunciados finitamente satisfacible, y φ es un


ρ-enunciado, entonces Σ∪{φ} es finitamente satisfacible o Σ∪{¬φ} es finitamente
satisfacible.
Demostración:
Supongamos que no fuera ası́, es decir, que Σ fuera finitamente satisfacible
y que no obstante, ni Σ ∪ {φ} ni Σ ∪ {¬φ}, fueran finitamente satisfacibles,
esto significarı́a que tendrı́amos: Γ1 , Γ2 ⊆ Σ, ambos finitos, tales que
Γ1 ∪ {φ} y Γ2 ∪ {¬φ} no serı́an satisfacibles, pero entonces Γ1 ∪ Γ2 ⊆ Σ, es
finito y serı́a satisfacible, de aquı́ que habrı́a un modelo de (Γ1 ∪ Γ2 ) ∪ {φ}
o de (Γ1 ∪ Γ2 ) ∪ {¬φ}, lo cual contradice que Γ1 ∪ {φ} y Γ2 ∪ {¬φ} no son
satisfacibles. ⋄

Corolario . Sea Σ conjunto de enunciados, entonces las siguientes afirmaciones


son equivalentes:
a) Σ es completo y finitamente satisfacible.
b) Σ es maximal finitamente satisfacible.

Demostración:
a) ⇒ b). Supongamos que Σ es completo y finitamente satisfacible. Sea ∆
un conjunto de enunciados tal que Σ ⊆ ∆. Si Σ , ∆, sea φ ∈ ∆ \ Σ, entonces
¬φ ∈ Σ por lo que {φ, ¬φ} ⊆ ∆ y ∆ no pueden ser finitamente satisfacible.
b) ⇒ a). Supongamos que Σ es maximal finitamente satisfacible. Sea φ
tal que φ < Σ; entonces Σ , Σ ∪ {φ} y Σ ⊂ Σ ∪ {φ} de donde Σ ∪ {φ}
no es finitamente satisfacible. Como Σ es finitamente satisfacible, por el
Lema 0, Σ ∪ {¬φ} es finitamente satisfacible y como contiene a Σ, entonces
Σ = Σ ∪ {¬φ}, de donde ¬φ ∈ Σ y ası́ Σ es completo. ⋄

Lema 1.1. Si Σ es un conjunto de enunciados finitamente satisfacible, entonces


hay un conjunto Γ, con las siguientes propiedades:
i) Σ ⊆ Γ.
ii) τ(Γ) = τ(Σ).
1.3. PRUEBA DEL TEOREMA DE COMPACIDAD 33

iii) Γ es completo.
iv) Γ es finitamente satisfacible.
Demostración: Usaremos el Lema de Zorn. Sea
A = {∆ : ∆ es un conjunto de enunciados de tipo τ(Σ), Σ ⊆ ∆ y
∆ es finitamente satisfacible }
Entonces hA, ⊆i es un conjunto parcialmente ordenado , ∅. La cadena
vacı́a tiene como cota a Σ ∈ A. Sea C una cadena , ∅ en hA, ⊆i; es decir
C ⊆ A tal que ShC, ⊆i es un conjunto
S totalmente ordenado. Es claro que
∀∆
S ∈ C, ∆ ⊆ C, por lo que C es una cota superior de C. Veamos que
C ∈ A. S
Debe S ser claro que C es un conjunto
S de enunciados de tipo τ(Σ) y
que Σ ⊆ C (puesSΣ ⊆ ∆, ∀∆ ∈ C). C es finitamente satisfacible pues S si
no, habrı́a un B ⊆ C, B finito y no satisfacible y si B = {α1 , . . . , αn } ⊆ C,
entonces ∀i = 1, . . . , n, αi ∈ ∆i ∈ C (para algún ∆i ) y como los ∆i están
totalmente ordenados por ⊆, hay un máximo S∆i0 tal que B ⊆ ∆i0 y entonces
∆i0 no es finitamente satisfacible!. Ası́ pues C ∈ A.
Ahora, por el Lema de Zorn, A tiene un elemento maximal respecto a la
relación ⊆, digamos Γ ∈ A. Entonces τ(Γ) = τ(Σ), Σ ⊆ Γ y Γ es finitamente
satisfacible maximal, de donde por el Corolario del Lema 0, Γ es completo
y finitamente satisfacible. ⋄

Obsérvese que por el Corolario del Lema 0, el Γ maximal finitamente


satisfacible obtenido es completo y finitamente satisfacible. Obsérvese
también que esto prueba el inciso iii) de la Proposición 1.5.
Notación:
1.- ℵ0 denota el cardinal de los conjuntos numerables que es el menor con-
junto infinito, ası́ |A| ≥ ℵ0 significa que el conjunto A tiene cardinal infinito
y |A| < ℵ0 que tiene cardinal finito.
2.-Algunas veces para abreviar la escritura de finitamente satisfacible, uti-
lizaremos “fin.sat.”

Lema 1.2. Si Σ es un conjunto de enunciados finitamente satisfacible, entonces


hay un conjunto Ω, con las siguientes propiedades:
i) Σ ⊆ Ω.
ii) Ω es cerrado bajo testigos.
iii) Si |Σ| ≥ ℵ0 , entonces |Σ| = |Ω|.
iv) Ω es finitamente satisfacible.
34 [Cap. 1.] EL TEOREMA DE COMPACIDAD PARA...

Demostración:
Demos primero el conjunto Ω; para ello definamos por recursión, sobre los
números naturales, los conjuntos Ωn , para n ∈ N, como sigue:
Ω0 = Σ.
Supongamos definido S Ωn , para n ≥ 0.
Para cada σ ∈ [Ωn \ m<n Ωm ], sea cσ una constante tal que:

cσ < τ(Ωn ), y si σ , σ′ , entonces cσ , cσ′ .


S
Para cada enunciado σ ∈ [Ωn \ m<n Ωm ], sea:
 v
(α)cσ , cuando σ = (∃vα);
σ∗ =
σ , en otro caso.
Definimos
[ [
Ωn+1 = Ωn {σ∗ : σ∗ , σ, y σ ∈ [Ωn \ Ωm ]}.
m<n
S
Sea Ω = n∈N Ωn . Es claro que si n < m, Ωn ⊆ Ωm y τ(Ωn ) ⊆ τ(Ωm ).
Veamos ahora que en efecto,SΩ cumple con las propiedades del lema:
i) Σ ⊆ Ω, pues Σ = Ω0 ⊆ n∈N Ωn .
ii) Ω es cerrado bajo testigos. S
Supongamos que (∃vα) ∈ Ω = n∈N Ωn , luego hay un n ∈ N, tal que
(∃vα) ∈ Ωn . Entonces hay Sun mı́nimo con esta propiedad, sea k tal mı́nimo.
Por lo tanto (∃vα) ∈ [Ωk \ m<k Ωm ], luego:

(∃vα)∗ = (α)vc(∃vα) , (∃vα),

y entonces

(∃vα)∗ = (α)vc(∃vα) ∈ Ωk+1 ⊆ Ω y c(∃vα) ∈ τ(Ωk+1 ) ⊆ τ(Ω).

Ası́ pues, hay una constante c(∃vα) , tal que:

(α)vc(∃vα) ∈ Ω y c(∃vα) ∈ τ(Ω).

iii) Supongamos Σ infinito. Es fácil ver que |Ωn | = |Σ|, ∀n ∈ N, por


inducción sobre N.
[
|Ω| = | Ωn | = ℵ0 |Ωn | = |Σ|.
n∈N
1.3. PRUEBA DEL TEOREMA DE COMPACIDAD 35

iv) Ω es finitamente satisfacible. Sea Γ0 ⊆ Ω, Γ0 finito; hay que demos-


trar que Γ0 es satisfacible. Como Γ0 es finito,
[
Γ0 = {σ1 , . . . , σn } ⊆ Ωn ,
n∈N

por lo tanto, para cada k = 1, . . . , n, hay un nk ∈ N, tal que σk ∈ Ωnk , sea


m = max{nk : k = 1, . . . , n} entonces, Γ0 ⊆ Ωm .
Bastará probar que Ωm es fin.sat. para todo m ∈ N, para tener que Γ0 es
satisfacible:
Para m = 0, Ω0 = Σ es fin.sat. por hipótesis.
Supongamos que Ωn es fin.sat. para n ≥ 0. Sea ∆ ⊆ Ωn+1 , ∆ finito
veamos que ∆ es satisfacible. Como
[
Ωn+1 = Ωn ∪ {σ∗ : σ∗ , σ y σ ∈ [Ωn \ Ωm ]},
m<n

entonces ∆S = Γ ∪ {σ∗1 , . . . , σ∗r }, con Γ finito y Γ ⊆ Ωn , además es claro que


σi ∈ [Ωn \ m<n Ωm ], y σi = (∃vi αi ). Luego por hipótesis inductiva Γ ∪
{σ1 , . . . , σr } ⊆ Ωn es satisfacible, digamos por una estructura A de tipo
τ(Γ ∪ {σ1 , . . . , σr }). Por lo tanto: A |= (∃vi αi ), entonces para cada S ∈N A y
cada i = 1, . . . , r, escogemos ai ∈ A, universo de A, tal que A |= αi [S(i/ai )],
las cuales necesariamente existen en A, ya que A es modelo de (∃vi αi ) para
cada i = 1, . . . , r. Ahora consideremos la siguiente expansión B de A al tipo
τ(Γ ∪ {σ1 , . . . , σr }) ∪ {cσi : i = 1, . . . , r},
B = hA, a1 , . . . , ar i, donde ai = cB σi , claramente para cada i y para cada
N
S ∈ A,
B |= αi [s(i/ai )] sii B |= (αi )vcσi i [s]
por el teorema de sustitución; por lo tanto, B |= (αi )vcσi i y además B |= Γ, de
donde B |= ∆. Con esto hemos probado que ∆ es satisfacible, con lo que
Ωn+1 es finitamente satisfacible, para toda n, obteniendo iv). ⋄

Lema 1.3. Si Σ es un conjunto de enunciados finitamente satisfacible, completo


y cerrado bajo testigos, entonces Σ tiene un modelo A, de cardinal menor o igual
que el cardinal de Σ, es decir, |A| ≤ |Σ|.
Demostración:
Obsérvese que si Σ es fin.sat., completo y cerrado bajo testigos, entonces Σ
36 [Cap. 1.] EL TEOREMA DE COMPACIDAD PARA...

es infinito y τ(Σ) tiene una infinidad de constantes; esto se ve facilmente


si se consideran todos los enunciados de la forma ∃x(x ≈ x), para cada
variable x. Sea

A′ = {t : t es un término de tipo τ(Σ) y t no tiene variables}.

Definimos una relación r sobre A′ como sigue: Para t, t′ ∈ A′ , (t, t′ ) ∈ r sii


(t ≈ t′ ) ∈ Σ. Es fácil verificar que r es una relación de equivalencia.
Sea t = {u ∈ A′ : (t, u) ∈ r} y definamos A = {t : t ∈ A′ } = A′ /r (el cociente
de A′ módulo r).
Ahora definamos para cada Pn , fn , c ∈ τ(Σ); PAn , fnA , cA sobre A:
a) Para cada t1 , . . . , tn ∈ A y Pn ∈ τ(Σ),

ht1 , . . . , tn i ∈ PAn sii Pn (t1 , . . . , tn ) ∈ Σ.

b) Para cada fn ∈ τ(Σ), fnA (t1 , . . . , tn ) = ( fn (t1 , . . . , tn )).


c) Para cada constante c ∈ τ(Σ), cA = c.
Sea A = hA, PAn , fnA , cA i, con Pn , fn , c ∈ τ(Σ). Se deja como ejercicio
verificar que estas definiciones no dependen de representantes.

Sublema 1.3.1. tA = t, para toda t ∈ A′ .


Demostración: (Por inducción sobre los términos sin variables)
i) Si t = c, tA = cA = c, . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . por definición de A.
ii) Si t = fn (t1 , . . . , tn ) y suponemos por hipótesis inductiva que para todo
i = 1, . . . , n: tAi = ti . Tenemos que:
tA = [ fn (t1 , . . . , tn )]A = fnA (tA1 , . . . , tAn ), . . . . . . . . . . . . def. de interpretación,
= fnA (t1 , . . . , tn ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . H.I.
= ( fn (t1 , . . . , tn )) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . definición de A.

Sublema 1.3.2. Para todo t ∈ A, hay c ∈ τ(Σ), tal que t = c, es decir, c ∈ t.


Demostración: Para todo t ∈ A′ , sucede que (t ≈ t) ∈ Σ, por ser completo
y finitamente satisfacible, y de aquı́ que (∃v0 (v0 ≈ t)) ∈ Σ (pues de lo
contrario, por la completud de Σ tendrı́amos que ¬(∃v0 (v0 ≈ t)) ∈ Σ, y
este enunciado junto con (t ≈ t) es no satisfacible, contradiciendo que Σ es
1.3. PRUEBA DEL TEOREMA DE COMPACIDAD 37

finitamente satisfacible). Ahora bien, como Σ es cerrado bajo testigos, hay


una c ∈ τ(Σ), tal que (v0 ≈ t)vc 0 ∈ Σ, ed. (c ≈ t) ∈ Σ. Luego (c, t) ∈ r y por lo
tanto c ∈ t o c = t.

Veamos ahora que para todo enunciado α, de tipo τ(Σ):

α ∈ Σ sii A |= α.

Demostración: (Se hará por inducción sobre la longitud de enunciados, es


decir, sobre el número de sı́mbolos que ocurren en cada enunciado).
Supóngase que la proposición se cumple, para α con menos de n sı́mbolos.
Sea α con n sı́mbolos (long[α] = n), tenemos cuatro casos:
1) α es atómica:
i) α = (t1 ≈ t2 )
A |= α sii A |= (t1 ≈ t2 )
sii tA1 = tA2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .definición de satisfacción,
sii t1 = t2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . por el sublema 1.3.1,
sii (t1 , t2 ) ∈ r . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . por la definición de t,
sii (t1 ≈ t2 ) ∈ Σ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . por la definición de r.
ii) α = P(t1 , . . . , tn )
A |= α sii A |= P(t1 , . . . , tn )
sii htA1 , . . . , tAn i ∈ PA . . . . . . . . . . . . . . . . . . . . . . . . . definición de satisfacción,
sii ht1 , . . . , tn i ∈ PA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . por el sublema 1.3.1,
sii P(t1 , . . . , tn ) ∈ Σ . . . . . . . . . . . . . . . . . . . . . . . . . . . . por la definición de A.
2) α = ¬β
A |= α sii A |= ¬β
sii A 6|= β . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . definición de satisfacción,
sii β < Σ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . por hipótesis inductiva,
sii ¬β ∈ Σ . . . . . . . . . . . . . . . . . . . . . . . . . . ⇒) por hipótesis, Σ es completo,
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ⇐) por hipótesis, Σ es fin.sat.
3) α = (β ∨ γ)
A |= α sii A |= (β ∨ γ)
sii A |= β o A |= γ . . . . . . . . . . . . . . . . . . . . . . . . . definición de satisfacción,
sii β ∈ Σ o γ ∈ Σ . . . . . . . . . . . . . . . . . . . . . . . . . . . . por hipótesis inductiva,
sii (β ∨ γ) ∈ Σ . . . . . . . . . . . . . . ⇒) por hipótesis Σ es completo fin.sat. y
{β, γ, ¬(β ∨ γ)} no es satisfacible,
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ⇐) Σ es completo y fin.sat. y
38 [Cap. 1.] EL TEOREMA DE COMPACIDAD PARA...

{(β ∨ γ), ¬β, ¬γ} no es satisfacible.


4) α = (∃vi β)
A |= α sii A |= (∃vi β)
sii hay t ∈ A, tal que A |= β[S(i/t)], ∀S ∈ N A . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . por definición de satisfacción,
sii hay c ∈ A, tal que A |= β[S(i/c)], ∀S ∈ N A . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ⇒) por sublema 1.3.2
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ⇐) toda constante es término,
sii hay c ∈ τ(Σ), tal que A |= (β)vc i . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . por teorema sustitución con c = cA y def. de satisfacción.
sii hay c ∈ τ(Σ), tal que (β)vc i ∈ Σ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . HI, pues long[(β)vc i ] = long[β] < long[(∃vi β)]
sii (∃vi β) ∈ Σ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. ⇒) porque Σ es completo, fin.sat. y {(β)vc i , ¬(∃vi β)} no es satisfacible,
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ⇐) porque Σ es cerrado bajo testigos.
Con lo cual hemos probado que A es modelo de Σ. Finalmente, es claro
que |A| ≤ |A′ | por ser A el cociente de A′ modulo r y como Σ es finitamente
satisafacible y completo, para cada t ∈ A′ , t término sin variables de tipo
τ(Σ), el enunciado (t ≈ t) ∈ Σ de donde |A′ | ≤ |Σ|. Ası́ pues |A| ≤ |Σ|. ⋄

Teorema 1.6. (Teorema de Compacidad)


Si Σ es un conjunto de enunciados finitamente satisfacible, entonces Σ tiene un
modelo de cardinal menor o igual que |Σ| + ℵ0 .
Demostración:
Si ∆ es cualquier conjunto de enunciados fin.sat., denotamos:
ECOM(∆) = Γ del Lema 1.1 (TC) (Extensión completa).
ECBT(∆) = Ω del Lema 1.2 (TC) (Extensión cerrada bajo testigos).
Sea Σ un conjunto de enunciados finitamente satisfacible. Ahora definimos
por recursión, para n ∈ N:
Σ0 = Σ,
Σ2n+1 = ECOM(Σ2n ),
Σ2n+2 = ECBT(Σ2n+1 ).
Como dijimos anteriormente, extendemos completando y cerrando bajo
testigos, para ello definimos los Σn , que cumplen las propiedades que a
continuación veremos:
i) Σn ⊆ Σn+1 . Esto es inmediato por la propiedad i) de los Lemas 1.1. y 1.2.
1.3. PRUEBA DEL TEOREMA DE COMPACIDAD 39

De aquı́ también se tiene que τ(Σn ) ⊆ τ(Σn+1 ).


ii) Σn es finitamente satisfacible, para todo n ∈ N. Esto es inmediato por
la propiedad iv) de los Lemas 1.1 y 1.2.
iii) Σ2n+1 es completo. Es evidente por el Lema 1.1. (TC).
iv) Σ2n+2 es cerrado bajo testigos. Es evidente por el Lema 1.2. (TC).

Sea Σ∗ = n∈N Σn , entonces Σ∗ es finitamente satisfacible, completo y cerra-


S
do bajo testigos, es deir, Σ∗ cumple las hipótesis del Lema 1.3.
Demostración:
1) Σ∗ es finitamente satisfacible.
Esta
S propiedad se cumple por lo siguiente:

Σ = n∈N Σn y ya hemos probado en ii), que todo Σn es finitamente satis-
facible, y aunque en general, no es cierto que la unión de finitamente
satisfacibles es finitamente satisfacible, en este caso sı́ es cierto en virtud
de la propiedad anterior de que Σn ⊆ Σn+1 , para todo n ∈ N.
2) Σ∗ es completo.
Sea σ del tipo τ(Σ∗ ). Por tanto σ es del tipo τ(Σn ), para algún n ∈ N, y
de aquı́ se sigue por i) que σ es del tipo τ(Σ2m+1 ), para algún m ∈ N, tal que
2m ≥ n, y Σ2m+1 es completo por iii) por lo que σ ∈ Σ2m+1 o (¬σ) ∈ Σ2m+1 y
como Σ2m+1 ⊆ Σ∗ , entonces σ ∈ Σ∗ o (¬σ) ∈ Σ∗ .
3) Σ∗ es cerrado bajo testigos.
Sea (∃v1 α) ∈ Σ∗ . Por definición de Σ∗ , (∃vi α) ∈ Σn , para algún
n ∈ N, luego, por i): (∃vi α) ∈ Σ2n+2 , para algún n ∈ N, y por iv) hay una
c ∈ τ(Σ2n+2 ), tal que: (α)vc i ∈ Σ2n+2 , es decir, hay una c ∈ τ(Σ∗ ), tal que
(α)vc i ∈ Σ∗ .
Ası́, Σ∗ cumple con las condiciones del Lema 1.3, y por lo tanto tiene un
modelo A, de tipo τ(Σ∗ ), tal que:

A |= α sii α ∈ Σ∗

y como Σ = Σ0 ⊆ Σ∗ , entonces A es un modelo de Σ, es decir, Σ es satisfa-


cible. Sea B = A|τ(Σ) el reducto de A al tipo τ(Σ), entonces B es un modelo
de Σ de su tipo. Recuérdese además que por el Lema 1.3, el cardinal de B
es menor o igual que el cardinal de Σ∗ .
Ahora, hay que observar que |Σ∗ | = |Σ| + ℵ0 , por lo que el modelo B
obtenido para Σ tiene cardinal menor o igual que |Σ| + ℵ0 .
Para entender lo anterior hay que observar que:
Si τ(Σ) es infinito, entonces |τ(Σ)| = |Σ|.
40 [Cap. 1.] EL TEOREMA DE COMPACIDAD PARA...

Si Σ es finito, entonces |Σ∗ | = ℵ0 .


Si Σ es infinito, entonces |Σ∗ | = |Σ|.
Por lo tanto, para todo Σ, |Σ∗ | = |Σ| + ℵ0 . ⋄

Observación
Si bien el Teorema de Compacidad se ha probado para conjuntos de enun-
ciados, también es cierto para conjuntos de fórmulas, pues sustituyendo
las variables libres por constantes nuevas, se obtiene un conjunto de enun-
ciados que resulta equivalente respecto a satisfacibilidad.
En un modelo, las interpretaciones de las constantes añadidas propor-
cionan una instancia para las variables libres sustituidas por las constantes,
la cual satisface a las fórmulas en ese modelo.

1.3.2 Limitaciones del Teorema de Compacidad


El Teorema de Compacidad y el Teorema de Lowenheim-Skolem, que
veremos en el capı́tulo 2, caracterizan a los lenguajes de predicados de
primer orden, pues no hay un lenguaje de orden superior que cumpla
ambos resultados. De hecho se prueba:
a) No hay sistemas lógicos con más poder expresivo que la lógica de
primer orden, para los cuales se cumplan los teoremas de Compacidad y
de Lowenheim-Skolem.
b) No hay sistemas lógicos con más poder expresivo que la lógica de primer
orden, para los cuales se cumpla el Teorema de Lowenheim-Skolem y que
el conjunto de enunciados universalmente válidos sea numerable.
La demostración de estos hechos debida a Lindstrom [11], constituye el
primer gran resultado de lo que hoy es llamada la teorı́a débil de modelos
[Soft Model Theory], y el hecho general, tiene fuertes consecuencias para
la Lógica Matemática, pues mucha de la teorı́a de modelos, de Lenguajes
de primer orden, se construye a partir de las propiedades de Compaci-
dad y del teorema de Lowenheim-Skolem; ası́, por un lado, tenemos que
lenguajes más expresivos que el lenguaje de primer orden, como los de
orden superior, infinitarios, etc. por el resultado de Lindstrom no cumplen
el Teorema de Compacidad y por lo tanto, no es de esperarse, para tales
lenguajes, una teorı́a de modelos rica. Todo lo anterior representa una
limitación del Teorema de Compacidad.
Por otro lado, el lenguaje de predicados de primer orden, (limitado en
comparación con otros lenguajes), no expresa importantes relaciones de la
1.3. PRUEBA DEL TEOREMA DE COMPACIDAD 41

matemática, como el principio de inducción matemática, en un lenguaje


de primer orden para la aritmética o como el Axioma del Supremo, en
un lenguaje de primer orden para los números reales. Sin embargo los
principios y axiomas anteriores sı́ son expresables en el lenguaje usual
de la teorı́a de conjuntos, el cual es un lenguaje de primer orden de tipo
ρ = {∈}.

Ejercicio: Sea Σ un conjunto de enunciados que tiene un modelo de cada


cardinal finito. Pruebe que Σ tiene un modelo infinito. En general, pruebe
que Σ tiene un modelo mayor o igual que cualquier cardinal infinito.
42 [Cap. 1.] EL TEOREMA DE COMPACIDAD PARA...

1.4 ¿Por qué el Teorema de Compacidad en la


lógica de primer orden, se llama “de compa-
cidad”?
Resulta natural preguntarse ¿porqué el Teorema de Compacidad en la
Lógica de primer orden, se llama “de compacidad”? Aunque no tenemos
una respuesta definitiva, tenemos suficientes razones para suponer, que la
palabra compacidad, se incorpora al lenguaje de la lógica matemática, de
la topologı́a, ya que, el hecho de que cierto espacio topológico, definido
a partir de nociones semánticas, sea compacto, es equivalente a que se
cumpla el Teorema de Compacidad para la lógica de primer orden. Antes
de ver esto, revisemos los conceptos necesarios.

Definición 1.31. (Espacio topológico)


Sea X un conjunto no vacio, una clase τ de subconjuntos de X, es una
topologı́a para X sii
i) La unión de cualquier número de elementos de τ, pertenece a τ.
ii) La intersección de cualquier número no cero, finito de elementos de
τ, pertenece a τ.
iii) X y ∅ ∈ τ.

A los elementos de τ, se les denomina abiertos y al espacio topológico


anterior comunmente se le denota con (X, τ).

Definición 1.32. Sea (X, τ) un espacio topológico. S Sea Y ⊆ X. Sea G = {Gν },


un conjunto de subconjuntos de X, tal que Y ⊆ ν Gν ; se dice entonces que
G es una cubierta de Y; si todos los Gν son abiertos de τ, entonces se dice
que G es una cubierta abierta. Si además algún subconjunto finito de G, es
también una cubierta de Y, es decir, si {G1 , . . . , Gn } ⊆ G, con n finito y tal
que Y ⊆ G1 ∪ . . . ∪ Gn , entonces se dice que G es reductible a una cubierta
finita.

Definición 1.33. Un conjunto Y ⊆ X, de un espacio topológico (X, τ), es


compacto, si toda cubierta abierta de Y es reductible a una cubierta finita.

Definición 1.34. Una clase {Gν } de conjuntos, posee la propiedad de inter-


sección finita (que abreviamos pif.), sii toda subclase finita {Gν1 , . . . , Gνn },
1.4 ¿POR QUÉ EL TEOREMA DE COMPACIDAD... 43

n ≥ 1 de {Gν } tiene una intersección no vacia, es decir Gν1 ∩ . . . ∩ Gνn , ∅.

Ejemplo:
La clase de intervalos abiertos {(0, 1), (0, 1/2), . . . , (0, 1/n), . . .} posee la pif,
pues (0, C1 )∩(0, C2 )∩. . .∩(0, Cn ) = (0, C∗ ), con Ci = 1/n para algún n ∈ N\{0}
y C∗ = min{C1 , . . . , Cn }.

Definición 1.35. Sea (X, τ) un espacio topológico; un subconjunto C de X


es un cerrado de X, sii el complemento de C es un abierto.

Proposición 1.7. Sea X un conjunto no vacio, y F un conjunto de subconjuntos


de X, que cumple las propiedades siguientes:
i) X y ∅ pertenecen a F.
ii) La intersección no vacia arbitraria de elementos de F, pertenece a F.
iii) La unión de dos elementos cualesquiera de F, pertenece a F.
Entonces hay una y solo una topologı́a τ de X, tal que los elementos de F, son los
cerrados de (X, τ).
Demostración:
Sea τ = {X \ C : C ∈ F} ⋄

Definición 1.36. Sea F el conjunto de cerrrados de un espacio topológico


(X, τ). Un conjunto D ⊆ F es una base para los cerrados de F, sii
i) Todo cerrado C de F, es intersección de elementos de D.
ii) X ∈ D.

Proposición 1.8. Sea D ⊆ P(X), con X , ∅. Entonces D es la base para el


conjunto
T de cerrados de alguna topologı́a sobre X, sii
1) D = ∅.
2) Dados cualesquiera c, c′ ∈ D, c ∪Tc′ es intersección de elementos de D: es decir,
hay B , ∅, B ⊆ D, tal que c ∪ c′ = B.
3) X ∈ D.
Demostración:
⇒) Supóngase que D es una base para el conjunto de cerrados F de X.
Como ∅ ∈ F, entonces ∅ es intersección de elementos de D, entonces ∅ = ∩D.
44 [Cap. 1.] EL TEOREMA DE COMPACIDAD PARA...

Además, si c, c‘ ∈ D, en particular son cerrados pues D ⊆ F, de donde su


unión c ∪ c‘ debe ser intersección de elementos de D; entonces se verifica
1), 2) y por definición 3).
⇐) Supóngase que D ⊆ P(X) y cumple 1), 2) y 3). Sea
\
F = { B : B ⊆ D, B , ∅}.
T
Es claro que D ⊆ F [pues c ∈ D ⇒ {c} ⊆ D y {c} = c ∈ F]. Si probamos
que F es un conjunto de cerrados para X, entonces todo cerrado será inter-
sección de elementos de D, ası́ pues tendremos que D será una base para
los cerrados deTF. Veamos pues que F es un conjunto de cerrados para X:
i) Por 1), ∅T= D (D ⊆ D), de donde ∅ ∈ F, además como X ∈ D, luego
{X} ⊆ D y {X} = X ∈ F.
ii) Sea {Ci } una colección no vacı́a arbitraria de elementos de F. Por T defi-
nición de F, cada Ci es intersección de elementos de D,Tpor lo que i Ci
también será intersección de elementos de D Ty entonces T i Ci ∈ F.
iii) Sean c, c′ ∈ F; Tpor definici ón de F, c = i id , c ′
= j d j con di , d j ∈ D,

T T
entonces c ∪ c = ( i di ) ∪ ( j d j ) = i,j (di ∪ d j ), pero por 2) de T la hipótesis
cada (di ∪ d j ) es intersección de elementos de D, entonces T i,j (di ∪ d j ) es
también una intersección de elementos de D y por tanto i,j (di ∪ d j ) ∈ F, es
decir, c ∪ c′ ∈ F. Ası́ pues, F es conjunto de cerrados y D es base para F.

La definición 1.36 y la Proposición 1.8, dadas anteriormente son las


duales de las correspondientes para abiertos:

Definición 1.37. Si (X, τ) es un espacio topológico, un conjunto B ⊆ τ es


base para los abiertos de τ, sii todo abierto Y ∈ τ es unión de elementos de B.

S ón 1.9. Sea B ⊆ P(X), B es base para alguna topologı́a de X, sii


Proposici
i) B = X.
b′ ∈ B, b ∩ b′ es la unión de elementos de B, es decir,
ii) Dados cualesquiera b,S
hay H ⊆ B, tal que b ∩ b′ = H.

Proposición 1.10. Un espacio topológico (X, τ) es compacto sii toda clase {cν }
de cerrados básicos de X que posee la propiedad de intersección finita, posee ella
misma una intersección no vacı́a.
Demostración:
⇒) Supongamos que (X, τ) es un espacio topológico compacto. Sea {cν } una
1.4 ¿POR QUÉ EL TEOREMA DE COMPACIDAD... 45

clase cualquiera de cerrados básicos de X que posee la pif. Consideramos la


clase {dν }, tal que dν = X \ cν ; esta es una clase de abiertos de X y afirmamos
n
que ningunaSn familia finita {di }i=1 , de {dν }, puede Tn a X (pues tendrı́amos
Sn cubrir
que X = i=1 di y entonces ∅ = X\X = X\ i=1 di = i=1 (X\di ) = ni=1 ci , ∅)
T
por ello,S y dado que X es compacto, S {dν } T no puede serTuna cubierta de X,
es decir ν dν , X, de donde X \ ν dν = ν (X \ dν ) = ν cν , ∅.
⇐ ) Supongamos que toda clase de cerrados básicos de X, que cumple
la pif, posee ella misma intersección no vacia. Sea {Yν } una cubierta de
abiertos para X. Veamos que existe una subcubierta finita de {Yν }, para T X.
Tomando
T cν = XS\ Yν , tenemos una familia de cerrados {cν } donde ν cν =
ν (X\Y ν ) = X\ ν Yν = X\X = ∅. Consideremos
T ahora los cerrados básicos
{dν } de {cν }, tenemos entonces que ν dν = ∅, de donde {dν } no cumple la pif
y por hipT ótesis hay una colección finitaT de cerrados básicos d1 , . . . , dn ∈ {dν }
tal que ni=1 di = ∅. SeaT{ci }m i=1
= Tn A : ∅ , A ⊆ {d1 , . . . , dn }} ∩ {cν } y
{
m
ai = X \ cTi ∈ {Yν } entonces j=1 c j ⊆ i=1 di = ∅ (pues para todo di ∃A tal que
di ∈ A y A = c j para algúna T j ≤ m porTlo tanto c j ⊆Sdi o sea Spara todo di
∃ j ≤ m tal que c j ⊆ di entonces mj=1 c j ⊆ ni=1 di ). Ası́, m a
i=1 i = m
i=1 (X \ ci ) =
Tm
X \ i=1 ci = X \ ∅ = X, y como {ai }i=1 ⊆ {X \ cν } = {Yν }, entonces {ai }m
m
i=1
es
una subcubierta finita de {Yν } para X y ası́ X es compacto. ⋄

Definición 1.38. Si (X, τ) es un espacio topológico y si A ⊆ X, una inconexión


de A, es un conjunto G ∪ H, donde G, H son abiertos de X, tales que A ∩ G
y A ∩ H, son no vacios disjuntos cuya unión es A.

Definición 1.39. X es totalmente inconexo sii para cada par de puntos


x, y ∈ X, hay una inconexión G ∪ H de X, tal que x ∈ G, y ∈ H.

Definición 1.40. A ⊆ X, es inconexo sii A tiene una inconexión; conexo en


caso contrario.

Daremos ahora, el espacio topológico que nos interesa y que mencio-


namos al principio.
Sea Lρ un lenguaje de tipo ρ dado, sea S el conjunto de todas las teorı́as
completas satisfacibles en Lρ . Ver def. 1.27 y ejemplo.

S = {Teo(A) : A ρ − estructura, |A| ≤ |ρ| + ℵ0 }.


46 [Cap. 1.] EL TEOREMA DE COMPACIDAD PARA...

Llamamos a los elementos p = Teo(A) ∈ S ⊆ P(Lρ ), los puntos de S, donde


P(Lρ ) denota el conjunto potencia del conjunto de enunciados de Lρ .
El espacio de Stone para Lρ es el conjunto S con la siguiente topologı́a
τ:
Para cada φ de Lρ sea: [φ] = {p ∈ S : φ ∈ p} = {Teo(A) ∈ S : A |= φ} y
sea τ la topologı́a cuyos cerrados básicos son los [φ]. Debe ser claro que
D = {[φ] : φ ∈ Lρ } ⊆ P(S), forma una base para cerrados, dado que:
i) S, ∅ ∈ D, pues S = [φ ∨ ¬φ] y ∅ = [φ ∧ ¬φ] donde φ enunciado de Lρ .
ii) D es cerrado bajo uniones e intersecciones, pues:

[φ] ∪ [ψ] = [φ ∨ ψ] y [φ] ∩ [ψ] = [φ ∧ ψ].


T T S S
iii) D ⊆ [φ] [¬φ] = [φ ∧ ¬φ] = ∅ y D ⊇ [φ] [¬φ] = [φ ∨ ¬φ] = S
[
∴ D = S.

En realidad, los [φ] también son abiertos (cerriabiertos), porque:

S \ [φ] = [¬φ].

Los cerrados de (S, τ) serán pues las intersecciones no vacı́as arbitrarias


de básicos cerrados y son de la forma:
\
S(T) = [φ] = {p ∈ S : T ⊆ p},
φ∈T

donde T ⊆ Lρ es conjunto de enunciados. (S, τ) es un espacio de Hausdorff,


totalmente inconexo:
Sean p, q ∈ S, tal que p , q ⇒ hay φ ∈ p \ q, entonces p ∈ [φ], q < [φ],
q ∈ S \ [φ], [φ] cerriabiertos.

Teorema 1.11. El Teorema de Compacidad para Lρ es equivalente a que el Espacio


de Stone para Lρ , (S, τ) sea compacto.
Demostración:
⇒) Usaremos la Proposición 1.10: Sea C = {[φ]ν } una colección de cerrados
básicos de (S, τ) que posea la pif.
Considero T = {φ : [φ] ∈ C}. Entonces para cualquier subcolección finita
φ1 , . . . , φk de T, ki=1 [φi ] , ∅, es decir, existe Teo(A) ∈ ki=1 [φi ], de donde
T T
existe A tal que A |= φi para toda i = 1, . . . , k; esto significa que T es
47

finitamente satisfacible. Entonces por el Teorema de Compacidad para Lρ ,


T es satisfacible digamos por B, ρ-estructura con |B| ≤ |ρ| + ℵ0 , es decir,
B |= φ para toda φ ∈TT de donde Teo(B) ∈ S y Teo(B) ∈ [φ] para toda φ ∈ T
o sea que Teo(B) ∈ φ∈T [φ] , ∅.
⇐) Supongamos (S, τ) compacto en el sentido de la Proposición 1.10. Sea
Σ un conjunto fin. sat. de enunciados de Lρ . Considero C = {[φ] : φ ∈ Σ}.
Entonces para cualquier subcolección finita [φ]1 , . . . , [φ]k de C, {φ1 , . . . , φk }
tiene un modelo digamos A, ρ-estructura con |A| ≤ |φ| + ℵ0 , es decir, A |= φi
para toda i = 1, . . . , k de donde Teo(A) ∈ [φ]i para toda i = 1, . . . , k o sea
Teo(A) ∈ ki=1 [φ]
T T
T i , ∅. Ası́ pues, C cumple la pif, por lo que C , ∅ y hay
una Teo(B) ∈ C de modo que Teo(B) ∈ [φ] para todo φ ∈ Σ o sea que
B |= φ para todo φ ∈ Σ, de donde B es un modelo de Σ.

Corolario 1.12. El espacio de Stone para Lρ , hS, τi es compacto.


Capı́tulo 2

Aplicaciones del Teorema de Compacidad

En este capı́tulo, utilizaremos el Teorema de Compacidad, para construir


modelos para determinados conjuntos de enunciados, con ciertas propie-
dades muy interesantes.

2.1 El Teorema de Lowenheim-Skolem

Teorema 2.1. (Lowenheim-Skolem)


Sea Σ un conjunto de enunciados y ρ = τ(Σ); si Σ tiene un modelo infinito,
entonces Σ tiene un modelo de cualquier cardinal κ tal que: κ ≥ max{|ρ|, ℵ0 }.
Demostración:
Sea κ ≥ max{|ρ|, ℵ0 }. Sea C un conjunto de constantes, tal que: C ∩ ρ = ∅, y
|C| = κ. Ahora consideremos el siguiente conjunto de enunciados:

∆ = Σ ∪ {¬(c ≈ d) : c, d ∈ C y c , d}.

Obsérvese que deseamos tener una estructura, que satisfaga a Σ y a “algo


más”, para que dicha estructura tenga un dominio, con un número κ de
elementos. Para ello lo que hay que demostrar es que ∆ es finitamente
satisfacible, y aplicar el Teorema de Compacidad. Veamos que ∆ es finita-
mente satisfacible:
Sea Γ ⊆ ∆, Γ finito, sea C0 = {c ∈ C : c ∈ τ(Γ)}, es claro que C0 es finito. Por
hipótesis hay una estructura A de tipo ρ, tal que:

A |= Σ y |A| ≥ ℵ0 .

49
50 [Cap. 2.] APLICACIONES DEL TEOREMA DE COMPACIDAD

Como el universo de A es infinito, para cada c ∈ C0 , hay ac en el universo


de A, tal que si c, d ∈ C0 , y c , d, entonces ac , ad . Sea
B = hA, {cB : c ∈ C0 }i,
donde cB = ac , para toda c ∈ C0 . Es decir, B es una expansión de A, al tipo
ρ ∪ C0 ; entonces B satisface a Σ. Si ¬(c ≈ d) ∈ Γ, entonces c, d ∈ C0 y c , d,
entonces cB = ac , ad = dB y por lo tanto B |= ¬(c ≈ d). Ası́ pues, B |= Γ,
con lo que Γ es satisfacible y por lo tanto ∆ es finitamente satisfacible. De
aquı́, por el Teorema de Compacidad, ∆ es satisfacible, digamos por una
estructura D; ahora como D |= ¬(c ≈ d), para toda c, d ∈ C con c , d,
entonces |D| ≥ |C| = κ. Ahora observemos que:
max{|ρ|, ℵ0 } = max{|Σ|, ℵ0 }.
Para demostrar la observación, tenemos que considerar dos casos:
1) Si |ρ| ≥ ℵ0 .
Entonces |ρ| = |Σ|, ya que en cada enunciado hay a lo más un número
finito de sı́mbolos de ρ. Los sı́mbolos lógicos son un conjunto numerable
solamente. Ası́, max{|ρ|, ℵ0 } = max{|Σ|, ℵ0 }.
2) Si ρ < ℵ0 .
Entonces |Σ| < ℵ0 o |Σ| = ℵ0 . No puede ser mayor que ℵ0 .
Si |Σ| < ℵ0 , tendrı́amos que max{|ρ|, ℵ0 } = ℵ0 y max{|Σ|, ℵ0 } = ℵ0 .
Si |Σ| = ℵ0 , tendrı́amos que max{|ρ|, ℵ0 } = ℵ0 y max{|Σ|, ℵ0 } = ℵ0 . Cum-
pliéndose la observación.
Continuando con la demostración, tenemos que por la hipótesis:
κ ≥ max{|ρ|, ℵ0 }. Y por la observación anterior: κ ≥ max{|Σ|, ℵ0 }, de donde
κ ≥ |Σ|. Para finalizar, por el Teorema de Compacidad, tenemos que
|D| ≤ |∆| = κ ya que |∆| = |Σ| + κ = κ, pues ρ ∩ C = ∅. Ası́, |D| = κ, y D es
modelo de Σ ⊆ ∆.

Ejercicios:
1) Sea φ un enunciado de un lenguaje de primer orden. Pruebe que si φ es
verdadero en cualquier τ(φ)-estructura finita y φ es verdadero en cualquier
τ(φ)-estructura numerable, entonces φ es universalmente válido.
2) Sea φ un enunciado de un lenguaje de primer orden. Pruebe que si φ
es verdadero en cualquier τ(φ)-estructura finita y φ es verdadero en cual-
quier τ(φ)-estructura de cardinal fijo κ > ℵ0 , entonces φ es universalmente
2.2 EL PROBLEMA DE LOS CUATRO COLORES PARA... 51

válido.
3) Si Σ es un conjunto de enunciados que tiene un modelo de cualquier
cardinal finito, entonces Σ tiene un modelo infinito.
4) Si Σ es un conjunto de enunciados que tiene un modelo de cualquier
cardinal finito, entonces Σ tiene un modelo de cardinal mayor o igual que
cualquier cardinal fijo infinito.

2.2 El problema de los cuatro colores para mapas


infinitos
Desde mucho tiempo atrás, uno de los problemas que han quitado el
sueño a generaciones de matemáticos, ha sido el problema de los cuatro
colores, que consiste en demostrar o dar un contraejemplo de la siguiente
afirmación:
Todo mapa es cuatro-coloreable.
Es decir, todo mapa se puede colorear con cuatro colores, de tal manera,
que dos paises que tengan una frontera en común, no se coloreen con un
mismo color, y todo paı́s del mapa tenga uno y sólo un color.
Recientemente, por medio de computadoras, y basándose en la teorı́a
de gráficas, la conjetura de los cuatro colores, se demostró para mapas
finitos. El Teorema de Compacidad, generaliza este resultado para mapas
infinitos.
Antes veamos algunos ejemplos:

Ejemplos:
a) Mapa 3-coloreable:

1
3
2 3
52 [Cap. 2.] APLICACIONES DEL TEOREMA DE COMPACIDAD

b) No todo mapa es 3-coloreable:

1
2 3

c) Es un resultado de la Teorı́a de Gráficas, que todo mapa es 5-coloreable.


Vease [10].
La idea de la demostración del Teorema de los cuatro colores, para
mapas infinitos, es la siguiente: expresar el problema en un lenguaje de
primer orden, observar que dado un mapa infinito, todo submapa finito
tiene un modelo de 4-coloración, aplicar el Teorema de Compacidad y
obtener un modelo de 4-coloración, para el mapa infinito.

Definición 2.1. Un mapa es un par ordenado M = (P, F), donde P , ∅,


F ⊆ P2 y (x, y) ∈ F sii x es fronterizo con y.

Definición 2.2. Si M = (P, F) es un mapa, y n ∈ N, decimos que M es


n-coloreable sii
i) Para todo x ∈ P, x tiene uno y sólo uno de los n colores.
ii) Para todo x, y ∈ P, si (x, y) ∈ F, entonces x, y tienen distinto color.

Proposición 2.2. Si todo mapa finito es 4-coloreable, entonces todo mapa es


4-coloreable.

Demostración:
Sea M = (P, F) un mapa infinito, y consideremos el conjunto de colores:
C = {1, 2, 3, 4}. Para cada i ∈ C, sea Pi un sı́mbolo relacional (también
llamado letra predicativa) de aridad 1 y para cada a ∈ P, sea Ca , una
constante tal que, si a, b ∈ P y a , b, entonces Ca , Cb . (Una constante
distinta para cada paı́s).
Sea ρ = {P1 , P2 , P3 , P4 } ∪ {Ca : a ∈ P}, y sea Σ un conjunto de enunciados
de Lρ , definido como sigue:
2.2 EL PROBLEMA DE LOS CUATRO COLORES PARA... 53

Σ = {¬(Ca ≈ Cb ) : a, b ∈ P, a , b}
∪{P1 (Ca ) ∨ P2 (Ca ) ∨ P3 (Ca ) ∨ P4 (Ca ) : a ∈ P}
∪{¬(Pi (Ca ) ∧ P j (Ca )) : a ∈ P, i, j ∈ C, i , j}
∪{¬(Pi (Ca ) ∧ Pi (Cb )) : a, b ∈ P, (a, b) ∈ F, i ∈ C}.
Afirmamos que si Σ es satisfacible, entonces M = (P, F) es 4-coloreable.
Sea A = hA, PA1 , PA2 , PA3 , PA4 , {CAa }a∈P i una ρ-estructura, tal que A es modelo
de Σ. Asociemos a cada paı́s, un y sólo un elemento de A, mediante la
siguiente función inyectiva (esto lo hacemos para poder referirnos a los
paises en un lenguaje de primer orden):

h : P −→ A, h(a) = CAa .

La función h es inyectiva, pues si a, b ∈ P son tales que a , b, entonces


Ca , Cb . Y por definición de Σ, ¬(Ca ≈ Cb ) ∈ Σ, luego, se tiene que
A |= ¬(Ca ≈ Cb ), es decir, (CAa , CAb ) y por lo tanto h(a) , h(b). Con esto
tendremos que si a ∈ P y A |= Pi (Ca ), para algún i ∈ C, entonces procedemos
a pintar el paı́s ′′ a′′ de color ′′ i′′ .
Veamos que en efecto M = (P, F), es 4-coloreable con la coloración dada:
i) ∀x ∈ P, x tiene uno y sólo uno de los n colores. Sea x ∈ P, x tiene un color,
pues se cumple que

A |= (P1 (Cx ) ∨ P2 (Cx ) ∨ P3 (Cx ) ∨ P4 (Cx )),

x tiene un sólo color, ya que: A |= ¬(P j (Cx ) ∧ Pi (Cx )), para i, j ∈ C, con i , j.
ii) ∀x, y ∈ P, tales que (x, y) ∈ F, x tiene distinto color al de y. Sean x, y ∈ P,
con (x, y) ∈ F, por i) tenemos que: A |= Pi (Cx ), para algún i ∈ C, y como A es
modelo de Σ, entonces A |= ¬(Pi (Cx ) ∧ Pi (C y )), pues por hipótesis (x, y) ∈ F,
i ∈ C. Es decir, paises fronterizos tienen distintos colores.
Hemos visto que si Σ es satisfacible, entonces M = (P, F) es 4-coloreable.
Ası́, bastará ver que Σ es satisfacible, para tener la proposición. Para ello,
verifiquemos que Σ es finitamente satisfacible y apliquemos el Teorema de
Compacidad:
Sea Γ ⊆ Σ, finito y sea B = {x ∈ P : Cx ∈ τ(Γ)}; observemos que B es
finito, sea F′ = {(x, y) ∈ F : x, y ∈ B}. Ası́, M′ = (B, F′ ) es un mapa finito, de
hecho es una subestructura o submapa finito de M, que por hipótesis es
4-coloreable, es decir, hay una “4-coloración de M′ ”. Sea

B = hB, PB B B B B
1 , P2 , P3 , P4 , {Cx }x∈B i,
54 [Cap. 2.] APLICACIONES DEL TEOREMA DE COMPACIDAD

donde PB i
= {x ∈ B : x tiene el color i} y CB x = x. Afirmamos que B |= Γ,
pues:
i) Si ¬(Ca ≈ Cb ) ∈ Γ, entonces a , b, a, b ∈ B y CB B
a = a , b = Cb .
ii) Si (P1 (Cx ) ∨ P2 (Cx ) ∨ P3 (Cx ) ∨ P4 (Cx )) ∈ Γ, entonces como x ∈ B , x debe
tener un color, digamos i, entonces x ∈ PB i
, i ∈ C. Con lo que B |= Pi (Cx ),
para algún i ∈ C, y B |= (P1 (Cx ) ∨ P2 (Cx ) ∨ P3 (Cx ) ∨ P4 (Cx )).
iii) Si ¬(Pi (Cx ) ∧ P j (Cx )) ∈ Γ, con i, j ∈ C, i , j, entonces no es cierto que
x ∈ PB i
y x ∈ PBj , puesto que x tiene un sólo color, esto es,

B |= ¬(Pi (Cx ) ∧ P j (Cx )), con i, j ∈ C, i , j.

iv) Si ¬(Pi (Cx ) ∧ Pi (C y )) ∈ Γ, x, y ∈ B, (x, y) ∈ F′ entonces como por hipótesis


(B, F′ ) es 4-coloreable, y x es fronterizo con y, no es posible que x tenga
un color igual al de y, es decir, si x ∈ PB i
, entonces y < PB
i
. Ası́, B |=

¬(Pi (Cx ) ∧ Pi (C y )), para todo x, y ∈ B, (x, y) ∈ F .
Tenemos entonces que, por lo anterior, Γ es satisfacible y Σ es finita-
mente satisfacible. Para concluir, apliquemos el Teorema de Compacidad
a Σ, entonces existe un modelo, digamos A, tal que:

A = hA, {PAi }i∈C , {Cx }x∈P i, y A es modelo de Σ.

De esta manera, la forma de colorear serı́a la siguiente: dado un mapa M


y un paı́s x, puesto que A |= Pi (Cx ), para algún i ∈ C, pı́ntese el paı́s x de
color i. Y con esto tenemos una 4-coloración del mapa M. ⋄

2.3 Todo conjunto es totalmente ordenable


Sabemos que un orden definido sobre un conjunto, es una relación binaria
entre elementos del conjunto; el Teorema de Compacidad lo aplicaremos
para que, dada una relación de orden parcial sobre un conjunto poder
extender esta relación a todo el conjunto; en este caso, poder ordenar
totalmente el conjunto original. Definimos ahora el problema de manera
rigurosa:

Definición 2.3. Si A es un conjunto, decimos que A está parcialmente


ordenado por R sii
i) R ⊆ A × A,
2.3 TODO CONJUNTO ES TOTALMENTE ORDENABLE 55

ii) si x ∈ A, entonces (x, x) ∈ R,


iii) si x, y ∈ A, (x, y) ∈ R y (y, x) ∈ R, entonces x = y,
iv) si x, y, z ∈ A, (x, y) ∈ R y (y, z) ∈ R, entonces (x, z) ∈ R.

Definición 2.4. Decimos que A es un conjunto total o linealmente ordenado


por R, sii
i) A está parcialmente ordenado por R,
ii) si x, y ∈ A, entonces (x, y) ∈ R o (y, x) ∈ R.

Notación. Adoptaremos las siguientes abreviaturas, para los correspon-


dientes conceptos:
i) (A, R) denota una relación binaria R, sobre un conjunto A.
ii) COPO= Conjunto parcialmente ordenado.
iii) COTO= Conjunto totalmente ordenado.
iv) xRy, abrevia (x, y) ∈ R.

Ejemplos:
1) (N, |), donde R = | denota la relación de divisibilidad sobre N, es un
copo, pues cumple i), ii), iii) y iv), pero como 3 6 | 8 y 8 6 | 3, (N, |) no es un
COTO.
2) Si en N definimos R , como la relación menor o igual: xRy sii x ≤ y,
entonces (N, R) cumple i) y ii) de la definición anterior y es un COTO: éste
es usualmente denotado como (N, ≤).

Proposición 2.3. Todo orden parcial se puede extender a un orden total.


Demostración: (Por casos).
1) Cuando (A, R) sea un COPO finito.
2) Cuando (A, R) sea un COPO infinito.
1) Todo orden parcial finito se puede extender a un orden total. Supon-
gamos que (A, R) es un COPO finito, y sea |A| = n ∈ N. Por demostrar, hay
un R∗ , tal que R ⊆ R∗ y (A, R∗ ) es un COTO. Si n = 1, tendrı́amos que |A| = 1
y A = {a}, entonces R∗ = {(a, a)}, y en este caso (A, R∗ ) es claramente un
COTO, además R ⊆ R∗ . Supongamos que todo orden parcial finito (A, R)
con |A| = n ≥ 1 se puede extender a un orden total (A, R∗ ). Supongamos
que |A| = n + 1, y (A, R) un COPO, como A es no vacı́o y finito, A tiene un
56 [Cap. 2.] APLICACIONES DEL TEOREMA DE COMPACIDAD

elemento minimal a0 , y |A \ {a0 }| = n, consideremos (A \ {a0 }, R|), donde R|


es R restrinigido a A \ {a0 }. Entonces, este orden ası́ definido, es un COPO
y por hipótesis inductiva, existe R′ , R′ ⊆ [A \ {a0 }]2 , tal que: R| ⊆ R′ y
(A \ {a0 }, R′ ) es un COTO.
Sea R∗ = R′ ∪ {(a0 , b) : b ∈ A}, es decir, definimos un nuevo orden R∗ , a
partir del ya existente R′ y un conjunto de pares ordenados que aseguran,
que se obtenga un orden total sobre A y que extiende al anterior; a0 ahora
es mı́nimo en A. Obsérvese que R ⊆ R∗ .
Ahora veremos la parte interesante, el caso infinito, donde aplicaremos
el Teorema de Compacidad; para ello es necesario, primero describir el
problema en un lenguaje de primer orden:
2) Todo orden parcial infinito, se puede extender a un orden total. Sea
(A, R) un COPO infinito. Sea P una letra predicativa binaria, y para cada
a ∈ A, sea Ca una constante tal que: si a, b ∈ A y a , b, entonces Ca , Cb .
Sea ρ = {P} ∪ {Ca : a ∈ A} y Σ el siguiente conjunto de enunciados:
Σ = {¬(Ca ≈ Cb ) : a, b ∈ A y a , b}
∪{P(Ca , Cb ) : a, b ∈ A y aRb}
∪{(P(Ca , Cb ) ∧ P(Cb , Ca )) → (Ca ≈ Cb ) : a, b ∈ A}
∪{(P(Ca , Cb ) ∧ P(Cb , Cd )) → P(Ca , Cd ) : a, b, d ∈ A}
∪{(P(Ca , Cb ) ∨ P(Cb , Ca )) : a, b ∈ A}
Recordemos que partimos de un conjunto A, parcialmente ordenado por
R, y queremos extender R a R∗ , tal que (A, R∗ ) sea un COTO. La idea de
la demostración es sencilla: definir el orden R∗ para A, tal que, si a, b ∈ A,
entonces aRb sii P(Ca , Cb ) es verdadero en algún modelo de Σ. Para esto
hay que ver que Σ es finitamente satisfacible, y luego obtener un modelo
aplicando el Teorema de Compacidad.
Si Σ es satisfacible, hay una ρ-estructura B, tal que B es modelo de Σ,
B = hB, PB , {CB B
a }a∈A i donde Ca ∈ B.
Definimos h : A −→ B tal que ∀a ∈ A, h(a) = CBa , ası́ h es 1-1, pues si a , b,
¬(Ca ≈ Cb ) ∈ Σ y como B es modelo de Σ, entonces h(a) = CB B
a , Cb = h(b).
Definimos R∗ ⊆ A × A, de la siguiente manera: sean a, b ∈ A,

aR∗ b sii B |= P(Ca , Cb ).

Antes de continuar, hay que verificar que R∗ , ası́ definido, es lo que quere-
mos, es decir, que:

i) R ⊆ R∗ y ii) (A, R∗ ) es un COTO.


2.3 TODO CONJUNTO ES TOTALMENTE ORDENABLE 57

i) R ⊆ R∗ .
Sea (a, b) ∈ R, es decir, aRb, con a, b ∈ A, entonces P(Ca , Cb ) ∈ Σ y entonces
B |= P(Ca , Cb ), ya que B es un modelo de Σ, pero por definición de R∗ , se
tiene que aR∗ b o (a, b) ∈ R∗ .
ii) (A, R∗ ) es un COTO.
Sea a ∈ A, entonces aRa, pues (A, R) es un COPO, entonces aR∗ a por i). Sean
a, b ∈ A tal que aR∗ b y bR∗ a, entonces

B |= P(Ca , Cb ) y B |= P(Cb , Ca ),

ahora, puesto que:

B |= ((P(Ca , Cb ) ∧ P(Cb , Ca )) → (Ca ≈ Cb )),

entonces B |= (Ca ≈ Cb ), es decir, h(a) = CB B


a = Cb = h(b), de donde a = b,
∗ ∗
pues h es inyectiva. Sean a, b, d ∈ A, aR b, bR d, entonces

B |= (P(Ca , Cb ) ∧ P(Cb , Cd )),

puesto que B |= ((P(Ca , Cb )∧P(Cb , Cd )) → P(Ca , Cd )), entonces B |= P(Ca , Cd ),


y por definición de R∗ , aR∗ d. Sean a, b ∈ A, entonces: si (a, b) ∈ R∗ no hay
nada que demostrar. Supongase que (a, b) < R∗ , entonces B 6|= P(Ca , Cb ),
pero B |= (P(Ca , Cb ) ∨ P(Cb , Ca )), de donde B |= P(Cb , Ca ), con lo que (b, a) ∈
R∗ .
Hemos visto que si Σ es satisfacible (A, R∗ ) es un COTO; lo único que
resta entonces, es ver que Σ es satisfacible para tener la proposición. Vea-
mos que Σ es finitamente satisfacible:
Sean Γ0 ⊆ Σ, con Γ0 finito. Si Γ0 = ∅, es satisfacible por vacuidad, supon-
gamos Γ0 , ∅, entonces τ(Γ0 ) , ∅.
Sea B = {a ∈ A : Ca ∈ τ(Γ0 )}, B finito, B , ∅ y B ⊆ A. Ası́, tenemos que
(B, R|B ), donde R|B = R ∩ (B × B), es un COPO finito, y por la parte 1), existe
R∗ ⊆ B × B, tal que:

R|B ⊆ R∗ y (B, R∗ ) es un COTO.



Sean B = hB, PB , {CB B B
a }a∈B i, donde P = R y Ca = a, a ∈ B. Afirmamos que
B |= Γ0 . Veamos que B satisface a Γ0 .
i) Supongamos que P(Ca , Cb ) ∈ Γ0 , entonces a, b ∈ B, y (a, b) ∈ R, ası́,
aR b, ahora bien por definición de R∗ , (a, b) ∈ R∗ o B |= P(Ca , Cb ).

58 [Cap. 2.] APLICACIONES DEL TEOREMA DE COMPACIDAD

ii) Si ((P(Ca , Cb ) ∧ P(Cb , Ca )) → (Ca ≈ Cb )) ∈ Γ0 , y suponemos que


B |= P(Ca , Cb ) y B |= P(Cb , Ca ), entonces aR∗ b y bR∗ a, y dado que R∗ es
antisimétrico, se tiene que a = b. Ası́, CB B
a = Cb ⇒ B |= (Ca ≈ Cb ).
iii) Si ((P(Ca , Cb ) ∧ P(Cb , Cd )) → P(Ca , Cd )) ∈ Γ0 , suponemos que: B |=
P(Ca , Cb ) y B |= P(Cb , Cd ); es decir, aR∗ b y bR∗ d, y como R∗ es transitivo aR∗ d,
es decir, (a, d) ∈ PB o B |= P(Ca , Cd ).
iv) Si ((P(Ca , Cb ) ∨ P(Cb , Ca )) ∈ Γ0 , sabemos que: R∗ es un orden total, ası́
que aR∗ b o bR∗ a. Entonces se cumple que:

B |= (P(Ca , Cb ) ∨ P(Cb , Ca )).

v) Finalmente, si ¬(Ca ≈ Cb ) ∈ Γ0 , con a, b ∈ B y a , b, tenemos que:

CB B
a = a , b = Cb

o sea que B |= ¬(Ca ≈ Cb ).


Ası́, tenemos que B satisface a Γ0 ⊆ Σ, Γ0 finito, luego Σ es finitamente
satisfacible, y por el Teorema de Compacidad Σ es satisfacible.

Ası́, se ha demostrado la proposición, (A, R∗ ) es un COTO y R∗ extiende


a R en A.

Corolario . Todo conjunto es totalmente ordenable

Demostración: Sea A un conjunto, entonces (A, id) es un COPO y por la


proposición, hay un orden R∗ , tal que (A, R∗ ) es un COTO.

Este último resultado se puede tener directamente con el Axioma de


Elección (AE), el cual afirma algo más fuerte: “todo conjunto es bien orde-
nable”, ya que buen orden implica orden total; pero aquı́ hemos usado el
Teorema de Compacidad, y aunque usamos AE para demostrar el Teorema
de Compacidad, éste no implica al AE; esto es lo que se llama una forma
débil de AE.

2.4 El Lema de Infinitud de König


El Lema de Infinitud de König, afirma la existencia de una “rama” infinita
en todo “árbol” de altura infinita y que no “crezca” infintamente “hacia
2.4 EL LEMA DE INFINITUD DE KÓNIG 59

los lados”. Usualmente este resultado se demuestra fácilmente usando el


Axioma de Elección, aquı́ lo demostraremos usando el Teorema de Com-
pacidad.

Definición 2.5. Decimos que (T, ≤), es un árbol sii (T, ≤) es un COPO tal
que:
i) Hay un único a0 ∈ T, tal que para todo b ∈ T, a0 ≤ b. (a0 es raiz del
árbol).
ii) Para todo a ∈ T, Pa = {y ∈ T : y ≤ a}, el conjunto de los predecesores de
a, es un conjunto bien ordenado, es decir, (Pa , ≤) es un COBO.

Definición 2.6. Para n ∈ N, se definie el nivel n-ésimo, como:

Nn = {x ∈ T : |Px | = n + 1},

ası́, N0 = {a0 }.

Definición 2.7. Una rama es un subconjunto R de T, totalmente ordenado,


maximal; es decir, es una cadena maximal.

Definición 2.8. Un árbol es de altura infinita sii para toda n ∈ N, Nn , ∅.

Definición 2.9. Una rama R es infinita sii para toda n ∈ N, R ∩ Nn , ∅.

Definición 2.10. La altura de un árbol (T, ≤), es el número de Nn , n ≥ 0, tal


que Nn , ∅, n ∈ N, y la denotamos por h(T).

Ejemplos:
1) El conjunto de las sucesiones finitas de ceros y unos, parcialmente orde-
nado por extensión, es un árbol (árbol binario de Cantor).
2) No todo árbol de altura infinita, tiene un rama de longitud infinita: en
este ejemplo, toda rama tiene longitud de n < ℵ0 y para toda n < ℵ0 ,
Nn , ∅. Ver figura 2.1
60 [Cap. 2.] APLICACIONES DEL TEOREMA DE COMPACIDAD

0
110
10011
10
0
1 100
0110
11
00
11
0
00
11 00
11 00
11
00
110 10
1
11 00
00 11 00
11 10
0 10
101
0
1 1 00
0 11 1 1
0 00
11 1
000
11
1
0
00
11
0 11
1 00
00
11 0
1
0 11
1 00
00
11 0
0
1 0
1
01
1 0
01
10
01
1 0
0
1
11 00
00 11 01 01 00
11 1
0 10
0 100
11
1
0
1 00
0 1100
11 01 1
0 00
11 00
11 00
1100
110
0
11
1 0
0 0
1 100
11 0111
0011 0
00 1 0
1 0100
11
00
11
00
11
11 0
00 10
101
110
00 10
111 0
00 100
1100
11
1
000
11
1 0
0 1110
00 10
100
11
100
011110
00 00
11
1
00
1100
11
00
11
00
1100
11
00
11
00
11
10
0 1
110
00 11
00
11
00
100
11
11
00
1 00
0 11
10
0 00
11
100
11
001
00
11
11 0
0
1

Figura 2.1: Árbol de altura infinita con todas sus ramas finitas.

Proposición 2.4. Si (T, ≤) es un árbol de altura infinita y niveles finitos, es decir,


tal que h(T) ≥ ℵ0 y para todo n > 0, |Nn | < ℵ0 entonces T tiene una rama infinita
R.
Demostración:
Sea (T, ≤) un árbol, tal que |h(T)| ≥ ℵ0 y para toda n ≥ 0, |Nn | < ℵ0 ;
como cada Nn es finito, sea Nn = {an0 , an1 , . . . , ankn }, para todo n ≥ 0, donde
kn = |Nn | − 1. Sea Cni , una constante para cada ani , con n ≥ 0, 0 ≤ i ≤ kn , tal
que Cni , Cmj , para i , j o n , m, 0 ≤ i ≤ kn , 0 ≤ j ≤ km . Sea P un predicado
1-ario, sea ρ el tipo ası́ determinado, y definimos Σ ⊆ Lρ , como sigue:
Σ = {¬(Cni ≈ Cmj ) : ani , amj , 0 ≤ i ≤ kn , 0 ≤ j ≤ km ; n, m ≥ 0}
∪{P(Cn0 ) ∨ . . . ∨ P(Cnkn ) : ani ∈ T, 0 ≤ i ≤ kn , n ≥ 0}
∪{¬(P(cni ) ∧ P(cmj )) : ani  amj y amj  ani ; ani , amj ∈ T,
0 ≤ i ≤ kn , 0 ≤ j ≤ km , n, m ≥ 0}.
Supongamos que Σ es satisfacible, y veamos que existe una rama infinita
R, de (T, ≤). Supongamos que Σ es satisfacible, entonces existe una ρ-
estructura
A = hA, PA , (Cni )A ii∈{0,...,kn },n≥0
tal que A es un modelo de Σ. El candidato, para la rama infinita R de (T, ≤)
es:
R = {ani ∈ T : A |= P(Cni ), n ≥ 0, 0 ≤ i ≤ kn }.
2.4 EL LEMA DE INFINITUD DE KÓNIG 61

Veamos que R es un rama infinita de (T, ≤).


i) ∀n ≥ 0, R ∩ Nn , ∅.
Nn = {an0 , . . . , ankn } entonces an0 ∈ R o an1 ∈ R o. . . o ankn ∈ R, pues

A |= P(Cn0 ) ∨ . . . ∨ P(Cnkn ),

es decir, A |= P(Cn0 ) o . . . o A |= P(Cnkn ).


ii) ∀x, y ∈ R, x ≤ y o y ≤ x.
Sean x, y ∈ R, digamos, x = ani , y = amj . Supongamos que ¬(ani ≤ amj ) y
¬(amj ≤ ani ), entonces:
A |= ¬(P(Cni ) ∧ p(Cmj )),
es decir, A 6|= P(Cni ) o A 6|= P(Cmj ), entonces ani < R o amj < R!. Entonces ani ≤ amj
o amj ≤ am
i
.
De i) y ii), tenemos que R es un subcojunto infinito de T, totalmente
ordenado, lo único que nos falta, es ver que R es maximal. Supongamos
que R no es maximal, entonces existe amj < R, tal que R ∪ {amj } ⊆ T, es un
COTO. Por i) anterior, hay am i
∈ R, para algún i , j, y entonces am
i
, amj ∈ Nm ,
pero am
i
es comparable con amj , porque suponemos que R∪{amj } es un COTO,
entonces ami
> amj o am
i
< amj , pero están en el mismo nivel! Ası́, R debe ser
maximal.
Con lo anterior, si Σ es satisfacible, entonces existe una rama infinita
R, de (T, ≤). Antes de ver que Σ es satisfacible, requerimos del siguiente
lema.

Lema . Todo árbol de altura k ∈ N, tiene una rama de longitud k.


Esto es debido a que por definición, hay k niveles, N0 , . . . , Nk−1 , no
vacios, luego hay algún elemento ak−1 en Nk−1 . Considremos la cadena bien
ordenada Pak−1 , correspondiente a ak−1 , Pak−1 = {x ∈ T : x ≤ ak−1 }; tenemos
|Pak−1 | = (k − 1) + 1. Entonces la cadena Pak−1 es maximal de longitud k, pues
si x , an , para toda n ∈ {0, . . . , k − 1}, entonces x ≥ ak−1 ⇒ x ∈ Nm , con
m > n, para toda n ∈ {0, . . . , k − 1}, pero por hipótesis (T, ≤) tiene sólo k
niveles!. Luego P‘ = Pak−1 ∪ {x}, no es una rama de (T, ≤).

Veamos que Σ es finitamente satisfacible. Sea Γ0 ⊆ Σ, Γ0 finito, y

B = {ani ∈ T : Cni ∈ τ(Γ0 )} ∪ {a0 }.


62 [Cap. 2.] APLICACIONES DEL TEOREMA DE COMPACIDAD

Ası́, (B, ≤), es un árbol de altura finita k, y por el lema anterior, tiene una
rama R, de longitud k, la altura del árbol.
Afirmamos que B = hB, PB , (Cni )B i, donde PB = R, (Cni )B = ani , es un
modelo para Γ0 , pues:
i) Si ¬(Cni ≈ Cmj ) ∈ Γ0 , ani , amj , 0 ≤ i ≤ kn , 0 ≤ j ≤ km , entonces

B |= ¬(Cni ≈ Cmj ) sii (Cni )B = ani , amj = (Cmj )B .

ii) Si (P(Cn0 ) ∨ . . . ∨ P(Cnkn )) ∈ Γ0 , entonces ani ∈ B, n ≤ k − 1 y 0 ≤ i ≤ kn .


Entonces
(Cni )B = ani ∈ R = PB para algún i ≤ kn ,
sii B |= P(Cn0 ) o . . . o B |= P(Cnkn ),
sii B |= P(Cn0 ) ∨ . . . ∨ P(Cnkn ).
iii) Si ¬(P(Cni ) ∧ P(Cmj )) ∈ Γ0 , donde no es cierto que: ani ≤ amj ni tampoco es
cierto que amj ≤ ani , entonces no sucede que ani , amj ∈ R, entonces ani < R o
amj < R, entonces
B 6|= (P(Cni ) o B 6|= P(Cmj ),
entonces B 6|= (P(Cni ) ∧ P(Cmj )), sii B |= ¬(P(Cni ) ∧ P(Cmj )).
Ası́ tenemos que Σ es finitamente satisfacible, luego, por el Teorema de
Compacidad, Σ es satisfacible, y hay una rama infinita de (T, ≤), con lo que
obtenemos el Lema de König. ⋄

2.5 Un modelo no estándar para la teorı́a de los


números naturales
En la siguiente aplicación, obtendremos un modelo para la aritmética de
los Números Naturales, que no es el intencional, es decir, que no es el
estándar.
Los modelos no-estándar, se distinguen de los estándar, porque en
ellos, suceden “cosas extrañas” o inesperadas. Por ejemplo, en el mode-
lo no-estándar para los naturales, que veremos en esta aplicación, habrá
“números naturales” mayores que todos los números estándar, y esto no
lleva a ninguna contradicción, pues en este modelo, podemos trabajar la
teorı́a de los números naturales estándar, con la misma precisión, que con
cualquier otro modelo estándar.
2.5 UN MODELO NO ESTANDAR PARA LA TEORı́A DE LOS... 63

La aparente anomalı́a, de los modelos no-estándar, desaparece si consi-


deramos que, los modelos que obtenemos por medio de Compacidad, son
modelos que satisfacen a los enunciados aritméticos, más “otros” enuncia-
dos no contradictorios con los aritméticos que pueden hacer que el modelo
no sea el estándar.

Definición 2.11. Sea N = hN, <, +, S, ·, 0i; decimos que G es un modelo no-
estándar de la Aritmética de los Números Naturales, si G ≡ N, pero no es cierto
que G  N. Es decir, son el mismo tipo y hacen verdaderos a los mismos
enunciados, pero no son isomorfos.

Proposición 2.5. Existen modelos no-estándar, de la teorı́a de los números


naturales.
Demostración:
Sea ρ = {R< , f+ , fS , f· , C0 } y sea N = hN, <, +, S, ·, 0i, donde
RN< =<, menor usual.
f+N = +, suma usual.
fSN = S, función sucesor.
f·N = ·, producto usual.
CN0 = 0 ∈ N.
Consideremos el siguiente conjunto de enunciados de Lρ :

Teo(N) = {σ ∈ Lρ : N |= σ}.

Teo(N), ası́ definido, se le llama la teorı́a de los números naturales. Sea C


una constante, C ,, C0 . Sea

T = {¬(C ≈ C0 ), ¬(C ≈ fS (C0 )), . . . , ¬(C ≈ fS ( fS (. . . fS (C0 ))) . . .)}.

Sea ∆ = Teo(N) ∪ T. Afirmamos que ∆ es finitamente satisfacible.


Sea Γ0 ⊆ ∆, con Γ0 finito, entonces Γ0 = Σ′ ∪ T′ , con Σ′ ⊆ Teo(N), T′ ⊆ T,

y Σ′ , T′ finitos. Ahora consideremos la expansión de N a ρ ∪ {C}, N donde

CN = m,

m = S(max{n ∈ N : n = tN , t ∈ τ(T), t , C, y t aparece en T′ }).

Claramente hN, CN i satisface a Γ0 , pues N satisface a Teo(N) y Σ′ ⊆ Teo(N),


y CN es mayor que todo SSS . . . S(0) = tN , con t un τ(T)-término cerrado.
64 [Cap. 2.] APLICACIONES DEL TEOREMA DE COMPACIDAD

Entonces Γ0 es satisfacible, luego, ∆ es finitamente satisfacible y por el


Teorema de Compacidad, ∆ tiene un modelo, digamos A, de tipo ρ ∪ {C},
donde CA ∈ A.
Sea B el reducto de A a ρ, es fácil ver que N ≡ B, pues si N |= α, entonces
α ∈ Teo(N) y como A es modelo de ∆ y Teo(N) ⊆ ∆, entonces B |= α.
Sin embargo, no es cierto que B  N, pues en B existe el número
natural CA , tal que es distinto a todos los naturales: no es cero y no es
sucesor de ningún número natural. A la vez, puesto que los números
naturales están bien ordenados, tal “natural” debe ser mayor que todos los
números naturales, por lo que B y N no pueden ser isomorfos.

2.6 Reivindicación de los infinitesimales


El cálculo diferencial e integral, también es conocido como cálculo infinite-
simal, ya que sus creadores Wilhelm Leibniz e Isaac Newton, se basaron en
cantidades infinitamente pequeñas, pero no cero, para describirlo. Claro
que en ese momento (siglo XVII), dichas cantidades no se entendı́an clara-
mente, y su presentación se enmarcaba en una gran cantidad de dudas y
de rechazo. Para darnos una idea tomemos el siguiente ejemplo:

Ejemplo:
Supóngase que se desea encontrar la pendiente m, de la tangente a la curva
f (x) = x2 , en el punto P = (x0 , y0 ). Tomando otro punto Q = (x0 +∆x, y0 +∆y)
y trazando la secante que une a P y Q, obtenemos la Figura 2.2.

Si m es la pendiente promedio entre P y Q, m = ∆y/∆x. Ahora, puesto que


P y Q son puntos que pertenecen a la curva, tenemos que:

y0 = x20 y y0 + ∆y = (x0 + ∆x)2 = x20 + 2x0 ∆x + ∆x2 ,

de aquı́ que:
m = ∆y/∆x = 2x0 + ∆x.
Ası́ pues, para obtener una cada vez mejor aproximación a m, se deberı́a to-
mar ∆x , 0, y al mismo tiempo, ∆x tan pequeño que fuera despreciable. El
problema es que ningún real distinto de cero, es teóricamente despreciable!
2.6 REIVINDICACIÓN DE LOS INFINITESIMALES 65

f (x)
Q

∆y

y0 P ∆x

x0

Figura 2.2: Gráfica de la curva f (x) = x2 .

Luego, era necesaria la suposición de existencia de un nuevo tipo de


número, el número infinitesimal o “número” no real, mayor que cero y
menor que cualquier real positivo. Tal suposición, a su vez, traı́a sus
problemas, por ejemplo: si i es infinitesimal, y = 7 + i, no es infinitesimal,
pero tampoco es real, pues si lo fuera, y − 7 = i, serı́a real!
Para Leibniz, y = 7 + i, serı́a un número no real, infinitamete próximo
a 7. Ası́, la idea desde Leibniz, era aumentar o agrandar el conjunto de los
números reales R, y construir el conjunto de los números hiperreales ∗ R,
pero hubo dos hechos que desprestigiaron la idea:
1) No se pudo establecer con claridad, ni las leyes del nuevo sistema ∗ R, ni
tampoco, qué propiedades de R eran aplicables a ∗ R.
2) El sistema R, era categórico: Todo sistema con las propiedades de R
(denso, sin extremos, completo y separable), es isomorfo a R.
Las consecuencias de estos hechos fueron:
a) Ataques a la concepción infinitesimal (Berkeley, enciclopedistas).
b) Desconfianza: “los infinitesimales son metafı́sica” (D’Lambert, La-
grange).
66 [Cap. 2.] APLICACIONES DEL TEOREMA DE COMPACIDAD

c) Uso libre y despreocupado, por su valor práctico (Euler).


d) Destierro de los infinitesimales, y fundamentación del cálculo diferen-
cial, con el método ǫ − δ, por Weirstrass, Cauchy y Dedekind, en el siglo
XIX.
Sin embargo, los infinitesimales no estaban desterrados del todo, y en
1961, Abraham Robinson (1918-1974), utilizando el Teorema de Compaci-
dad, mostró que el sistema de los números reales, puede extenderse a un
sistema numérico ∗ R, que incluye, tanto números infinitamente pequeños,
como infinitamente grandes, y que posee todas las propiedades de R, que
sean expresables en un lenguaje de primer orden. Para ello, Abraham
Robinson, construyó un modelo no-estandar de la teorı́a de los números
reales R.
Cabe señalar que desde 1934, Toralf Skolem, habı́a construido mode-
los no-estandar, de la teorı́a de los números naturales, usando la Lógica
Matemática.
El objetivo de esta aplicacón, es el de utilizar el Teorema de Compa-
cidad, para obtener un modelo no-estandar, de la teorı́a de los números
reales, en la cual existen los “números” infinitesimales.

2.6.1 Un modelo para la teorı́a de los números reales, con


números infinitesimales
Como en las aplicaciones anteriores, requerimos describir el problema en
un lenguaje de primer orden, y dar las definiciones necesarias.
Para hablar de la teorı́a de los números reales, utilizaremos un lenguaje
LR , que consta de:
i) Un sı́mbolo relacional PR , de aridad n, para cada relación n-aria R sobre
R, R ⊆ Rn , n > 0.
ii) Un sı́mbolo operacional F f , de aridad m, para cada operación m-aria,
sobre R; f : Rm −→ R, m > 0.
iii) Un sı́mbolo de constante Cr , para cada real r ∈ R, tal que:

r1 , r2 ⇒ Cr1 , Cr2 .

El lenguaje ası́ especificado, tiene una interpretación estandar que es:

R = hR, {Ri }i∈2c , { f j } j∈2c , {r}r∈R i


2.6 REIVINDICACIÓN DE LOS INFINITESIMALES 67

donde c = |R|. Aquı́, el universo de R es R, Ri es una relación de n


argumentos sobre R, para algún n > 0. f j es una operacón de m argumentos
sobre R, para algún m > 0, y

PRR = R, FRf = f y CRr = r.

Al lenguaje LR , lo llamamos el lenguaje completo para la teorı́a de


los números reales. Entendemos por la teorı́a de los números reales, el
conjunto de los enunciados verdaderos en la interpretación estandar, es
decir, el siguiente conjunto:

Teo(R) = {σ : σ es un enunciado de LR y σ es verdadero en R}

Obsérvese, que para cualquier enunciado σ, de LR , se tiene que:

σ ∈ Teo(R) o ¬σ ∈ Teo(R).

Ahora, consideremos la fórmula: P< (C0 , v1 ) ∧ P< (v1 , Cr ), que formaliza en


LR , a la afirmación: “0 < v1 < r”, con r ∈ R.
Es claro que para cada r > 0 dado, la fórmula P< (C0 , v1 ) ∧ P< (v1 , Cr ) es
satisfacible en R, para algún número real en lugar de v1 , positivo y menor
que r. Sea
Σ = Teo(R) ∪ {P< (C0 , v1 ) ∧ P< (v1 , Cr ) : r ∈ R+ }
Obsérvese que Σ lo construimos con la teorı́a de R, más una muy particular
afirmación: “‘v1 es positivo y menor que todo real positivo”.
Afirmamos que Σ es finitamente satisfacible.
Demostración:
Sea Γ0 un subconjunto finito de Σ, {Cr1 , . . . , Crn } = τ(Γ0 ) ∩ {Cr }r∈R+ , y r∗ =
min{r1 , . . . , rn }/2. Entonces M = R|τ(Γ0 ) , con vM
1
= r∗ , satisface a Γ0 , pues M
y r∗ satisfacen todas las fórmulas de la forma: P< (C0 , v1 ) ∧ P< (v1 , Cr ) ya que
vM
1
= r ∗ < r i = CM M ∗ M
ri y C0 = 0 < r = v1 ; ahora, si σ ∈ Γ0 y no es de la forma:
P< (C0 , v1 ) ∧ P< (v1 , Cr ), entonces σ ∈ Teo(R) y

M = R|τ(Γ0 ) |= σ.

Con lo anterior tenemos que, Σ es finitamente satisfacible y por compaci-


dad, hay una estructura A, interpretación del lenguaje de Σ, y un elemento
a ∈ A (universo de A), tal que A satisface a Σ, cuando a es la interpretación
68 [Cap. 2.] APLICACIONES DEL TEOREMA DE COMPACIDAD

o instancia de v1 . Es decir, tenemos un modelo de la teorı́a de los números


reales donde hay un “número” infinitamente pequeño, pero aún no hemos
acabado, pues aún no sabemos, cuál es la relación que guardan A y R.

Proposición 2.6. Para todo enunciado σ ∈ LR , σ es verdadero en R, sii σ es


vedadero en A, es decir, A ≡ R (A y R son elementalmente equivalentes).
Demostración:
⇒) Sea σ verdadero en R, entonces σ ∈ Teo(R), y por lo tanto, σ es
verdadero en A.
⇐) (Contrapositiva) Sea σ falso en R, entonces (¬σ) es verdadero en R, lo
cual implica que (¬σ) ∈ Teo(R), de donde se sigue que (¬σ) es verdadero
en A, concluyendo ası́, que σ es falso en A.

Además de la afirmación anterior, hay un monomorfismo h, de R en A,


dado por h(r) = CAr , veamos que en efecto lo es:
i) h es inyectivo, pues si r1 , r2 , entonces “¬(Cr1 ≈ Cr2 )” es verdad en R,
entonces ¬(Cr1 ≈ Cr2 ) es verdad en A, por la Proposición, y ası́ h(r1 ) = CAr1 ,
CAr2 = h(r2 ).
ii) h preserva relaciones n-arias, pues:
hr1 , . . . , rn i ∈ R = PRR sii “PR (Cr1 , . . . , Crn )” es verdadera en R
sii “PR (Cr1 , . . . , Crn )” es verdadera en A
sii hCAr1 , . . . , CArn i ∈ PAR
sii hh(r1 ), . . . , h(rn )i ∈ PAR .
iii) h preserva operaciones m-arias, pues:

h(FRf (r1 , . . . , rm )) = h( f (r1 , . . . , rm )) = CAf (r1 ,...,rm )


y por otro lado,

FAf (h(r1 ), . . . , h(rm )) = FAf (CAr1 , . . . , CArm ).

Por lo tanto,
h(FRf (r1 , . . . , rm )) = FAf (h(r1 ), . . . , h(rm ))
sii CAf (r1 ,...,rm ) = FAf (CAr1 , . . . , CArm )
sii “C f (r1 ,...,rm ) ≈ F f (Cr1 , . . . , Crm )” es verdadero en A
sii “C f (r1 ,...,rm ) ≈ F f (Cr1 , . . . , Crm )” es verdadero en R
2.6 REIVINDICACIÓN DE LOS INFINITESIMALES 69

sii CRf (r1 ,...,rm ) = FRf (r1 , . . . , rm )


sii f (r1 , . . . , rm ) = f (r1 , . . . , rm ).

iv) h preserva elementos distinguidos, pues h(CRr ) = h(r) = CAr , por defi-
nición de h.
Tenemos pues, una copia isomórfica de R, dentro de A, cosa que era
lo que se esperaba, pero nuestro objetivo no es crear una estructura en
donde convivan los infinitesimales y objetos que se comportan como los
números reales, sino directamente extender los números reales al agregar
los números infinitesimales, es decir, crear un modelo de R, donde infini-
tesimales y reales pertenezcan al universo del modelo. Para ello, se puede
construir una estructura, que llamaremos ∗ R, isomórfica a A, tal que R sea
subestructura de ∗ R.
Consideremos el universo A de A, y cambiemos todo r ∈ R, de A \ h[R]
(si lo hay), por un objeto no número real y lo hacemos “jugar el mismo
papel” que r en la estructura A, ası́, obtendremos una estructura A′ , A′  A
(pueden ser la misma) y tal que:

(A′ \ h[R]) ∩ R = ∅.

Ahora definimos g, con dominio A′ , tal que:

r, si x = h(r), con r ∈ R;

g(x)
x, en otro caso.

Claramente g es inyectiva, pues h es función y R ∩ (A′ \ h[R]) = ∅.


El proceso seguido, tanto a nivel de universos de estructuras, como a
nivel de estructuras, es el siguiente:
70 [Cap. 2.] APLICACIONES DEL TEOREMA DE COMPACIDAD

UNIVERSOS
R A
α
h h[R]
−→ 
1-1
r h(r) = CAr

A′ ∗
R = g[A′ ]
b b
g
 h[R] −→ R
1-1
r

ESTRUCTURAS

R h h[R] ⊆ A  A′  g ∗ R ⊇ R.


Definimos ahora, la nueva estructura ∗ R, con un universo ∗ R, tal que:

R = g[A′ ] y calcando la estructura de A′ , sobre ∗ R:
∗ ′
hx1 , . . . , xn i ∈ PRR sii hg−1 (x1 ), . . . , g−1 (xn )i ∈ PAR ,

FRf (x1 , . . . , xn ) = g[FAf (g−1 (x1 ), . . . , g−1 (xn ))],

C∗R A
r = g(Cr ) = r.

Es claro que A′  A, y como R ⊆ ∗ R  A′  A, hay un b ∈ ∗ R, tal



que ∗ R satisface a Σ, cuando v1 toma el valor b, en particular (0, b) ∈ P<R

y (b, r) ∈ P<R , para todo r ∈ R+ ⊆ ∗ R, o sea que b es un infinitesimal.
Además, como A  ∗ R, se tiene que: R ≡ ∗ R (para todo enunciado σ de
LR , σ es verdadero en R sii σ es verdadero en ∗ R).

Observaciones:
1) Debemos recordar, que para toda relación R sobre R, denotamos con
∗ ∗
R = PRR (que es la interpretación del sı́mbolo PR en la estructura ∗ R); en
particular R, como relación 1-aria sobre R, ∗ R, será el universo o dominio
de ∗ R, pues el enunciado ∀xPR (x) es verdadero en R, de donde es verdadero
2.6 REIVINDICACIÓN DE LOS INFINITESIMALES 71

en ∗ R, y de aquı́ que todo elemento del universo de ∗ R, pertenece a ∗ R. Por


otro lado, ya que R ⊆ ∗ R, R está contenido en ∗ R.
2) Nuevamente, debemos recordar que para toda operación n-aria f , sobre

R, denotamos ∗ f = F fR (la interpretación del sı́mbolo F f en ∗ R). Es claro
que si f es una operación m-aria, f : Rm −→ R, entonces ∗ f |Rm = f y

f : ∗ Rm −→ ∗ R.
3) Como b ∈ ∗ R \ R y satisface 0 <∗ b <∗ r, para todo r ∈ R+ , b es llamado
un infinitesimal. Los elementos de ∗ R son llamados hiperreales.

Ası́, todo real es un hiperreal, a los elementos de R los llamaremos


reales estándar y a los de ∗ R \ R, los reales (o hiperreales) no-estándar, b es
un hiperreal no-estándar.

2.6.2 Método general para demostrar propiedades de una


relación ∗ R u operación ∗ f : principio de transferencia.
Para demostrar que una propiedad acerca de relaciones ∗ R, u operaciones

f , se cumple en ∗ R, podemos seguir el siguiente método:
1.- R o f tienen la propiedad en R.
2.- La propiedad puede expresarse con un enunciado del lenguaje LR ,
de primer orden.
3.- Aplicar que para todo enunciado σ de LR :

σ es verdad en R sii σ es verdad en ∗ R.

Ejemplos:
a) ∗ < es transitiva en ∗ R, pues < es transitiva en R y se expresa con:

σ = ∀x∀y∀z(P< (x, y) ∧ P< (y, z) → P< (x, z)).

b) ∗ < es antirreflexiva, y cumple tricotomı́a en ∗ R, pues esto se expresa:


∀x¬P< (x, x) , y
∀x∀y(x , y → P< (x, y) ∨ P< (y, x)), respectivamente.
c) ∗ < es un orden total y compatible con ∗ +, ∗ ·, en ∗ R.
d) Los axiomas de campo se cumplen en ∗ R y ası́:

h ∗ R, ∗
<, ∗ +, ∗ ·, 0, 1i
72 [Cap. 2.] APLICACIONES DEL TEOREMA DE COMPACIDAD

es un campo ordenado.
e) ∗ 1b ∈ ∗ R y es mayor que cualquier real:
Sea r ∈ R, si r ≤ 0, existe r0 ∈ R+ , tal que r < r0 , ahora como r0 ∈ R+ ,
entonces 0 ∗ < b ∗ < r10 , ya que b es positivo y menor que cualquier real
positivo, en particular es menor que r10 . Multipliquemos ahora por ∗ 1b (el
inverso multiplicativo de b , 0 que existe porque ∗ R es campo); entonces
1 ∗1
1∗< ·
r0 b
∗1
y ahora multiplicando por r0 obtenemos r < r0 ∗ < b
.

Definición 2.12. Un hiperreal mayor que cualquier real estándar se llamará


un hiperreal infinito; ∗ 1b es un hiperreal infinito.

f) La propiedad del supremo no se puede expresar en un lenguaje de primer


orden. De hecho, hay S ⊆ ∗ R, S , ∅, tal que S está acotado superiormente
y no tiene supremo respecto a ∗ <. Por ejemplo, el conjunto “inf” de los
infinitesimales, es acotado por cualquier real positivo, pero no hay un real
positivo mı́nimo.

Otro ejemplo es R ⊆ ∗ R, acotado por ∗1b , y no tiene supremo, pues


de hecho, entre un real y un hiperreal infinito, siempre hay otro hiperreal
infinito: sea r ∈ R+ y sea K hiperreal infinito, entonces
2r < K, de donde
r < K − r, y
K − r < K, ası́ pues
r < K − r < K, y
K − r es infinito, pues si hubiese t ∈ R, tal que
K − r < t, entonces
K <t+r!

Corolario . ∗ R  R.

Demostración:
Sabemos que un orden lineal es denso completo y separable, sii es isomorfo
a los reales con su orden, pero:
h ∗ R, ∗
<i
2.6 REIVINDICACIÓN DE LOS INFINITESIMALES 73

no es completo, por lo que no es isomorfo a los reales con su orden. ⋄

2.6.3 Finitos, infinitos e infinitesimales. Estándar y no-


estándar
Resumimos las definiciones de los conceptos dados, como:

x∈ R es finito sii ∗ |x| ∗ < y, para algún y ∈ R.

x∈ R es infinitesimal sii ∗ |x| ∗ < y, para todo y ∈ R+ .

x∈ R es infinito sii ∗ |x| >∗ y, para todo y ∈ R.

x∈ R es estándar sii x ∈ R.

x∈ R es no-estándar sii x ∈ ∗ R \ R.
Hacemos notar que aunque la idea original de infinitesimal excluı́a al
cero, es conveniente considerarlo como infinitesimal por razones técnicas.

Notación
a) Fin = {x : x es finito }
b) inf = {x : x es infinitesimal }
c) Las letras i, j denotan infinitesimales.
d) Las letras K, L, M denotan infinitos.
e) Las letras r, t denotan estándar o reales.

Observaciones:
a) El único estándar infinitesimal es 0, o sea,

R ∩ inf = {0}.

b) (R ⊂ Fin ∧ R , Fin); (inf ⊂ Fin ∧ inf , Fin).


c) Los finitos pueden ser de la forma: 0, r, i, (r ± i).
d) Los infinitos pueden ser de la forma:

K, (K ± r), (K ± i), (K ± r ± i).

e) Hay al menos tantos infinitos e infinitesimales como reales, pues si K


es finito, entonces (K + r) es infinito, para toda r ∈ R y sus respectivos
infinitesimales.
74 [Cap. 2.] APLICACIONES DEL TEOREMA DE COMPACIDAD

2.6.4 Propiedades algebraicas

Proposición 2.7.
a) Fin está cerrado bajo ∗ +, ∗ ·, ∗ −, es decir, Fin es un sub-anillo de ∗ R.
b) inf está cerrado bajo ∗ +, ∗ ·, ∗ − y productos finitos, es decir, inf es un ideal en
el anillo Fin.
Demostración:
a) Sean x, y ∈ Fin,
∗ ∗
|x| < a, |y| < b
para algún a, b ∈ R, entonces

|x ± y| < ∗ |x| ∗ + ∗ |y| < a ∗ + b = a + b ∈ R

|x ∗ · y| < a ∗ · b = a · b ∈ R
b) Sean i, j en inf, entonces
a a
∀a ∈ R+ (∗ |i| ∗ < ∧ ∗ |j| ∗ < ),
2 2
entonces
∗ a a
|i ± j| ∗ < + = a.
2 2
Sea i ∈ inf, z ∈ Fin, entonces ∗ |z| ∗ < a, para algún a ∈ R. Sea y ∈ R+ ,
entonces

y y
|i| ∗ < ∧ ∗ |i · z| ∗ < · a = y.
a a

Definición 2.13. Sean x, y ∈ ∗ R, diremos que x es infinitamente cercano a y


(denotado por x ≈ y), sii x ∗ − y ∈ inf.

Proposición 2.8.
a) ≈ es una relación de equivalencia sobre ∗ R.
b) Si (u ≈ v), y (x ≈ y), entonces (u ∗ + x ≈ v ∗ + y) y (∗ −u ≈ ∗ − v).
c) Si x, y, u, v ∈ Fin, (u ≈ v) y (x ≈ y), entonces (u ∗ · x ≈ v ∗ · y).
Demostración:
a) Porque 0 ∈ inf y Proposición 2.7 b).
b) (u + x) − (v + y) = (u − v) + (x − y) ∈ inf, por la Proposición 2.7 b).
2.6 REIVINDICACIÓN DE LOS INFINITESIMALES 75

(−u) − (−v) = v − u ∈ inf, pues v ≈ u.


c) (u · x) − (v · y) = (u · x) − (u · y) + (u · y) − (v · y)
= u · (x − y) + y · (u − v), como v, y ∈ Fin y (x − y), (u − v) ∈ inf, por la
Proposición 2.7 b), la última expresión es infinitesimal.

Obsérvese que si r, s ∈ R;

r ≈ s sii r = s,

pues 0 es el único infinitesimal estándar.

Proposición 2.9. Todo finito está infinitamente cercano a un único real


Demostración:
Sea x un finito, sea
S = {y ∈ R : y < x},
por el axioma del supremo para R y ya que S , ∅, (pues |x| < r para algún
r ∈ R, de donde x > 1/r y 1/r ∈ R y S acotado superiormente por el r tal
que x < r, entonces S tiene supremo en R. Sea t tal supremo, entonces x ≈ t
pues si no, |x − t| no es infinitesimal de donde hay q ∈ R+ tal que q < |x − t|
y x , t, por lo que hay dos casos:
Si t < x, entonces q < x − t por lo tanto q + t < x, y ası́ q + t ∈ S y t < t + q de
donde t no serı́a una cota superior!
Si x < t, entonces q < t − x por lo tanto x < t − q, y ası́ t − q es cota superior
de S, pero t > t − q de donde t no serı́a la mı́nima cota superior. Por lo
anterior x ≈ t. ⋄

Corolario . Todo finito x tiene una descomposición única x = r + i, donde r ∈ R


(parte estándar) e i ∈ inf (parte infinitesimal).

Demostración:
Sea x finito, ∃!r ∈ R tal que x ≈ r, entonces x − r = i, para algún i ∈ inf. Ası́,
x = r + i. ⋄

Podemos definir una función St : Fin −→ R, tal que St (x) es la parte


estandar de x. St está bien definida por el corolario anterior y es un
homeomorfismo del anillo Fin sobre el campo R con núcleo el ideal inf,
por tanto el anillo cociente Fin/inf  R. Resumimos propiedades de la
76 [Cap. 2.] APLICACIONES DEL TEOREMA DE COMPACIDAD

función St , como:
i) St [inf] = {0}, St [R] = R.
ii) ∀r ∈ R(r ≈ x ↔ r = St (x)), siempre que x sea finito.
iii) St (x + y) = St (x) + St (y), usando la Proposición 2.8 b).
iv) St (x · y) = St (x) · St (y), usando la Proposición 2.8 c).
v) St (1/x) = 1/St (x), si x <inf.
Capı́tulo 3

El Teorema de Completud de Gödel y su relación


con el Teorema de Compacidad

El objetivo de este capı́tulo es estudiar las profundas relaciones entre los


enfoques semántico y sintáctico en la lógica de primer orden, desde la
perspectiva semántica. La meta es dar una prueba de estilo semántico
del Teorema de Completud-Correctud Extendido de Gödel. Para lograr lo
anterior, se desarrollan primero todos los prerrequisitos semánticos como
son los teoremas de sustitución y las formas normales prenex en la sección
3.1, las formas normales de Skolem de satisfacción, de Skolem de validez
y los Teoremas de Skolem y de Herbrand en la sección 3.2. En la sección
3.3 presentamos el concepto de sistema axiomático: reglas de inferencia
clasificadas semánticamente, axiomas y definición de deducción formal,
incluyendo en esta última la posibilidad de establecer restricciones a la
aplicación de reglas de inferencia y todo esto, como parte de la definición
de sistema axiomático.

En la sección 3.4 se presentan dos importantes resultados sobre relacio-


nes metalógicas (relaciones lógicas sobre relaciones lógicas), que son una
caracterización estructural de correctud y completud extendida o fuerte y
que se usarán de modo determinante en la obtención de la meta propuesta,
desarrollada en la sección 3.5 donde se da la prueba de tipo semántico del
teorema de completud-correctud extendido. Para ello se usan los Teore-
mas de Skolem, de Herbrand, los resultados metalógicos y sobre todo, el
Teorema de Compacidad que se encuentra detrás de casi todos ellos.

77
78 [Cap. 3] EL TEOREMA DE COMPLETUD DE GÖDEL Y SU...

3.1 Teoremas de equivalencia y formas normales


prenex

Definición 3.1. Sean α, β fórmulas.

a) Si |= (α ↔ β), decimos que α y β son lógicamente equivalentes y lo


abreviamos: α ≡ β.
b) Si |= (α → β), decimos que α implica lógicamente a β.

Observaciones:
1) Ser lógicamente equivalentes es una relación binaria, de equivalencia
sobre las fórmulas del lenguaje Lρ , es decir
i) |= (α ↔ α).
ii) Si |= (α ↔ β), entonces |= (β ↔ α).
iii) Si |= (α ↔ β) y |= (β ↔ γ), entonces |= (α ↔ γ).
2) Generalmente por comodidad de notación, |= (α ↔ γ), lo denotaremos
como α ≡ γ.
3) α ≡ β sii α implica lógicamente a β, y β implica lógicamente a α. Es decir
α ≡ β sii |= (α → β) y |= (β → α).
4) La afirmación: “ |= (α → β)” es estrictamente más fuerte que la afir-
mación: “si |= α, entonces |= β”.

Demostración:
Supongamos |= (α → β). Supongamos |= α. Entonces por el criterio
de verdad de la implicación, |= β. Ahora, si 6|= α, entonces la segunda
afirmación es cierta, pero puede haber una estructura A, tal que A |= α y
A 6|= β con lo que no se cumplirı́a |= (α → β).

Veamos un ejemplo: sea A = hN, PA i, donde PA = {n ∈ N : n es par }.


Pongamos α = (∃xP(x)) y β = (∀xP(x)). Entonces A 6|= (α → β) por lo que
6|= (α → β), aunque la afirmación: si |= α entonces |= β, es cierta ya que
6|= α, pues si B = hN, PB i, con PB = {n ∈ N : n < 0}, B 6|= α.
5) La afirmación |= (α ↔ β) es estrictamente más fuerte que la afirmación
|= α sii |= β.
3.1. TEOREMAS DE EQUIVALENCIA Y FORMAS... 79

Definición 3.2. Una fórmula está en forma normal prenex si es de la forma

Q1 v1 . . . Qn vn φ,

donde φ es una fórmula sin cuantificadores y para i ∈ {1, . . . , n}, Qi ∈ {∀, ∃}.
A φ se le llama la matriz de la forma prenex.

Probaremos que toda fórmula φ es lógicamente equivalente a una


fórmula en Forma Normal Prenex, a la que denotaremos FNP(φ) y la cual
no es única, aunque se puede determinar un algoritmo para obtener sólo
una. Antes de enunciar el teorema correspondiente, veremos un ejemplo
de cómo transformar φ a su Forma Normal Prenex o FNP(φ):

Ejemplo:

φ = ∀x[P(y) → ∀y(Q(x, y) → ¬∀zR(y, z))]


≡ ∀x[P(y) → ∀y(Q(x, y) → ∃z¬R(y, z))] . . . . . . . . . pues ¬∀zα ≡ ∃z¬α
≡ ∀x[P(y) → ∀y∃z(Q(x, y) → ¬R(y, z))] . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . pues (α → ∃zβ) ≡ ∃z(α → β) (si z no es libre en α)
≡ ∀x[P(y) → ∀w∃z(Q(x, w) → ¬R(w, z))] . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . pues ∀yα ≡ ∀wα (si w no aparece en α y w , y)
≡ ∀x∀w[P(y) → ∃z(Q(x, w) → ¬R(w, z))] . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . pues (α → ∀wβ) ≡ ∀w(α → β) (si w no es libre en α)
≡ ∀x∀w∃z[P(y) → (Q(x, w) → ¬R(w, z))] . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . pues (α → ∃zβ) ≡ ∃z(α → β) (si z no es libre en α).

Lema 3.1. Sean α, β, α′ , β′ , fórmulas, entonces:


a) Si α ≡ α′ , entonces (¬α) ≡ (¬α′ ),
b) si α ≡ α′ y β ≡ β′ , entonces (α ∨ β) ≡ (α′ ∨ β′ ),
c) si α ≡ α′ , entonces (∃xα) ≡ (∃xα′ ).
Demostración:
a) Supongamos que α ≡ α′ . Sea A una estructura y s una asignación,
entonces

A |= ¬α [s] sii A 6|= α [s] sii A 6|= α′ [s] sii A |= ¬α′ [s].
80 [Cap. 3] EL TEOREMA DE COMPLETUD DE GÖDEL Y SU...

Ası́ pues, para toda A y toda s, A |= ¬α [s] sii A |= ¬α′ [s], por lo que
|= (¬α ↔ ¬α′ ), es decir, (¬α) ≡ (¬α′ ).
b) Supongamos α ≡ α′ y β ≡ β′ . Sean A y s cualesquiera, entonces
A |= (α ∨ β) [s] sii A |= α [s] o A |= β [s]
sii A |= α ′ [s] o A |= β ′ [s]
sii A |= (α ′ ∨ β ′ ) [s].
Ası́, (α ∨ β) ≡ (α′ ∨ β ′ ).
c) Supongamos que α ≡ α′ , y sean A y s cualesquiera, entonces:
A |= (∃xα) [s] sii hay a ∈ A tal que A |= α [s(x/a)]
sii hay a ∈ A tal que A |= α ′ [s(x/a)]
sii A |= (∃xα ′ ) [s].

Lema 3.2. (Teorema de Sustitución de Fórmulas Equivalentes)


Si φ ≡ φ ′ y ψ ′ es el resultado de sustituir φ ′ en lugar de una o más presencias
de la subfórmula φ en la fórmula ψ, entonces ψ ≡ ψ ′ . Esquemáticamente:

φ −→ φ′
ψ ψ′
Si φ ≡ φ ′ , entonces ψ ≡ ψ ′ .
Demostración: Por inducción sobre la formación de fórmulas.
Supongamos que φ ≡ φ ′ . Si ψ no tiene a φ como subfórmula, no hay nada
que demostrar, pues ψ = ψ ′ . Supongamos pues que φ sı́ aparece como
subfórmula en ψ.
Si φ = ψ, entonces ψ ′ = φ ′ , por lo que ya por hipótesis tenemos que
ψ ≡ ψ ′ . Supondremos pues que φ , ψ y que φ sı́ aparece en ψ como
subfórmula.
Si ψ es atómica, entonces φ = ψ y ψ ′ = φ ′ de donde por hipótesis
tendremos que ψ ≡ ψ ′ , como el caso anterior.
Si ψ = (¬α), entonces ψ ′ = ¬(α ′ ), donde α ′ denota el resultado de
sustituir φ ′ en lugar de una o más presencias de la subfórmula φ en la
3.1. TEOREMAS DE EQUIVALENCIA Y FORMAS... 81

fórmula α. Entonces, por hipótesis inductiva, α ≡ α ′ y por el Lema 3.1 a),


ψ = (¬α) ≡ (¬α ′ ) = ψ ′ .
Si ψ = (α ∨ β), entonces ψ ′ = (α ′ ∨ β ′ ) con la notación explicada en el
caso anterior y por hipótesis inductiva, α ≡ α ′ y β ≡ β ′ , de donde por el
Lema 3.1 b), ψ = (α ∨ β) ≡ (α ′ ∨ β ′ ) = ψ ′ .
Si ψ = (∃xα), entonces ψ ′ = (∃xα′ ); esto debe ser claro, pues las
subfórmulas de (∃xα) distintas de (∃xα), son: α y las subfórmulas de α.
Ahora, por hipótesis inductiva, α ≡ α ′ , y por el Lema 3.1 c),

ψ = (∃xα) ≡ (∃xα ′ ) = ψ ′ .

Lema 3.3. Sean t un término, φ una fórmula y u una variable que no aparece en
t ni en φ. Sean t∗ y φ∗ el resultado de sustituir u en lugar de todas las presencias
de la variable v en t y φ respectivamente. Entonces, para toda A y toda s ∈ N A:
i) tA [s] = t∗ A [s(u/s(v))],
ii) A |= φ [s] sii A |= φ∗ [s(u/s(v))]
Demostración:
Supongamos que v aparece en t y en φ, si no, no hay qué demostrar, pues
t = t∗ y φ = φ∗ .
i) Por inducción sobre la formación de términos: si t = v, entonces t∗ = u,
y tenemos que:

tA [s] = vA [s] = s(v) = s(u/s(v)) (u) = uA [s(u/s(v))] = t∗ A


[s(u/s(v))].

Si t = c, entonces t∗ = c, y tenemos que:

tA [s] = cA [s] = cA = cA [s(u/s(v))] = t∗ A


[s(u/s(v))].

Si t = f (t1 , . . . , tn ), entonces t∗ = f (t∗1 , . . . , t∗n ), donde t∗i denota el resultado


de sustituir u en lugar de todas las presencias de v en ti . Ası́, tenemos que:

tA [s] = f (t1 , . . . , tn )A [s]


= f A (tA1 [s], . . . , tAn [s])
= f A (t∗1 A
[s(u/s(v))], . . . , t∗n A
[s(u/s(v))])
82 [Cap. 3] EL TEOREMA DE COMPLETUD DE GÖDEL Y SU...

= f (t∗1 , . . . , t∗n )A [s(u/s(v))]


= t∗ A
[s(u/s(v))].
ii) Por inducción sobre la formación de fórmulas:
Si φ = (t1 ≈ t2 ), φ∗ = (t∗1 ≈ t∗2 ), entonces:
A |= (t1 ≈ t2 ) [s] sii tA1 [s] = tA2 [s]
sii t∗1 A
[s(u/s(v))] = t∗2 A
[s(u/s(v))]
sii A |= (t∗1 ≈ t∗2 ) [s(u/s(v))].
Si φ = P(t1 , . . . , tn ), φ∗ = P(t∗1 , . . . , t∗n ), entonces:
A |= P(t1 , . . . , tn ) [s] sii htA1 [s], . . . , tAn [s]i ∈ PA
sii ht∗1 A
[s(u/s(v))], . . . , t∗n A
[s(u/s(v))]i ∈ PA
sii A |= P(t∗1 , . . . , t∗n ) [s(u/s(v))].
Si φ = (¬α) y si φ = (α ∨ β), es inmediato usando la hipótesis inductiva.
Si φ = (∃wα), hay dos posibilidades: w , v o w = v.
1) Si w , v, entonces φ∗ = (∃wα∗ ), y en este caso:
A |= (∃wα) [s] sii hay a ∈ A tal que A |= α [s(w/a)]
sii hay a ∈ A tal que A |= α∗ [s(w/a, u/s(v))]
sii hay a ∈ A tal que A |= α∗ [s(u/s(v), w/a)]
sii A |= (∃wα) [s(u/s(v))]
2) Si w = v, entonces φ = (∃wα) = (∃vα) y φ∗ = (∃wα)∗ = (∃uα∗ ), y en este
caso:
A |= (∃wα) [s] sii A |= (∃vα) [s]
sii A |= (∃vα) [s(u/s(v))] . . . . . . . . . . . . . . . . . . . . pues u no aparece en α.
sii hay a ∈ A tal que A |= α [s(u/s(v), v/a)]
sii hay a ∈ A tal que A |= α∗ [s(u/s(v), v/a)(u/s(u/s(v), v/a)(v))] . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . por H.I. con s(u/s(v), v/a)
sii hay a ∈ A tal que A |= α∗ [s(u/s(v), v/a, u/a)] . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . pues s(u/s(v), v/a)(v) = a
sii hay a ∈ A tal que A |= α∗ [s(u/s(v), u/a)] . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . pues v no aparece en α∗
3.1. TEOREMAS DE EQUIVALENCIA Y FORMAS... 83

sii A |= (∃uα∗ ) [s(u/s(v))]


sii A |= φ∗ [s(u/s(v))].

Lema 3.4. (Teorema de Sustitución de Variables Acotadas)


Si u es una variable que no aparece en la fórmula φ, y φ ′ es el resultado de
sustituir u en lugar de cada presencia acotada de la variable v en φ, entonces φ y
φ ′ son lógicamente equivalentes.
Demostración: Por inducción sobre la formación de fórmulas.
Si φ es atómica, entonces no tiene variables acotadas, por lo que φ = φ ′ ,
y no hay qué demostrar. Supondremos pues, que la variable v sı́ aparece
acotada en φ.
Si φ = (¬α), entonces φ ′ = (¬α ′ ), donde α ′ denota el resultado de
sustituir u en lugar de cada presencia acotada de la variable v en α. Ası́,
por hipótesis inductiva, se tiene que α ≡ α ′ , y por el Lema 3.1 a), se tiene
que φ = (¬α) ≡ (¬α ′ ) = φ ′ .
Si φ = (α ∨ β), es claro que φ ′ = (α ′ ∨ β ′ ), y por H.I., tenemos que
α ≡ α ′ y β ≡ β ′ , entonces, por el Lema 3.1 b), se sigue que φ = (α ∨ β) ≡
(α ′ ∨ β ′ ) = φ ′ .
Si φ = (∃xα), hay que considerar dos posibilidades:
1) si v , x, entonces φ ′ = (∃xα′ ) y por H.I. α ≡ α ′ , de donde por el Lema
3.1 c), se tiene que
φ = (∃xα) ≡ (∃xα ′ ) = φ ′ .
2) Si v = x, entonces φ ′ = (∃xα) ′ = ∃uα∗ , donde α∗ es la fórmula que resulta
de sustituir la variable u en lugar de todas las presencias de la variable
x = v en α. Es claro que α y α∗ son de igual forma y α tiene presencias
de x = v exactamente en los mismos lugares en los que α∗ tiene presencias
de u, y generalmente tales presencias serán libres en ambos casos, aunque
podrán ser acotadas algunas de ellas o todas.
Sean A y s cualesquiera, entonces:
A |= (∃xα) [s] sii hay a ∈ A tal que A |= α [s(x/a)]
sii hay a ∈ A tal que A |= α∗ [s(x/a)(u/s(x/a)(x))] . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . por el Lema 3.3 con s(x/a) y v = x.
sii hay a ∈ A tal que A |= α∗ [s(u/a)] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . pues x no aparece en α∗ y s(x/a)(x) = a
84 [Cap. 3] EL TEOREMA DE COMPLETUD DE GÖDEL Y SU...

sii A |= (∃uα∗ ) [s]


Ası́, hemos visto que φ = (∃xα) ≡ (∃uα∗ ) = φ ′ .

Teorema 3.1. Toda fórmula es lógicamente equivalente a una fórmula normal


prenex, con exactamente las mismas variables libres.
Demostración: Por inducción sobre la formación de fórmulas.
Si φ es atómica, φ misma es prenex, por lo que no hay qué demostrar.
Supongamos (H.I.) que α ≡ (Q1 v1 . . . Qn vn α ′ ) y que β ≡ (T1 w1 . . . Tk wk β ′ ),
donde Qi , Ti ∈ {∀, ∃}.
Si φ = (¬α), entonces, por H.I. y el Lema 3.1 a), tenemos que:

φ = (¬α) ≡ ¬(Q1 v1 . . . Qn vn α ′ )

y sea
∃, si Qi = ∀,


Qi =
∀, si Qi = ∃.
Entonces, usando que

¬(∀vψ) ≡ ∃v¬ψ y ¬(∃vψ) ≡ ∀v¬ψ

y el Lema 3.2 de la sustitución de fórmulas equivalentes, tenemos que:

¬(Q1 v1 . . . Qn vn α ′ ) ≡ Q1 ′ v1 . . . Qn ′ vn ¬α ′

y por la transitividad de ≡, tenemos que φ ≡ Qi ′ v1 . . . Qn ′ vn ¬α ′ , que está


en forma normal prenex.
Si φ = (α ∨ β), entonces por H.I. y el Lema 3.1 b) tenemos que:

φ = (α ∨ β) ≡ (Q1 v1 . . . Qn vn α ′ ) ∨ (T1 w1 . . . Tk wk β ′ ).

Ahora, por el Lema 3.4, podemos suponer, sin pérdida de generalidad, que
todos los vi (i = 1, . . . , n) son distintos de las w j (j = 1, . . . , k), pues todas
ellas son variables cuantificadas. Ahora, usando que si x no aparece libre
en β y y no aparece libre en α, entonces
(∀xα ∨ β) ≡ ∀x(α ∨ β)
(α ∨ ∀yβ) ≡ ∀y(α ∨ β)
3.2. SKOLEMIZACIÓN. TEOREMAS DE SKOLEM Y... 85

(∃xα ∨ β) ≡ ∃x(α ∨ β)
(α ∨ ∃yβ) ≡ ∃y(α ∨ β)
y usando también el Lema 3.2 de la sustitución de fórmulas equivalentes,
tenemos la siguiente equivalencia lógica:
(Q1 v1 . . . Qn vn α ′ ) ∨ (T1 w1 . . . Tk wk β ′ ) ≡ Q1 v1 . . . Qn vn T1 w1 . . . Tk wk (α ′ ∨ β ′ )
y usando la transitividad de ≡, obtenemos lo buscado, pues la última
fórmula claramente es prenex. Es fácil ver, aplicando la definición de
(α ∧ β) como ¬(¬α ∨ ¬β), que el comportamiento de ∧ es análogo.
Si φ = (∃xα), por H.I. tenemos que: α ≡ (Q1 v1 . . . Qn vn α ′ ), y por el Lema
3.1 c):
φ = (∃xα) ≡ (∃xQ1 v1 . . . Qn vn α ′ )
y esta última es claramente prenex.

Daremos ahora un nuevo ejemplo de cómo encontrar la forma normal
prenex de una fórmula dada φ, FNP(φ):
φ = ∀x(¬∃yP(y, x) → ∃yP(x, y) ∧ ∀z¬P(y, z) ∧ P(z, c))
φ ≡ ∀x(∃yP(y, x) ∨ (∃yP(x, y) ∧ ∀z¬P(y, z) ∧ P(z, c)))
φ ≡ ∀x(∃wP(w, x) ∨ (∃uP(x, u) ∧ ∀v¬P(y, v) ∧ P(z, c)))
Cambiando w en lugar de y en las primeras presencias, cambiando u
en lugar de y en las siguientes dos presencias y cambiando v en lugar de
las primeras dos presencias de z, por los lemas 3.4 y 3.2.
La razón para hacer las sustituciones anteriores, es que las variables y
y z aparecen libres en la fórmula original.
φ ≡ FNP(φ) = ∀x∃w∃u∀v(P(w, x) ∨ (P(x, u) ∧ ¬P(y, v) ∧ P(z, c)))
Sacamos los cuantificadores, o “prenexamos” al principio de la fórmula
con paréntesis exterior, cada uno de los cuantificadores ∃w, ∃u, ∀v, por las
equivalencias lógicas usadas en el teorema anterior. Nótese que el orden
en que se saquen cada uno de estos tres cuantificadores, es arbitrario,
pudiéndose haber obtenido:
φ ≡ ∀x∃u∀v∃w(P(w, x) ∨ (P(x, u) ∧ ¬P(y, v) ∧ P(z, c))).
Es decir, la FNP(φ) no es única, aunque se podrı́an fijar criterios para
obtenerla de un modo único.
86 [Cap. 3] EL TEOREMA DE COMPLETUD DE GÖDEL Y SU...

3.2 Skolemización. Teoremas de Skolem y de


Herbrand
La Skolemización es un proceso para indicar que una constante o “testigo”
cumple una fórmula, cuando se afirma la existencia de alguien que la cum-
ple; es decir, para obtener (φ)xc a partir de (∃xφ); c se llama una constante
de Skolem, más en general si una fórmula es de la forma ∀y∃xφ, podemos
decir que ∀y(φ)xf (y) , donde f (y) es “un x” que cumple φ para “cada y” dado,
es decir, estamos denotando una función f tal que a cada y le asocia “un x”,
que existe y que cumple la fórmula φ; f se llama una función de Skolem.
Los casos más representativos del proceso de Skolemización son los
siguientes, donde φ(x1 , . . . , xn ) indica que x1 , . . . xn son todas las variables
de φ:
∃xφ(x) ∀y∃xφ(x, y) ∃xφ(x, w) ∀y∃xφ(x, y, w)
, , , .
φ(c) ∀yφ( f (y), y) φ( f (w), w) ∀yφ(g(y, w), y, w)
Nótese que cuando hay variables libres, la función de Skolem también
debe depender de ellas.
Ahora veamos rigurosamente lo que significa “un paso de Skolemiza-
ción”.

Definición 3.3.

1) La fórmula,
∀u1 . . . ∀un φ( f (u1 , . . . , un , w1 , . . . , wk ), u1 , . . . , un , w1 , . . . , wk ) (∗)
es un paso de Skolemización de ψ, si ψ es una fórmula de la forma:

∀u1 . . . ∀un ∃uφ(u, u1 , . . . , un , w1 , . . . , wk )


donde w1 , . . . , wk (k ≥ 0) son variable libres de ψ, n ≥ 0, pero n + k , 0; u es
una variable y f es un sı́mbolo funcional de n + k argumentos. La fórmula
(∗) también se puede denotar:

∀u1 , . . . , ∀un (φ)uf(u1 ,...,un ,w1 ,...,wk ) .


2) Si ψ tiene la forma ∃uφ(u), es decir, en la expresión anterior n + k = 0
y c es una constante que no aparece en ψ, entonces φ(c) o (φ)uc es un paso de
Skolemización de ψ.
3.2. SKOLEMIZACIÓN. TEOREMAS DE SKOLEM Y... 87

Ejemplo: Si φ = ∀x∃y∃z(P(x, y, w) ∨ Q(z, b)), entonces, un paso de Skole-


mización de φ es:

∀x∃z(P(x, f (x, w), w) ∨ Q(z, b)).

Definición 3.4. Sea ψ una fórmula cualquiera. Sea φ una fórmula en forma
normal prenex tal que ψ ≡ φ, es decir, FNP(ψ) = φ, y sea φ1 , . . . , φn una
sucesión de fórmulas tal que φ1 = φ, φn es una fórmula universal pura
(es decir, una fórmula que sólo tiene cuantificadores universales o no tiene
cuantificadores) y φi+1 es un paso de Skolemización de φi (i = 1, . . . , n − 1).
Entonces, decimos que φn es una forma normal de Skolem para satisfacción de
ψ; lo que abreviamos como FSS(ψ).

Ejemplo:
ψ = ∀x(¬∃yP(y, x) → ∃yP(x, y) ∧ ∀z¬P(y, z) ∧ P(z, c))
ψ ≡ FNP(ψ) = ∀x∃w∃u∀v(P(w, x) ∨ (P(x, u) ∧ ¬P(y, v) ∧ P(z, c))).
Primer paso de Skolemización:
∀x∃u∀v(P( f (x, y, z), x) ∨ (P(x, u) ∧ ¬P(y, v) ∧ P(z, c)))
Segundo paso de Skolemización:
∀x∀v(P( f (x, y, z), x) ∨ (P(x, g(x, y, z)) ∧ ¬P(y, v) ∧ P(z, c))).
Esta última fórmula es FSS(ψ).

Lema 3.5. Lema de Expansión


Sea φ una fórmula, entonces:
N N
1) Para toda A, hay una expansión B tal que, para toda s ∈ A= B:

A |= φ [s] sii B |= FSS(φ) [s].


N
2) Para toda A del tipo de FSS(φ) y toda s ∈ A:

si A |= FSS(φ) [s], entonces A |= φ [s].

Demostración:
88 [Cap. 3] EL TEOREMA DE COMPLETUD DE GÖDEL Y SU...

Sea φ1 , . . . , φn , tal que:


i) φ1 = φ y φn = FSS(φ),
ii) φ1 = φ está en forma normal prenex,
iii) φi+1 es un paso de Skolemización de φi (i = 1, . . . , n − 1).
Demostraremos las dos afirmaciones para φi y φi+1 , para i desde 1 hasta
n−1. Entonces, por la transitividad del “sii” y del “si, entonces”, tendremos
las afirmaciones del Lema.
Sean φi una fórmula y φi+1 un paso de Skolemización para ella, hay dos
casos:
Si φi = ∀x1 . . . ∀xn ∃vβ, con β una fórmula, w1 , . . . , wk las variables libres
de φi y n + k > 0, entonces

φi+1 = ∀x1 , . . . , ∀xn (β)vf (x1 ,...,xn ,w1 ,...,wk ) ,

donde f es un sı́mbolo funcional n + k−ario nuevo (que no aparece en φi ).


Si φi = ∃vβ, y v es la única variable libre en β (aquı́ n + k = 0), entonces
φi+1 = (β)vc , donde c es una constante nueva que no aparece en φi .
1) Sea A del tipo τ(φi ). Para cada a ∈ An+k , definimos

Xa = {d ∈ A : A |= β[a,d] } ⊆ A

Si n + k > 0, definimos f B : An+k −→ A, tal que

un elemento de Xa , si Xa , ∅,

B
f(a) =
un elemento de A, si Xa = ∅.
Si n + k = 0, definimos
un elemento de X0 , si X0 , ∅,

B
c =
un elemento de A, si X0 = ∅.
donde X0 = {d ∈ A : A |= β [d]}, para el caso n + k = 0.
Definimos ahora la siguiente expansión:
(
hA, f B i, si n + k > 0 y τ(B) = τ(A) ∪ { f },
B=
hA, cB i, si n + k = 0 y τ(B) = τ(A) ∪ {c}.

Sea s ∈ N A = N B, entonces para el caso n + k > 0 tenemos que:


A |= φi [s], sii para todo a1 , . . . , an ∈ A = B, hay d ∈ A, tal que
A |= β [s(xi /ai , w j /s j , v/d)],
3.2. SKOLEMIZACIÓN. TEOREMAS DE SKOLEM Y... 89

sii para todo a1 , . . . , an ∈ A = B, Xha1 ,...,an ,s1 ,...,sk i , ∅ (definición de Xa ),


sii para todo a1 , . . . , an ∈ B,
A |= β [s(xi /ai , w j /s j , v/ f B (a))] (donde a = ha1 , . . . , an , s1 , . . . , sk i),
sii para todo a1 , . . . , an ∈ B,
B |= β [s(xi /ai , w j /s j , v/ f (x1 , . . . , xn , w1 , . . . , wk )B [a])],
sii para todo a1 , . . . , an ∈ B,
B |= (β)vf (x1 ,...,xn ,w1 ,...,wk ) [s(xi /ai , w j /s j )] (Teo. de Sustitución),
sii B |= ∀x1 . . . ∀xn (β)vf (x1 ,...,xn ,w1 ,...,wk ) [s],
sii B |= φi+1 [s].
Para el caso n + k = 0 es análogo aunque más sencillo, pues no hay
cuantificadores universales antes de ∃vβ ni hay variables libres:
A |= φi [s] sii hay d ∈ A tal que A |= β [s(v/d)]
sii X0 , ∅
sii A |= β [s(v/cB )]
sii B |= β [s(v/cB [s])]
sii B |= (β)vc [s]
sii B |= φi+1 [s].
2) Sea A del tipo τ(φi+1 ). Sea s ∈ N A. Para el caso n + k > 0 supongamos
que A |= φi+1 [s]. Entonces, para toda a1 , . . . , an ∈ A, se tiene que:

A |= (β)vf (x1 ,...,xn ,w1 ,...,wk ) [s(xi /ai , w j /s j )],

entonces para toda a1 , . . . , an ∈ A,

A |= β [s(xi /ai , w j /a j , v/ f A (a))]

por Teo. de Sustitución, entonces para toda a1 , . . . , an ∈ A, hay d = f A (a) ∈


A, tal que,
A |= β [s(xi /ai , w j /s j , v/d)],
entonces A |= ∀x1 . . . ∀xn ∃vβ [s] entonces A |= φi [s]

Para el caso n + k = 0 es análogo aunque más sencillo: Supongamos


que A |= φi+1 [s]. Entonces A |= (β)vc [s], entonces A |= β [s(v/cA )], entonces
hay d = cA ∈ A, tal que A |= β [s(v/d)] (Teo. de Sustitución), entonces
A |= ∃vβ [s], entonces A |= φi [s].

90 [Cap. 3] EL TEOREMA DE COMPLETUD DE GÖDEL Y SU...

Teorema 3.2. (Teorema de Skolem (1a Forma))


Sea φ una fórmula, entonces:
i) |= ( FSS(φ) → φ)
ii) Hay fórmulas φ tales que 6|= (φ → FSS(φ))
iii) φ es satisfacible sii FSS(φ) es satisfacible.
Demostración:
i) Es exactamente lo que significa la parte 2) del Lema de Expansión.
ii) Damos un contraejemplo: φ = ∃xP(x), FSS(φ) = P(c),
A = hN, PA , cA i, donde PA = {n ∈ N : n es par }, cA = 3; entonces A |=
∃xP(x), pero A 6|= P(c).
iii) ⇐) Es consecuencia inmediata de la parte 2) del Lema de Expansión,
o bien de la parte i) de este teorema.
⇒) Supongamos que φ es satisfacible, digamos por A y s ∈ N A. Sea B la
expansión de la parte 1) del Lema. Como A |= φ [s], entonces
B |= FSS(φ) [s], y ası́ B y s satisfacen FSS(φ).

Definición 3.5. Dada una fórmula ψ, definimos la forma normal de Skolem


para validez de ψ, FSV(ψ), como la forma normal prenex de la negación de
la forma normal de Skolem para satisfacción de la negación de la fórmula
ψ, es decir:
FSV(ψ) = FNP(¬ FSS(¬ψ)).
Observaciones:

1) La fórmula FSV(ψ) es existencial pura, es decir, es una fórmula en forma


normal prenex que únicamente tiene cuantificadores existenciales, o no
tiene cuantificadores.
2) FSV(ψ) ≡ ¬ FSS(¬ψ).

Es fácil verificar que la negación de la forma normal prenex de una


fórmula es lógicamente equivalente a la forma normal prenex de la ne-
gación de la fórmula, es decir:

¬ FNP(φ) ≡ FNP(¬φ) y ¬ FNP(¬φ) ≡ FNP(φ).

Esto sucede porque FNP(φ) ≡ φ y por el Lema 3.1 a), tenemos que
¬ FNP(φ) ≡ ¬φ, pero también ¬φ ≡ FNP(¬φ) y por transitividad de ≡,
3.2. SKOLEMIZACIÓN. TEOREMAS DE SKOLEM Y... 91

tenemos que: ¬ FNP(φ) ≡ FNP(¬φ). La otra equivalencia se cumple


porque: FNP(¬φ) ≡ ¬φ y por el Lema 3.1 a), ¬ FNP(¬φ) ≡ ¬¬φ, pero
¬¬φ ≡ φ y φ ≡ FNP(φ), por lo tanto, ¬ FNP(¬φ) ≡ FNP(φ).
Por lo anterior, en el proceso para obtener FSV(ψ), no es necesario obte-
ner la forma normal prenex de ¬ψ, si no que se puede partir de ¬ FNP(ψ),
para obtener FNP(¬ FNP(ψ)) y luego obtener FSS(¬ψ); luego negar ésta
y prenexar, lo cual consiste, en este caso, en introducir la negación, para
ası́ obtener FSV(ψ). Veamos un ejemplo.

Ejemplo: Sea

ψ = ∀x(¬∃yP(y, x) → ∃yP(x, y) ∧ ∀z¬P(y, z) ∧ P(z, c)).

Como ya tenı́amos FNP(ψ), simplemente se niega y se prenexa, que en este


caso consiste sólo en introducir la negación:
¬ FNP(ψ) = ¬∀x∃w∃u∀v(P(w, x) ∨ (P(x, u) ∧ ¬P(y, v) ∧ P(z, c))),
FNP(¬ FNP(ψ)) = ∃x∀w∀u∃v(¬P(w, x) ∧ (¬P(x, u)
∨P(y, v) ∨ ¬P(z, c)))
y esta última fórmula es FNP(¬ψ).
Ahora, para obtener FSS(¬ψ) se deben hacer los pasos de Skolemización
necesarios hasta llegar a una fórmula universal pura:

FNP(¬ψ) = ∃x∀w∀u∃v(¬P(w, x) ∧ (¬P(x, u) ∨ P(y, v) ∨ ¬P(z, c)))

Primer paso de SK=


∀w∀u∃v(¬P(w, f (y, z)) ∧ (¬P( f (y, z), u) ∨ P(y, v) ∨ ¬P(z, c)))
Segundo paso de SK=
∀w∀u(¬P(w, f (y, z)) ∧ (¬P( f (y, z), u) ∨ P(y, g(w, u, y, z)) ∨ ¬P(z, c))).
Esta última fórmula es la FSS(¬ψ). Ahora la negamos y obtenemos
su forma normal prenex, que en estos casos consiste sólo en introducir
negación:
¬ FSS(¬ψ) = ¬∀w∀u(¬P(w, f ( f (y, z)) ∧ (¬P( f (y, z), u)
∨P(y, g(w, u, y, z)) ∨ ¬P(z, c)))
FNP(¬ FSS(¬ψ)) = ∃w∃u(P(w, f (y, z)) ∨ (P( f (y, z), u)
∧¬P(y, g(w, u, y, z)) ∧ P(z, c))).
92 [Cap. 3] EL TEOREMA DE COMPLETUD DE GÖDEL Y SU...

Esta última fórmula es por definición la FSV(ψ). Comparamos ahora


FSS(ψ) y FSV(ψ):
FSS(ψ) = ∀x∀u(P( f (x, y, z), x) ∨ (P(x, g(x, y, z))
∧¬P(y, u) ∧ P(z, c)))
FSV(ψ) = ∃w∃u(P(w, f (y, z)) ∨ (P( f (y, z), u)
∧¬P(y, g(w, u, y, z)) ∧ P(z, c)))

Obsérvese que FSS(ψ) es universal pura y FSV(ψ) es existencial pura y


esto sucede para cualquier ψ, y en ambos casos la fórmula cuantificada o
matriz es una fórmula sin cuantificadores y con igual estructura de conec-
tivos, aunque las funciones y constantes de Skolem son muy diferentes.
En el ejemplo anterior, la f y la g de FSS(ψ) son diferentes sı́mbolos que la
f y g de FSV(ψ).

Teorema 3.3. (Teorema de Skolem (2a Forma))


Sea ψ una fórmula, entonces:
i)’ |= (ψ → FSV(ψ))
ii)’ Hay fórmulas ψ tales que 6|= (FSV(ψ) → ψ)
iii)’ |= ψ sii |= FSV(ψ).
Demostración:
N
i)’ Sean A y s ∈ A cualesquiera. Supongamos que A 6|= FSV(ψ) [s], es
decir,
A 6|= FNP(¬ FSS(¬ψ)) [s],
entonces A |= FSS(¬ψ) [s], entonces (por i) de la 1a forma del Teorema de
Skolem): A |= ¬ψ [s]. Entonces A 6|= ψ [s] por lo que

A |= (ψ → FSV(ψ)) [s].

Ası́ pues, |= (ψ → FSV(ψ)).

ii)’ Damos un contraejemplo:


Sea ψ = ∀xP(x), FSV(ψ) = P(c). Sea A = hN, PA , cA i, donde PA = {n ∈ N :
n es par }, cA = 2. Entonces A |= P(c), pero A 6|= ∀xP(x), de donde

A 6|= (FSV(ψ) → ψ),

y ası́, 6|= (FSV(ψ) → ψ).


3.2. SKOLEMIZACIÓN. TEOREMAS DE SKOLEM Y... 93

iii)’ |= ψ sii ¬ψ no es satisfacible.


sii FSS(¬ψ) no es satisfacible . . . . . . . . . . . . . . . . (1a forma del Teo. de SK),
sii |= ¬ FSS(¬ψ)
sii |= FNP(¬ FSS(¬ψ)) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . (FNP(φ) ≡ φ),
sii |= FSV(ψ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . (definición de FSV(ψ)).

Veamos otro ejemplo.

Ejemplo:
ψ = ∃y∀xP(x, y) ∧ ¬∃z∀x∀yQ(z, x, f (y))
ψ ≡ ∃v∀wP(w, v) ∧ ∀z∃x∃y¬Q(z, x, f (y))
ψ ≡ FNP(ψ) = ∃v∀z∃x∃y∀w(P(w, v) ∧ ¬Q(z, x, f (y)))
1o SK= ∀z∃x∃y∀w(P(w, c) ∧ ¬Q(z, x, f (y)))
2o SK= ∀z∃y∀w(P(w, c) ∧ ¬Q(z, g(z), f (y)))
3o SK= ∀z∀w(P(w, c) ∧ ¬Q(z, g(z), f (h(z))))
FSS(ψ) = ∀z∀w(P(w, c) ∧ ¬Q(z, g(z), f (h(z))))
FNP(¬ψ) = ∀v∃z∀x∀y∃w(¬P(w, v) ∨ Q(z, x, f (y)))
1o SK= ∀v∀x∀y∃w(¬P(w, v) ∨ Q(g1 (v), x, f (y)))
2o SK= ∀v∀x∀y(¬P(g2 (v, x, y), v) ∨ Q(g1 (v), x, f (y)))
FNP(¬ FSS(¬ψ)) = ∃v∃x∃y(P(g2 (v, x, y), v) ∧ ¬Q(g1 (v), x, f (y)))
FSV(ψ) = ∃v∃x∃y(P(g2 (v, x, y), v) ∧ ¬Q(g1 (v), x, f (y))).

Teorema de Herbrand

Definición 3.6. Sea φ(x1 , . . . , xn ) una fórmula sin cuantificadores. φ(t1 , . . . ,


tn ) es una instancia cerrada de sustitución de φ sii cada ti (i = 1 . . . n), está
sustituido en lugar de xi en φ, y cada ti es un término sin variables del
tipo τ(φ) si éste tiene alguna constante y del tipo τ(φ) ∪ {c} si τ(φ) no tiene
constantes. Aquı́ c es una constante arbitraria.

Ejemplo:
Si φ(x, y) = P(x, c) ∨ ¬Q(y, f (x)), entonces τ(φ) = {P, Q, f, c}. Los términos
94 [Cap. 3] EL TEOREMA DE COMPLETUD DE GÖDEL Y SU...

sin variables del tipo τ(φ), son por ejemplo: c, f (c), f ( f (c)), etc. Ası́, algunas
instancias cerradas de sustitución de φ(x, y) son:
P(c, c) ∨ ¬Q(c, f (c)),
P(c, c) ∨ ¬Q( f (c), f (c)),
P( f (c), c) ∨ ¬Q(c, f ( f (c))),
P( f (c), c) ∨ ¬Q( f (c), f ( f (c))), etc.

Obsérvese que P( f (c), c)∨¬Q(c, f (c)) no es una instancia cerrada de sus-


tución de φ, pues no se sustituyó al mismo término por las dos presencias
de la variable x.

Lema 3.6. Sea A una estructura. Supongamos que hay una constante en el tipo de
A, τ(A). Sea B = {tA : t es un término sin variables de tipo τ(A)}. Entonces
B es el universo de una subestructura de A.
Demostración:
Es claro que B ⊆ A. Definimos la estructura B sobre B, como la restricción
de A a B; ası́ pues, f B = f A |B , PB = PA ∩Bn y cB = cA , para cada f, P, c ∈ τ(A),
y definimos ahora B:
B = hB, PB , f B , cB i,
para cada P, f, c ∈ τ(A). Lo único que es necesario verificar para que
B ⊆ A, es que la funciones f B sean cerradas sobre B; veamos pues que
para cualquier b1 , . . . , bn ∈ B y fn ∈ τ(A), f B (b1 , . . . , bn ) = f A (b1 , . . . , bn ) ∈ B.
Pero, si b1 , . . . , bn ∈ B, entonces para todo i, bi = tAi para algún ti término sin
variables de tipo incluido en τ(A), ası́,

f A (b1 , . . . , bn ) = f A (tA1 , . . . , tAn ) = ( f (t1 , . . . , tn ))A ,

pero f (t1 , . . . , tn ) es un término sin variables, por lo tanto, f (t1 , . . . , tn )A ∈ B.


La importancia de este Lema, es que dada una estructura A del tipo


τ(A) tal que hay al menos una constante en τ(A), hay una subestructura
suya, B ⊆ A, en cuyo universo todos los individuos tienen nombre en el
lenguaje del mismo tipo τ(A), es decir, todos los individuos de B, universo
de B, son de la forma tB , para algún término t sin variables de tipo τ(A).
3.2. SKOLEMIZACIÓN. TEOREMAS DE SKOLEM Y... 95

Veamos ahora el importante Teorema de Herbrand, que relaciona la


validez universal de una fórmula existencial pura, con las instancias cerra-
das de sustitución de la matriz de la fórmula. Es importante mencionar que
una instancia cerrada de sustitución de una fórmula sin cuantificadores es
un enunciado sin cuantificadores y para los enunciados sin cuantificadores
es efectivamente decidible si son universalmente válidos o no, al igual que
si son satisfacibles o no.

Teorema 3.4. (Teorema de Herbrand, 1928, primera forma)


Sea φ una fórmula sin cuantificadores y con variables v1 , . . . , vn (necesariamente
libres). Entonces: |= (∃v1 . . . ∃vn φ) sii hay una sucesión finita φ1 , . . . , φk de
instancias cerradas de sustitución de φ, tal que |= (φ1 ∨ . . . ∨ φk ).
Demostración:
v
Cada φi , i = 1 . . . k, es de la forma φi (ti1 , . . . , tin ), o sea (φi )tijj , j = 1, . . . , n.
⇐) Supongase que hay φ1 , . . . , φk instancias cerradas de sustitución de φ
tales que |= (φ1 ∨ . . . ∨ φk ). Sea A una estructura cualquiera del tipo de φ y
sea s ∈ N A. Entonces, A |= (φ1 ∨ . . . ∨ φk ) [s], de donde hay al menos una
i ∈ {1, . . . , k}, tal que A |= φi [s], es decir, A |= φi (ti1 , . . . , tin ) [s]. Entonces, por
el Teorema de Sustitución
A |= φi (v1 , . . . , vn ) [s(v1 /tAi1 , . . . , vn /tAin )],
entonces hay a1 , . . . , an ∈ A, a saber a j = tAi j para j = 1, . . . , n, tales que,
A |= φi (v1 , . . . , vn ) [s(v1 /a1 , . . . , vn /an )],
entonces como φi (v1 , . . . , vn ) = φ, A |= ∃v1 . . . ∃vn φ [s]. Ahora, como A y s
fueron arbitrarios, tenemos que |= (∃v1 . . . ∃vn φ).
⇒) Supongamos que para toda sucesión finita φ1 , . . . , φk de instancias
cerradas de sustitución de φ,

6|= (φ1 ∨ . . . ∨ φk ).

Sea Σ = {(¬φi ) : φi es una instancia cerrada de sustitución de φ}. De nuestra


suposición se desprende que Σ es finitamente satisfacible, pues sea Γ ⊆ Σ, Γ
finito y Γ = {¬φ1 , . . . , ¬φk }; hemos supuesto que 6|= (φ1 ∨ . . . ∨ φk ), de donde
hay una estructura C y una sucesión s ∈ N C, tal que C 6|= (φ1 ∨ . . . ∨ φk ) [s]
y como esa disyunción es un enunciado, entonces C |= ¬(φ1 ∨ . . . ∨ φk ) [s] y
entonces C |= (¬φ1 ∧ . . . ∧ ¬φk ) [s], pero esto es equivalente a que C |= (¬φi ),
para i = 1 . . . k. De aquı́ que C es modelo de Γ.
96 [Cap. 3] EL TEOREMA DE COMPLETUD DE GÖDEL Y SU...

Entonces, por el Teorema de Compacidad Σ tiene un modelo, digamos


A del tipo τ(φ). Ahora, por el Lema 3.6 anterior, sea B ⊆ A tal que su
universo

B = {tA : t es un término sin variables del tipo τ(A) = τ(φ)}

Como A |= ¬φi (ti1 , . . . , tin ) para ti1 , . . . , tin cualesquiera de tipo incluido en
τ(A), y como φ es una fórmula sin cuantificadores, por el Corolario 1.6.2
del Teorema del Homomorfismo (Capı́tulo 1), tenemos que: A |= (¬φi ) sii
B |= (¬φi ) para toda (¬φi ) ∈ Σ, entonces B es modelo de Σ por lo que,
B |= (¬φi ) para toda (¬φi ) ∈ Σ y B |= (¬φi )(ti1 , . . . , tin ) para todos ti1 , . . . , tin
términos. Ahora bien:
B |= (¬φi )(ti1 , . . . , tin ) sii B |= (¬φi )[tB
i1
, . . . , tB
in
] para todo ti j ,
por el Teorema de Sustitución
sii B |= (¬φi )[b1 , . . . , bn ] para todo b1 , . . . , bn ∈ B, pues b j = tB
ij
= tAi j ,
sii B |= (∀v1 . . . ∀vn ¬φ),
sii B |= ¬(∃v1 . . . ∃vn φ),
sii B 6|= (∃v1 . . . ∃vn φ).
Por lo que 6|= (∃v1 . . . ∃vn φ), con lo que termina la demostración.

Veamos un ejemplo de aplicación del Teorema de Herbrand.

Ejemplo:
Sea ψ = ∃y∃w(¬P(c, y) ∨ P(w, f (y))), ¿|= ψ? τ(ψ) = {P, f, c}.
Ejemplos de términos sin variables del tipo de φ = (¬P(c, y) ∨ P(w, f (y))),
son c, f (c), f ( f (c)), etc.
Instancias de sustitución de φ son:
φ1 = (¬P(c, c) ∨ P(c, f (c)))
φ2 = (¬P(c, c) ∨ P( f (c), f (c)))
φ3 = (¬P(c, f (c)) ∨ P(c, f ( f (c))))
¿|= φ1 ? No:
hN, ≥, sucesor, 3i 6|= ¬P(c, c) ∨ P(c, f (c))
3.2. SKOLEMIZACIÓN. TEOREMAS DE SKOLEM Y... 97

¿|= (φ1 ∨ φ2 )? No:

hN, {(3, 3)}, sucesor, 3i 6|= (¬P(c, c) ∨ P(c, f (c))) ∨ (¬P(c, c) ∨ P( f (c), f (c))))

¿|= (φ1 ∨ φ2 ∨ φ3 )? Sı́: sea A = hA, PA , f A , cA i. Debe ser obvio que:


A |= P(c, f (c)) o A |= ¬P(c, f (c)), de donde
A |= P(c, f (c)) ∨ ¬P(c, f (c)) , y entonces
A |= (φ1 ∨ φ2 ∨ φ3 ), por la forma que tienen tales fórmulas. Entonces,
por el Teorema de Herbrand,
|= ∃y∃w(¬P(c, y) ∨ P(w, f (y))).
Obsérvese además que:
∃y∃w(¬P(c, y) ∨ P(w, f (y))) = FSV(∃x∀yP(x, y) → ∀y∃x(x, y))
y usando el Teorema de Skolem (2a forma), se tiene que |= ψ sii |= FSV(ψ),
como acabamos de ver en el Teorema de Herbrand, que:
|= ∃y∃w(¬P(c, y) ∨ P(w, f (y)))
entonces tenemos que:
|= (∃x∀yP(x, y) → ∀x∃yP(x, y)).

Obsérvese que este procedimiento se puede aplicar para cualquier


fórmula de lenguaje de primer orden.

Teorema 3.5. (Teorema de Herbrand, segunda forma)


Sea α un fórmula sin cuantificadores, con variables v1 , . . . , vn (necesariamente
libres). Entonces: (∀v1 . . . ∀vn α) es no satisfacible sii hay una sucesión finita
α1 , . . . , αk de instancias cerradas de sustitución de α, tal que:
(α1 ∧ . . . ∧ αk ) es no satisfacible.
Demostración:
(∀v1 . . . ∀vn α) es no satisfacible sii |= ¬(∀v1 . . . ∀vn α)
sii |= (∃v1 . . . ∃vn ¬α)
sii hay una sucesión finita ¬α1 . . . ¬αk de instancias cerradas de sus-
titución de ¬α, tal que |= (¬α1 ∨ . . . ∨ ¬αk ) y |= ¬(α1 ∧ · · · ∧ αk )
sii hay una sucesión finita α1 . . . αk de instancias cerradas de susti-
tución de α, tal que (α1 ∧ . . . ∧ αk ) es no satisfacible.

98 [Cap. 3] EL TEOREMA DE COMPLETUD DE GÖDEL Y SU...

Corolario . Si γ1 , . . . , γm , γ son fórmulas cualesquiera de un lenguaje de primer


orden, entonces:
a) {γ1 , . . . , γm } |= γ sii hay una sucesión finita φ1 , . . . , φk de instancias cerradas de
sustitución de la matriz φ de la FSV(∀(γ1 ∧. . .∧γm → γ)), tal que |= (φ1 ∨. . .∨φk ).
b) {γ1 , . . . , γm } |= γ sii hay una sucesión finita φ1 , . . . , φk de instancias cerradas
de sustitución de la matriz φ de la FSS(∀(γ1 ∧. . .∧γm ∧¬γ)), tal que (φ1 ∧. . .∧φk )
es no satisfacible.

Demostración:
Sean γ1 , . . . , γm , γ fórmulas cualesquiera. Entonces:
a) γ1 , . . . , γm |= γ sii |= (γ1 ∧ . . . ∧ γm → γ) . . . . . . . Por criterios de verdad,
sii |= ∀(γ1 ∧ . . . ∧ γm → γ) . . . . . . . . . . Pues para toda φ, |= φ ⇔|= ∀φ,
sii |= FSV(∀(γ1 ∧ . . . ∧ γm → γ)) . . . . . . . . . Por Teo. Skolem 2a forma.
sii |= (∃x1 . . . ∃xn α) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Donde
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . (∃x1 . . . ∃xn α) = FSV(∀(γ1 ∧ . . . ∧ γm → γ)
sii hay una sucesión α1 , . . . , αk de instancias de α, tal que
|= (α1 ∨ . . . ∨ αk ) . . . . . . . . . . . . . . . . . . . . . . . . Por el Teorema de Herbrand.
b) γ1 , . . . , γm |= γ sii |= (γ1 ∧ . . . ∧ γm → γ) . . . . . . . . Por criterio de verdad
sii (γ1 ∧ . . . ∧ γm ∧ ¬γ) es no satisfacible . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Pues |= φ ⇔ ¬φ es no satisfacible
sii ∃(γ1 ∧ . . . ∧ γm ∧ ¬γ) es no satisfacible . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . Pues φ es satisfacible sii ∃φ es satisfacible
sii FSS(∃(γ1 ∧ . . . ∧ γm ∧ ¬γ) es no satisfacible . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Por el Teorema de Skolem 1a forma.
sii (∀x1 . . . ∀xn β) es no satisfacible . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . Donde (∀x1 . . . ∀xn β) = FSS(∃(γ1 ∧ . . . ∧ γm ∧ ¬γ)
sii hay una sucesión β1 , . . . βk de instancias de β, tal que (β1 ∧ . . . ∧ βk )
es no satisfacible . . . . . . . . . . . . . . . . . Por el Teorema de Herbrand, 2a forma.

Aplicaciones

Veremos ahora un algoritmo para decidir si un enunciado sin cuantifica-


dores es universalmente válido o no, o bien, para decidir si un enunciado
3.2. SKOLEMIZACIÓN. TEOREMAS DE SKOLEM Y... 99

sin cuantificadores es satisfacible o no. Primero daremos un teorema que


lo justifica.

Teorema 3.6. Sea σ un enunciado sin cuantificadores y sea Tσ el conjunto de


todos los términos que aparecen en σ, es decir,

Tσ = {t : t es un término que aparece en σ}.

Entonces: si σ tiene un modelo, entonces σ tiene un modelo de cardinal menor o


igual que |Tσ |.
Observaciones previas:
i) Todos los elementos de Tσ son términos sin variables (términos cerrados).
ii) Tσ = T¬σ .
iii) |Tσ | es finito y Tσ , ∅.

Ejemplo:
Si σ = P(c, f (d)) ∨ Q(g(d), f (c)), entonces

Tσ = {c, d, f (c), g(d), f (d)} y g(c) < Tσ .

Demostración:

Sea σ un enunciado sin cuantificadores y sea Tσ el conjunto de los términos


que aparecen en σ. Supongamos que σ tiene un modelo, digamos A, y
sea B = {tA : t ∈ Tσ }. Es claro que B ⊆ A, que f (t1 , . . . , tn ) ∈ Tσ sii
f A (tA1 , . . . , tAn ) ∈ B, y que B , ∅, pues todo enunciado sin cuantificadores
tiene al menos una constante. Sea b0 ∈ B y definimos:
Si c ∈ τ(σ), cB = cA ,
Si f ∈ τ(σ), tA1 , . . . , tAn ∈ B,
 A A
B A A f (t1 , . . . , tAn ), si f A (tA1 , . . . , tAn ) ∈ B,
f (t1 , . . . , tn ) =
b0 , en otro caso.

Si P ∈ τ(Σ), PB = PA ∩ Bn . La estructura B queda definida como B =


hB, PB , f B , cB i, para cada
P, f, c ∈ τ(σ). Es obvio que |B| ≤ |Tσ |; lo que hace falta ver es que B es modelo
de σ, pero veremos por inducción sobre la formación de subfórmulas φ de
σ, que:
A |= φ sii B |= φ.
100 [Cap. 3] EL TEOREMA DE COMPLETUD DE GÖDEL Y SU...

Para el caso φ = σ tenemos el resultado.

Lema 3.7. Para todo t ∈ Tσ , tA = tB .

Demostración:
Si t = c, cA = cB . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . por definición de B,
si t = f (t1 , . . . , tn ), tB = f B (tB
1
, . . . , tB B A A
n ) = f (t1 , . . . , tn ) . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Por H.I., pues ti ∈ Tσ , i = 1, . . . , n,


= f A (tA1 , . . . , tAn ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Pues f (t1 , . . . , tn ) ∈ Tσ ,
= ( f (t1 , . . . , tn ))A = tA .

Afirmación. Para todo φ subfórmula de σ: A |= φ sii B |= φ.


Demostración:
1) φ = (t1 ≈ t2 ):
A |= (t1 ≈ t2 )
sii tA1 = tA2
sii tB
1
= tB
2
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Por el Lema,
sii B |= (t1 ≈ t2 ).
2) φ = P(t1 , . . . , tn ):
A |= P(t1 , . . . , tn ) sii htA1 , . . . , tAn i ∈ PA ,
sii htA1 , . . . , tAn i ∈ PB . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Por definición de B
sii htB
1
, . . . , tB B
n i ∈ P . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Por el Lema,

sii B |= P(t1 , . . . , tn ).
3) φ = (¬α) y φ = (α ∨ β), es directo.

Teorema 3.7. Si A es una estructura y γ es una biyección del universo de A, A,


sobre un conjunto B, entonces γ induce un isomorfismo de A sobre B, donde B se
define ası́:
Universo de B es B.
Para cada c, f, P ∈ τ(A),
3.2. SKOLEMIZACIÓN. TEOREMAS DE SKOLEM Y... 101

cB = γ(cA )
Si b1 , . . . , bn ∈ B, f B (b1 , . . . , bn ) = γ( f A (γ−1 (b1 ), . . . , γ−1 (bn ))).
Si b1 , . . . , bm ∈ B, hb1 , . . . , bm i ∈ PB sii hγ−1 (b1 ), . . . , γ−1 (bn )i ∈ PA .

Corolario . Un enunciado sin cuantificadores σ tiene un modelo sii σ tiene un


modelo cuyo universo es:

{1} o {1, 2} o , . . . , o {1, 2, . . . , m}

donde m = |Tσ |.

Por lo anterior, para verificar si un enunciado sin cuantificadores tiene


un modelo o no, es suficiente verificar las estructuras de tipo τ(σ) que
tengan alguno de los universos {1} o {1, 2} o , . . . , o {1, 2, . . . , |Tσ |} las
cuales son un número finito, para ver si σ es satisfecho en alguna de ellas.
Si no, sabemos entonces que σ no tiene modelo.
Los resultados anteriores proporcionan también un algoritmo para ve-
rificar la validez universal de enunciados sin cuantificadores, ya que un
enunciado sin cuantificadores σ es universalmente válido, si y sólo si (¬σ)
no tiene modelo.
Dado σ enunciado sin cuantificadores, el siguiente algoritmo decide si
es universalmente válido o no lo es:
1) Considerar Tσ , el conjunto de los términos que aparecen en σ.
2) Hacer una lista de todas las estructuras de tipo τ(σ) que tengan
universo {1} o {1, 2} o , . . . , o {1, 2, . . . , |Tσ |}.
3) Verificar si (¬σ) es verdadera en alguna de las estructuras enlistadas
en el punto 2).
4) Si (¬σ) es verdadera en alguna estructura del punto 2), entonces σ no
es universalmente válida.
Si (¬σ) es falso en todas las estructruras del punto 2), entonces σ es
universalmente válida.

Sea σ un enunciado sin cuantificadores, como por ejemplo, una instan-
cia cerrada de sustitución de una fórmula sin cuantificadores. En forma
general,
g( j)
τ(σ) = {ph(i)
i
}i∈I ∪ { f j } j∈J ∪ {ck }k∈K
102 [Cap. 3] EL TEOREMA DE COMPLETUD DE GÖDEL Y SU...

donde h(i) es la aridad de Pi , g(j) es la aridad de f j , e I, J, K, son conjuntos


finitos. Cada estructura de tipo τ(σ) de cardinal ≤ |Tσ | es de la forma:
g( j) A
A = hA, {Ph(i)
i
A
}i∈I , { f j } j∈J , {cAk }k∈K i

donde |A| ≤ |Tσ |. Es claro que


g( j) A
Ph(i)
i
A
⊆ Ah(i) , f j : A g( j) −→ A, cAk ∈ A.

Se puede verificar entonces que hay


|Tσ | Y
X Y
[ (2n )h(i) · (nn ) g( j) · n|K| ]
n=1 i∈I j∈J

τ(σ)-estructuras de cardinal ≤ |Tσ |.


Dada una fórmula cualquiera ψ, podemos especificar un procedimiento
general para obtener FSV(ψ), la cual sabemos que es de la forma
(∃x1 . . . ∃xn φ) donde φ es una fórmula sin cuantificadores. Ahora bien, por
el Teorema de Skolem sabemos que:

|= ψ si y sólo si |= (∃x1 . . . ∃xn φ).

Y ahora, por el Teorema de Herbrand, sabemos que |= (∃x1 . . . ∃xn φ) si y


sólo si hay φ1 , . . . , φk instancias cerradas de sustitución de φ, tales que
|= (φ1 ∨ . . . ∨ φk ). Pero obsérvese que para cada k, (φ1 ∨ . . . ∨ φk ) es un
enunciado sin cuantificadores, para el cual ya tenemos un algoritmo de
decisión para su validez universal.
Todos los resultados anteriores nos permiten establecer un procedi-
miento efectivo tal que dada una fórmula cualquiera, si el procedimeiento
responde eventualmente “sı́”, entonces la fórmula original es universal-
mente válida y si el procedimiento no ha respondido, puede seguir, inde-
finidamente, pero no sabemos si responderá eventualmete “sı́” porque la
fórmula original es universalmente válida o nunca responderá “sı́” por-
que la fórmula original no es universalmente válida. El procedidmiento
mencionado es el siguiente, dada una fórmula cualquiera ψ:
1) Tomar la cerradura universal ∀ψ de ψ, y obtener

FSV(ψ) = (∃x1 . . . ∃xn )φ.


3.2. SKOLEMIZACIÓN. TEOREMAS DE SKOLEM Y... 103

2) Considerar τ(φ) y de este conjunto, sus constantes y sı́mbolos fun-


cionales; si no hubiese constantes, agregamos una constante cualquiera al
tipo τ(φ). Ahora, se puede generar el conjunto de términos de tipo τ(φ) y
las instancias cerradas de sustitución de φ.
3) Hacer k = 1.
4) Generar la k-ésima instancia de sustitución φk .
5) Aplicar el algoritmo para decidir |= (φ1 ∨ . . . ∨ φk ) o 6|= (φ1 ∨ . . . ∨ φk ).
6) Si |= (φ1 ∨ . . . ∨ φk ), entonces |= ψ, y terminamos.
Si 6|= (φ1 ∨ . . . ∨ φk ), entonces incrementar en 1 a k e ir al paso 4).
Es claro que: |= ψ sii el procedimiento termina; aunque no es un algo-
ritmo, pues si 6|= ψ y no lo sabemos, tampoco sabemos que el procedimiento
no termina.
Veamos un ejemplo de aplicación del procedimiento efectivo tal que da-
das γ1 , . . . , γm y γ, fórmulas, da como respuesta “sı́”, si y sólo si {γ1 , . . . , γm }
|= γ.

Ejemplo:
Cosideremos el tipo ρ = {P, g}, donde P es un predicado de aridad 2 y g es
un sı́mbolo de función de aridad 1. Considérese la pregunta:

∀y(¬P(x, g(y)) ∨ ¬P(y, g(y))) |= ∃y(¬P(y, g(y)) ∧ ¬P(x, g(y))) ?

La respuesta a esta pregunta es “sı́ ”, si y sólo si se cumple:

|= ∀y(¬P(x, g(y)) ∨ ¬P(y, g(y))) → ∃y(¬P(y, g(y)) ∧ ¬P(x, g(y)))

(Llamemos φ a esta fórmula)


si y sólo si

|= ∀x(∀y(¬P(x, g(y)) ∨ ¬P(y, g(y))) → ∃y(¬P(y, g(y)) ∧ ¬P(x, g(y))))

si y sólo si

|= FSV[∀x(∀y(¬P(x, g(y)) ∨ ¬P(y, g(y))) → ∃y(¬P(y, g(y)) ∧ ¬P(x, g(y))))]

(esta es la fórmula de la forma FSV(∀ψ)). Obtengamos FSV(∀ψ). Quitar la


implicación:

∀x(∃y(P(x, g(y)) ∧ P(y, g(y))) ∨ ∃y(¬P(y, g(y)) ∧ ¬P(x, g(y)))).


104 [Cap. 3] EL TEOREMA DE COMPLETUD DE GÖDEL Y SU...

Renombrar variables cuantificadas (Lema 3.4):

∀x(∃y(P(x, g(y)) ∧ P(y, g(y))) ∨ ∃z(¬P(z, g(z)) ∧ ¬P(x, g(z)))).

Sacar cuantificadores, obteniendo FNP(∀ψ):

∀x∃y∃z((P(x, g(y)) ∧ P(y, g(y))) ∨ (¬P(z, g(z)) ∧ ¬P(x, g(z)))).

Negar e introducir la negación, obteniendo FNP(¬∀ψ):

∃x∀y∀z¬((P(x, g(y)) ∧ P(y, g(y))) ∨ ¬(¬P(z, g(z)) ∧ ¬P(x, g(z)))).

Skolemizamos, obteniendo FSS(¬∀ψ):

∀y∀z¬((P(c, g(y)) ∧ P(y, g(y))) ∨ ¬(¬P(z, g(z)) ∧ ¬P(c, g(z)))).

Otra vez negar e introducir la negación, obteniendo FSV(∀ψ):

∃y∃z((P(c, g(y)) ∧ P(y, g(y))) ∨ (¬P(z, g(z)) ∧ ¬P(c, g(z)))).

Ahora, recordemos que:


|= FSV(∀ψ) sii hay φ1 , . . . , φk instancias cerradas de sustitución de la
matriz φ de la FSV(∀ψ), tales que |= (φ1 ∨ . . . ∨ φk ). En este caso la matriz
φ es:
φ = (P(c, g(y)) ∧ P(y, g(y))) ∨ (¬P(z, g(z)) ∧ ¬P(c, g(z)))
Obtengamos la primera instancia φ1 sustituyendo la variable y por la cons-
tante c y la variable z tambı́en por la constante c:
φ1 = (P(c, g(c)) ∧ P(c, g(c)) ∨ (¬P(c, g(c)) ∧ ¬P(c, g(c)))
que es lógicamente equivalente a la fórmula: (P(c, g(c)) ∨ (¬P(c, g(c))) (pues
α ∧ α ≡ α). Esta instancia es claramente universalmente válida, ya que es
una tautologı́a de la forma (β ∨ ¬β). Ası́ pues, la respuesta a la pregunta
originalmente planteada es “sı́”. Con esto termina el ejemplo.

3.3 Sistemas axiomáticos


Para cualquier fórmula α y cualquier conjunto de fórmulas Σ, hay una
noción sintáctica matemáticamente rigurosa de la relación “α es formal-
mente derivable a partir de Σ”, que pretende capturar completamente la
3.3. SISTEMAS AXIOMÁTICOS 105

noción intuitiva de que: “la fórmula α se sigue, se deduce o se demuestra


a partir del conjunto de fórmulas Σ”. Esta noción matemática está basada
en el concepto de sistema formal de tipo Hilbert, el cual descansa a su vez en
los conceptos de axioma, regla de inferencia y definición de derivación formal.
Un axioma es por definición una fórmula que pertenece a un conjunto
de fórmulas elegidas, que juegan el papel de primeros principios dentro
del concepto de sistema axiomático, que daremos más adelante. Ya que
los axiomas son simplemente fórmulas, es natural pedir que el conjunto
de dichas fórmulas elegidas sea decidible.1 Una justificación para pedir la
decidibilidad de los axiomas es que nuestro punto de partida serán ellos y
la intención es tener un punto de partida decidible, ası́ como un concepto
de derivación formal también decidible.

Definición 3.7. Una regla de inferencia es un mecanismo formal finito,


comúnmente presentado en forma de esquema, que permite obtener una
fórmula a partir de una o más fórmulas (un número finito de ellas) a las
que llamamos sus premisas. Además, el mecanismo, como relación entre
una fórmula y sus premisas, es decidible.2 Obsérvese que cada regla de
inferencia tiene un número n (n ≥ 1) de premisas. Usualmente cada regla
de inferencia se presenta en forma esquemática; es decir, cada regla es en
realidad un esquema de regla de inferencia.

La fórmula que se obtiene de las premisas por medio de una regla de


inferencia, se dice que es una inferencia, conclusión o consecuencia inmediata,
de las premisas en virtud de esa regla de inferencia.

Ejemplos: (Reglas de inferencia)


1. Modus Ponens (MP):
Si α y β son fórmulas, la regla MP establece: De α y (α → β) obtener β.
Esto de denota:
α, (α → β)
β
1
Un conjunto o una relación es decidible, si existe un procedimiento efectivo finito, co-
nocido como algoritmo, para decidir objetivamente si un objeto pertenece o no al conjunto,
o si un par de objetos pertenece o no a la relación. Por ejemplo, en este caso, que se pueda
responder la pregunta de si una fórmula dada es axioma o no lo es.
2
En este caso, debe ser decidible si una fórmula se obtiene de las otras o no, en virtud
de esa regla de inferencia.
106 [Cap. 3] EL TEOREMA DE COMPLETUD DE GÖDEL Y SU...

α y (α → β) son las dos premisas, y β es la conclusión. Es efectivamente


decidible si una fórmula es consecuencia de otras dos o no lo es, es virtud
de Modus Ponens.
2. Generalización (Gen) o Generalización Universal:
Si α es una fórmula y x es una variable, la regla Gen establece: De α
inferir (∀xα). Esto se denota:
α
(∀xα).
La única premisa es α y por su forma, Gen es efectivamente decidible.
3. Regla Existencial (EXG) o Generalización Existencial:
Si α es una fórmula, x es una variable y t es un término, la regla EXG
establece: De (α)xt inferir (∃xα), denotándola
(α)xt
(∃xα).
Es efectivamente decidible.
4. Regla de Herbrand (HB):
Si n ≥ 1 y para cada i ≤ n, φi es una instancia cerrada de sustitución de
φ, fórmula sin cuantificadores y tal que todas sus variables son x1 , . . . , xk ,
entonces HB establece: De φ1 ∨ . . . ∨ φn inferir (∃x1 . . . ∃xk φ), denotándola
φ1 ∨ . . . ∨ φn
(∃x1 . . . ∃xk φ).
Por su forma HB es decidible.
5. Regla de Skolem (SK):
Si φ es una fórmula, entonces la regla SK establece: De FSV(φ) inferir φ.
Por lo visto anteriormente, ya que hay un mecanismo para obtener FSV(φ)
a partir de φ, la regla es efectivamente decidible y se denota:
FSV(φ)
φ.
6. Regla de Instanciación Universal (IU) o de Particularización:
Si φ es una fórmula, x es una variable y t es un término, entonces la
regla IU establece: De ∀xφ inferir (φ)xt . Por su forma, IU es decidible, y se
denota
∀xφ
(φ)xt .
3.3. SISTEMAS AXIOMÁTICOS 107

7. Regla de Instanciaición Existencial (IE):


Si φ es una fórmula, x es una variable y t es un término, entonces la
regla IE establece: De ∃xφ inferir (φ)xt . Por su forma, IE es decidible, y se
denota
∃xφ
(φ)xt .

Independientemente de que las reglas de inferencia son mecanismos


formales efectivamente decidibles, podemos clasificarlas con un criterio
semántico, según suceda que la conclusión obtenida por ellas tenga o no
propiedades semánticas que tengan sus premisas, es decir, si las propie-
dades se heredan de las premisas a la conclusión; en particular para las
propiedades semánticas de:
a) Ser satisfacible por una asignación s en una interpretación A.
b) Ser verdadera en una interpretación A.
c) Ser universalmente válida.

Definición 3.8. Sea R una regla de inferencia,


α1 , . . . , αn
R: , n ≥ 1.
β

1) R es muy buena sii para cualesquiera α1 , . . . , αn , premisas de R, para


toda interpretación A y para toda asignación s en A: Si α1 , . . . , αn son todas
satisfechas por s en A, entonces la conclusión β, también es satisfecha por
s en A. Es decir, si R preserva cualquier satisfacibilidad.
2) R es buena sii para cualesquiera α1 , . . . , αn , premisas de R y para
toda interpretación A: si α1 , . . . , αn son todas verdaderas en A, entonces la
conclusión β, es verdadera en A. Es decir, si R preserva verdad, o lleva de
verdadero a verdadero.
3) R es regular sii para cualesquiera α1 , . . . , αn , premisas de R, si α1 , . . . , αn
son todas universalmente válidas, entonces la conclusión β es universal-
mente válida. Es decir, si R preserva validez universal.

Proposición 3.1. Toda regla de inferencia muy buena es buena y toda regla de
inferencia buena es regular y no inversamente.
108 [Cap. 3] EL TEOREMA DE COMPLETUD DE GÖDEL Y SU...

Es inmediato verificar la proposición, sólo veremos algunos ejemplos:


es inmediato que MP, EXG, HB e IU, son muy buenas lo cual se verifica
usando el Teorema de Sustitución.
Gen es una regla buena que no es muy buena, pues sabemos que si α
es verdadera en A, entonces (∀xα) es verdadera en A, pero si A |= α [s]
y α no es enunciado, puede suceder que A 6|= (∀xα) [s], por ejemplo, si
N = hN, PN i, donde PN = {n ∈ N : n es par }, entonces N |= P(x) [4], pero
N 6|= ∀xP(x) [4].
La regla de Skolem es regular pero no es buena, pues por lo que se vió
en los Teoremas de Skolem: |= FSV(φ) ⇔|= φ, pero en general:
FSV(φ) 6|= φ, ya que 6|= (FSV(φ) → φ).
La regla IE no es buena ni regular, pues lleva de satisfacible a satisfacible
únicamente, y esto se puede ver con los Teoremas de Skolem.
Algunos de estos ejemplos de reglas los usaremos más adelante, donde
ilustraremos la conveniencia de imponer restricciones a la aplicación de
las reglas de inferencia. Terminamos esta visión semántica sobre las reglas
de inferencia en la lógica clásica de primer orden, con una proposición que
incluye tres resultados que consideramos que aclaran más este punto de
vista.
α1 ,...,αn
Proposición 3.2. Si ϕ
denota una regla de inferencia entonces:
α1 ,...,αn
1. ϕ
es una regla muy buena si y sólo si la fórmula [(α1 ∧ . . . ∧ αn ) → ϕ]
es lógicamente válida.
α1 ,...,αn
2. ϕ
es una regla buena si y sólo si la fórmula [∀(α1 ∧ . . . ∧ αn ) → ∀ϕ] es
lógicamente válida.3
α1 ,...,αn
3. ϕ
es una regla regular si y sólo si la validez lógica de (α1 ∧ . . . ∧ αn )
implica la validez lógica de ϕ.

Nuestro objetivo al estudiar semánticamente las reglas, es el de imponer


o establecer posibles restricciones a la aplicación de las reglas de inferencia
para lograr que aunque la regla sea buena pero no muy buena (puede
llevar de satisfacible por s a no satisfacible por s) con esas restricciones el
resultado de la derivación sea muy bueno en el sentido de obtener siempre
3
Si ψ es una fórmula, con ∀ψ denotamos la cerradura universal de ψ, es decir ∀ψ =
∀x1 , . . . , ∀xn ψ y x1 , . . . , xn son todas las variables libres de ψ.
3.3. SISTEMAS AXIOMÁTICOS 109

satisfacción por s a partir de satisfacción por s. O bien, que aunque una


regla sea regular pero no buena (en una interpretación puede llevar de
verdadero a falso), con esas restricciones el resultado de la derivación sea
bueno en el sentido de obtener siempre verdades a partir de verdades.
En la noción tradicional de derivación no se incluye la posibilidad de
aplicar restricciones en el uso de las reglas de inferencia. Desde luego
que hay que distinguir entre restricciones a las reglas y restricciones a la
aplicación o uso de las reglas. No se trata de posibles restricciones a las reglas
mismas, lo cual es factible con la definición tradicional, pues eso simple-
mente cambiarı́a las reglas y cambiarı́a por tanto las relaciones formales
correspondientes a ellas. Se trata de la posibilidad de establecer restriccio-
nes al momento de la aplicación o uso de las reglas de inferencia, lo que no
depende solamente de las reglas mismas, pues éstas, como relaciones sobre
el conjunto de las fórmulas no pueden estar cambiando, sino que depende
además del contexto particular de cada derivación y de la posición de las
fórmulas dentro de la derivación en cada caso particular dado. La conve-
niencia de incluir estas posibles restricciones dependientes del contexto en
la definición misma de sistema axiomático, es que pueden permitir adaptar
mejor la noción de derivación, de modo que se logre mejor su adecuación
a la noción de consecuencia lógica.

Definición 3.9. Un sistema axiomático o cálculo S de tipo ρ está dado por


lo siguiente:
i) Un conjunto ∆ ⊆ {α : α es ρ − fórmula }, tal que ∆ es efectivamente
decidible, es decir, que hay un procedimiento efectivo o algoritmo para
decidir si una fórmula pertenece a ∆ o no. A las fórmulas de ∆ los llamamos,
los axiomas de S.
ii) Un conjunto finito RI de reglas de inferencia sobre las fórmulas de Lρ .
Ya se vió que una regla de inferencia es un mecanismo formal que permite
obtener una ρ-fórmula, a partir de una o más ρ-fórmulas de tal modo que
haya un procedimiento efectivo o algoritmo para decidir si una fórmula es
consecuencia de otras o no lo es, en virtud de dicha regla.
iii) Una definición de deducción formal de una fórmula α a partir de un
conjunto Σ de fórmulas, de modo que sea una sucesión finita de fórmulas
α1 , . . . , αn , con αn = α y para cada i ∈ {1, . . . , n}, o αi ∈ ∆ (αi es un axioma
de S) o αi ∈ Σ (en estos casos decimos que αi es una hipótesis de Σ) o αi es
consecuencia de fórmulas anteriores de la sucesión, en virtud de alguna
regla de inferencia del conjunto RI de reglas de inferencia de S; la aplicación
110 [Cap. 3] EL TEOREMA DE COMPLETUD DE GÖDEL Y SU...

de tal regla puede tener o no restricciones. Si existe tal deducción formal,


esto se denota: Σ ⊢S α y se lee “α es derivable a partir de Σ en el sistema
S”.
Una restricción a la aplicación de una regla de inferencia a fórmulas, es
una condición especificada de modo preciso, que deben satisfacer la regla
y las fórmulas y que involucra a la derivación considerada en el contexto
de la aplicación de la regla. Las restricciones deben ser efectivamente
decidibles.

Notación
Si Σ = Γ ∪ {β}, entonces Γ ∪ {β} ⊢S α se abreviará:
Γ, β ⊢S α.
En caso de que Σ = ∅, ∅ ⊢S α se abreviará:
⊢S α
y en este caso diremos que α es un teorema formal de S y a la deducción
formal de α a partir del conjunto φ, le llamaremos una prueba formal de
α en el sistema S, la cual obviamente será una sucesión finita de fórmulas
α1 , . . . , αn con αn = α y para cada i ∈ {1, . . . , n}, o αi ∈ ∆ (αi es un axioma de
S) o αi es consecuencia de fórmulas anteriores de la sucesión en virtud de
alguna regla de inferencia de S, la cual puede tener o no restricciones.

Es obvio que dada una lista finita de fórmulas, hay un mecanismo


efectivo para decidir si es o no una deducción formal en el sistema S.
Presentamos ahora algunas propiedades sintácticas básicas referentes
a sistemas axiomáticos, cuya prueba es elemental pues sólo depende de la
definición de sistema axiomático y que por lo tanto no dependen de qué
sistema axiomático S se trate, se cumplen en cualquier sistema axiomático
S. Estas son las siguientes:
a) Si Γ ⊆ Σ y Γ ⊢S ϕ entonces Σ ⊢S ϕ (Monotonı́a)
b) Si Σ ⊢S ϕ y para todo β en Σ, Γ ⊢S β, entonces Γ ⊢S ϕ (Corte)
Nótese que estas propiedades son la contraparte sintáctica de las corres-
pondientes dos primeras propiedades semánticas presentadas en el capı́tulo
uno. Otra propiedad elemental es la reflexividad; es decir, que α ⊢S α.
Obsérvese que la propiedad sintáctica de transitividad, o sea:
3.3. SISTEMAS AXIOMÁTICOS 111

Si α ⊢S β y β ⊢S ϕ entonces α ⊢S ϕ

es un caso particular de la propiedad de corte con Σ = {β} y Γ = {α}.


Por el sólo hecho de que por definición las derivaciones son listas
finitas, se sigue que las hipótesis usadas en una derivación constituyen un
conjunto finito, aunque puede haber desde luego una infinidad de hipótesis
no usadas. De aquı́ se sigue el llamado lema de finitud de la derivación, que
también se cumple para cualquier sistema S.

c) Lema de finitud (Primera forma) S


Si S es un sistema axiomático y Σ {ϕ} es un conjunto de fórmulas,
entonces:

Σ ⊢S ϕ si y sólo si hay Γ ⊆ Σ, Γ finito, tal que Γ ⊢S ϕ.

Algunas de estas propiedades sintácticas, cuya prueba es elemental, se


usarán en adelante, apelando a cualquiera de ellas sólo como “propiedades
sintácticas”.
Otra noción lógica fundamental de tipo sintáctico, es la noción de consis-
tencia de un conjunto de fórmulas. Un conjunto de fórmulas Σ es consistente
con respecto a un sistema axiomático S (o s-consistente) si a partir de Σ no se
deduce en el sistema S, una fórmula y su negación; es decir, si no se deriva
una contradicción. Nótese que este concepto no es en general absoluto,
sino relativo al sistema axiomático de que se trate.4 Por esta razón, en
general deberı́a hablarse de s-consistencia y no de consistencia, a menos
que la relatividad haya sido aclarada y sea obvio a qué sistema nos refe-
rimos. Con la noción de s-consistencia podemos dar una segunda forma,
equivalente a la primera, del lema de finitud:

Lema de finitud (Segunda forma)


Si S es un sistema axiomático y Σ es un conjunto de fórmulas, entonces:

Σ es s-consistente si y sólo si todo subconjunto finito de Σ es s-consistente.


4
Si Σ es un conjunto de fórmulas al que le pertenecen α y ¬α, entonces Σ es inconsistente
en forma absoluta, pues en ese caso con cualquier sistema se deriva una contradicción.
Pero es posible que un mismo conjunto de fórmulas sea consistente con respecto a un
sistema axiomático e inconsistente con otro. En este caso la consistencia del conjunto de
fórmulas es relativa al sistema. Véase Amor 2001, p. 66-67.
112 [Cap. 3] EL TEOREMA DE COMPLETUD DE GÖDEL Y SU...

Para terminar esta sección daremos dos propiedades sintácticas refe-


rentes a sistemas axiomáticos, que no se cumplen para cualquier sistema y
que el hecho de que un sistema las cumpla significa que tiene propiedades
fundamentales para su adecuación con la consecuencia lógica.
Las relaciones metalógicas de implicación entre las nociones lógicas de
“deducibilidad de una fórmula β a partir de una fórmula α en un sistema
S” (es decir α ⊢S β) y la noción de “prueba formal de la fórmula (α → β) en
S” (es decir ⊢S (α → β), resultan ser sumamente importantes en la lógica
clásica, por lo que las analizaremos con detalle y posteriormente daremos
algunos resultados que las involucran. Primero generalizamos estas rela-
ciones considerando un conjunto cualquiera Σ de posibles hipótesis extra;
es decir, analizaremos las relaciones de implicación entre las nociones: Σ,
α ⊢S β y Σ ⊢S (α → β).
Es fácil darse cuenta de que la implicación metalógica:
Si Σ ⊢S (α → β) entonces Σ, α ⊢S β.
resulta equivalente a que el sistema tenga la regla de Modus Ponens (MP),
ya sea como una regla original del sistema S o como regla de inferencia
derivada del sistema, esto último significa que la regla se puede demostrar
en el sistema y lo definimos ası́: Si una regla de inferencia R es de la forma:
obtener β a partir de α1 , . . . , αn , entonces decimos que R es una regla derivada
del sistema S si y sólo si R no es regla original de S y α1 , . . . , αn ⊢S β.
Estas ideas las precisamos ahora con la siguiente definición y el siguien-
te lema.

Definición 3.10. Sea S un sistema axiomático. Decimos que S satisface


Modus Ponens (MP) si y sólo si para todo Γ, α y β, se satisface que:
Γ, α, (α → β) ⊢S β.

Lema 3.3. Sea S un sistema axiomático. Entonces: S satisface MP si y sólo si


para todo conjunto de fórmulas Σ y cualesquiera fórmulas α, β: si Σ ⊢S (α → β)
entonces Σ, α ⊢S β.
Demostración: Sea S un sistema axiomático.
⇒) Supongamos que S satisface MP. Sean Σ, α, β, cualesquiera.

1. Γ, α, (α → β) ⊢S β suposición: para todo Γ, α, β


3.3. SISTEMAS AXIOMÁTICOS 113

2. Σ ⊢S (α → β) suposición

3. Σ, α ⊢S (α → β) propiedad sintáctica: monotonı́a

4. Σ, α, (α → β) ⊢S β de (1), con Γ = Σ

5. Σ, α ⊢S β de (3) y (4) por corte

Ası́, por (2)-(5), tenemos que: Σ ⊢S (α → β) ⇒ Σ, α ⊢S β.

⇐) Supongamos ahora: Σ ⊢S (α → β) ⇒ Σ, α ⊢S β para todo Σ, α, β.


Sean Γ, α, β, cualesquiera.
1. Σ ⊢S (α → β) ⇒ Σ, α ⊢S β suposición: para todo Σ, α, β

2. Γ, α, (α → β) ⊢S (α → β) reflexividad y monotonı́a
S
3. Γ, α, (α → β), α ⊢S β de (1) y (2) con Σ = Γ {α, (α → β)}

4. Γ, α, (α → β) ⊢S β quitando la repetición de α
Ası́, por (4), S satisface MP. ⋄

La implicación metalógica inversa, conocida como el Metateorema de la


Deducción, es una propiedad púramente sintáctica muy especial de un sis-
tema axiomático S, pues además e independientemente de proporcionar
un mecanismo para simplificar las derivaciones de fórmulas que tengan
forma de implicaciones,5 tiene una gran importancia teórica por su re-
lación con la correctud extendida o fuerte del sistema, como lo veremos
en la siguiente sección sobre los resultados metalógicos. Obsérvese que
el Metateorema de la Deducción asegura que un condicional es derivable
a partir de un conjunto de fórmulas, si su consecuente es derivable del
conjunto de fórmulas aumentado con el antecedente. Más precisamente:

Metateorema de la Deducción (MTD) para S.


Un sistema S satisface el Metateorema de la Deducción (MTD) cuando
para cualquier conjunto de fórmulas Σ y cualesquiera fórmulas α y β, se
cumple que:
5
Pues en vez de tener que deducir (α → β), podemos suponer adicionalmente α y
deducir β. Esto es lo que usa un matemático, consciente o inconscientemente, siempre
que dice que está demostrando (α → β) y lo que hace es derivar β a partir de α.
114 [Cap. 3] EL TEOREMA DE COMPLETUD DE GÖDEL Y SU...

Si Σ, α ⊢S β entonces Σ ⊢S (α → β)
Es decir, el sistema S satisface el Metateorema de la Deducción, si en
caso de que en S se derive un enunciado β a partir de α (posiblemente junto
con otro conjunto de enunciados Σ) entonces en S se deriva el enunciado
“(α → β)” (posiblemente junto con Σ, pero ya sin α).

Ejercicios:
1. Demuestre las propiedades sintácticas básicas a) y b).
2. Demuestre las propiedades sintácticas de reflexividad y transitivi-
dad.
3. Demuestre el Lema de Finitud.
4. Demuestre la equivalencia de las dos formas del lema de finitud.
5. Suponiendo que un sistema formal S satisface Modus Ponens y sa-
tisface el Metateorema de la Deducción, demuestre que:
⊢S α → ((α → β) → β).

3.4 Resultados metalógicos


Para empezar esta sección haremos preciso lo que entenderemos por la
propiedad de correctud y completud extendida en sistemas axiomáticos de
lógica de primer orden. El concepto sintáctico de obtener una fórmula a
partir de un conjunto de fórmulas en un sistema axiomático S es conocido
como derivabilidad o deducibilidad formal en el sistema S. Recordemos
que una fórmula α es derivable de un conjunto de fórmulas Σ en un sistema
axiomático S, si hay una derivación formal en S, de α a partir de Σ.
Un sistema axiomático S satisface correctud extendida o fuerte si y sólo si
toda fórmula obtenida con el proceso de derivación en S a partir de Σ es
una consecuencia lógica de Σ. En sı́mbolos:
Si Σ ⊢S α entonces Σ |= α
Inversamente, un sistema axiomático S satisface completud extendida o
fuerte si y sólo si todas las consecuencias lógicas de Σ pueden obtenerse
con el proceso de derivación en S a partir de Σ. En sı́mbolos:
3.4. RESULTADOS METALÓGICOS 115

Si Σ |= α entonces Σ ⊢S α

En el caso particular en que Σ es el conjunto vacı́o, denotado ∅, nos


referimos a una derivación formal a partir de ∅ y le llamamos prueba formal
en el sistema S. Esto lo denotamos con “⊢S α” y se lee “α es teorema
formal en el sistema S”. Desde la perspectiva semántica, el caso especial
∅ |= α, generalmente escrito como “|= α”, es el conocido concepto de “α es
lógicamente válida o universalmente válida”. En particular tenemos para
los casos Σ = ∅, lo siguiente:
Un sistema axiomático S satisface correctud restringida o débil si y sólo si
todo teorema formal de S es una fórmula lógicamente válida. En sı́mbolos:

Si ⊢S α entonces |= α

Un sistema axiomático S satisface completud restringida si y sólo si todas


las fórmulas lógicamente válidas son teoremas formales en S.
En sı́mbolos:

Si |= α entonces ⊢S α.

Obsérvese que en ambos conceptos, la versión restringida se refiere al


caso particular en que no hay fórmulas en Σ; es decir, no hay hipótesis
o bien Σ es vacı́o. Es obvio que la relación extendida implica la relación
restringida, pero no inversamente. Esto último se verá en la siguiente
sección, en la que definiremos nuestro sistema axiomático.
En esta sección expondremos dos relaciones lógicas entre propiedades
lógicas. La primera es una relación entre la propiedad de que el sistema sa-
tisfaga Modus Ponens y la propiedad de completud extendida. La segunda
es una relación entre el Metateorema de la Deducción (MTD) y la propiedad
de correctud extendida. Ambas para sistemas que satisfacen correctud y
completud restringida. El descubrimiento de estas relaciones generales nos
ayudará a probar la correctud y la completud extendidas de un sistema
particular, definido con motivaciones semánticas y que satisface correctud
y completud restringidas, probando que satisface el Metateorema de la
Deducción y Modus Ponens.
Expondremos a continuación la primera relación lógica entre dos pro-
piedades lógicas de sistemas axiomáticos: la de satisfacer MP y la de
satisfacer completud extendida. Esta relación metalógica la expresamos
con la siguiente proposición:
116 [Cap. 3] EL TEOREMA DE COMPLETUD DE GÖDEL Y SU...

Proposición 3.4. Si S es un sistema axiomático que satisface completud restrin-


gida entonces:

S satisface completud extendida si y sólo si S satisface MP

Demostración: Sea S un sistema formal que satisface completud restringida


(es decir, |= α ⇒⊢S α).
⇒) Supongamos que S satisface completud extendida (Σ |= α ⇒ Σ ⊢S
α). Sean Γ un conjunto de fórmulas y α, β fórmulas. Es inmediato que:

1. Γ, α, (α → β) |= β propiedades semánticas6

2. Γ, α, (α → β) ⊢S β completud extendida de S

Ası́, por (2), S satisface MP.


⇐) Supongamos ahora que S satisface MP (Γ, α, (α → β) ⊢S β). Sean Σ
un conjunto de fórmulas y α una fórmula, tales que:

1. Σ |= α suposición

2. Hay una lista finita γ1 , . . . , γn de fórmulas de Σ,


tal que γ1 , . . . , γn |= α por compacidad7

3. |= (γ1 → (γ2 → . . . → (γn → α)) . . .) propiedad semántica8

4. ⊢S (γ1 → (γ2 → . . . → (γn → α)) . . .) completud restringida de S

5. γ1 , . . . γn ⊢S α S satisface MP y Lema n veces

6. Σ ⊢S α propiedad sintáctica9 y γ1 , . . . γn ⊆ Σ

Ası́, por (1)-(6), S satisface completud extendida. ⋄

6
Recordar que con propiedades semánticas nos referimos a propiedades elementales de
las definiciones de verdad y de consecuencia lógica de la sección 1.1.2 del primer capı́tulo.
En este caso por la propiedad semántica f).
7
S
Recordar el Teorema de Compacidad (Segunda forma): Si Σ {ϕ} es un conjunto
de fórmulas de un lenguaje de primer orden con igualdad y Σ |= ϕ, entonces hay un
subconjunto finito Γ ⊆ Σ, tal que Γ |= ϕ.
8
Aplicando n veces la propiedad semántica c).
9
Propiedad sintáctica a) monotonı́a.
3.4. RESULTADOS METALÓGICOS 117

Podemos obtener dos corolarios de esta proposición, si separamos las


dos implicaciones y consideramos sólo las hipótesis necesarias para cada
una de ellas.

Corolario 3.4.1. Si un sistema axiomático satisface completud restringida enton-


ces, para que satisfaga completud extendida es suficiente que satisfaga MP.

Corolario 3.4.2. Para que un sistema axiomático satisfaga completud extendida


es necesario que satisfaga MP.

Ası́ pues, dado un sistema axiomático que satisface completud res-


tringida, una condición necesaria y suficiente para que satisfaga completud
extendida, es que satisfaga MP.
Podemos observar entonces que satisfacer MP es tan importante que
si un sistema con completud restringida lo satisface, eso basta para que
satisfaga completud extendida. Pero si un sistema no lo satisface, entonces
aunque satisfaga correctud y completud restringidas, necesariamente no
satisfará completud extendida. Un ejemplo de esto último es el sistema de
Malitz10 . Ese es un sistema que satisface completud y correctud restringidas
y sin embargo no satisface completud extendida y la razón de ello es que no
satisface MP.
El segundo resultado es una relación metalógica entre el Metateorema
de la Deducción (MTD) y la propiedad de correctud extendida. Esta re-
lación la expresamos con la siguiente proposición:

Proposición 3.5. Si S es un sistema axiomático que satisface correctud restringida


y completud extendida, entonces:

S satisface correctud extendida si y sólo si S satisface el MTD

Demostración: Sea S un sistema formal que satisface correctud restringida


y completud extendida (⊢S α ⇒|= α y Σ |= α ⇒ Σ ⊢S α).
⇒) Supongamos que S satisface correctud extendida (Σ ⊢S α ⇒ Σ |= α).
Sean Γ un conjunto de fórmulas, α y β fórmulas, tales que:

1. Γ, α ⊢S β suposición
10
Cf. [Malitz] página 188.
118 [Cap. 3] EL TEOREMA DE COMPLETUD DE GÖDEL Y SU...

2. Γ, α |= β correctud extendida

3. Γ |= (α → β) propiedades semánticas11

4. Hay una lista finita γ1 , . . . , γn de


fórmulas de Γ tal que γ1 , . . . , γn |= (α → β) por Compacidad

5. γ1 , . . . , γn ⊢S (α → β) completud extendida en S

6. Γ ⊢S (α → β) propiedad sintáctica12 y {γ1 , . . . , γn } ⊆ Γ

Ası́, por (1)-(6), S cumple el MTD.


⇐) Supongamos ahora que S satisface el MTD (si Γ, α ⊢S β entonces
Γ ⊢S (α → β)). Sean Σ un conjunto de fórmulas y α una fórmula tales que:

1. Σ ⊢S α suposición

2. Hay una lista finita γ1 , . . . , γn de


fórmulas de Σ, tal que γ1 , . . . , γn ⊢S α Lema de Finitud13

3. ⊢S (γ1 → (γ2 → . . . → (γn → α)) . . .) MTD, n veces

4. |= (γ1 → (γ2 → . . . → (γn → α)) . . .) correctud restringida de S

5. γ1 , . . . , γn |= α propiedad semántica14

6. Σ |= α propiedad semántica15 y {γ1 , . . . , γn } ⊆ Σ

Ası́, por (1)-(6), S cumple correctud extendida.


Desde luego esta Proposición 2 puede probarse suponiendo completud


restringida junto con MP, en vez de completud extendida, porque estas
propiedades son equivalentes como se infiere de la primera proposición
metalógica. Podemos obtener dos corolarios si separamos las dos impli-
caciones y consideramos sólo las hipótesis necesarias para cada una de
ellas.
11
Propiedad semántica c).
12
Propiedad sintáctica a).
13
Propiedad sintctica c).
14
Aplicando n veces la propiedad semántica c).
15
Propiedad semántica a).
3.5. Prueba semántica del Teo. de Correctud-Completud Extendido 119

Corolario 3.5.1. Si un sistema axiomático satisface correctud restringida entonces


para que satisfaga correctud extendida es suficiente que satisfaga el Metateorema
de la Deducción.

Corolario 3.5.2. Si un sistema axiomático satisface completud extendida (o equi-


valentemente completud restringida y Modus Ponens), entonces para que satisfaga
correctud extendida es necesario que satisfaga el Metateorema de la Deducción.

Podemos observar entonces que el MTD es tan importante que si un


sistema con correctud restringida lo cumple, eso basta para que satisfa-
ga correctud extendida, pero si un sistema no lo cumple, aunque tenga
correctud-completud restringida y Modus Ponens, necesariamente no sa-
tisfará correctud extendida. Un ejemplo de esto último es el sistema que
se obtiene del de Malitz16 agregándole MP como nueva regla de inferen-
cia. Este es un sistema que satisface MP, completud extendida y correctud
restringida y sin embargo no satisface correctud extendida y la razón de ello
es que no satisface el MTD.
Presentamos finalmente como corolario final de las dos proposiciones
principales de esta sección, una caracterización estructural de la correctud-
completud extendida para sistemas que satisfacen la propiedad restringida
correspondiente17 :

Teorema 3.6. Si S es un sistema axiomático que satisface correctud-completud


restringida, entonces:

S satisface correctud-completud extendida si y sólo si S satisface MP y MTD

3.5 Una prueba semántica del Teorema de Correc-


tud-Completud Extendido
La pregunta abierta que motivó este capı́tulo fue la siguiente: ¿existe una
prueba de tipo semántico, del Teorema de Correctud-Completud Exten-
dido, a partir del Teorema de Compacidad? Esta sección es la respuesta
16
Cf. [Malitz] página 188.
17
Cf. [Amor 2003].
120 [Cap. 3] EL TEOREMA DE COMPLETUD DE GÖDEL Y SU...

positiva a esta pregunta. Lo que haremos será mostrar una prueba de


ese estilo; es decir, con una motivación semántica, definiremos un sistema
axiomático para el que todas las consecuencias lógicas sean exactamente
las derivaciones formales. La prueba de esto se hará sin trabajar dentro
del sistema dado, sino sólo usando sus propiedades semánticas básicas y
algunos otros resultados semánticos ya demostrados antes, como son el
Teorema de Compacidad, el Teorema de Skolem, el Teorema de Herbrand
(cuya prueba usó el Teorema de Compacidad) y los resultados metalógicos
de la sección anterior.18
En lo que sigue nos referiremos como antes, solamente a lenguajes
formales de primer orden y a la lógica deductiva clásica de primer orden19 .
Trabajaremos con sistemas axiomáticos de tipo Hilbert en una versión
ligeramente diferente a la usual que es un refinamiento explicado ya en la
sección 3.3.20
Consideramos que en las formulaciones del teorema de Correctud-
Completud es fundamental la relatividad a un sistema axiomático, cosa
que no se hace usualmente. Nuestra concepción pues, desde nuestro
punto de vista metalógico es la de resaltar en el enunciado del teorema,
la afirmación de existencia de un sistema axiomático, relativo al cual se
cumplen las propiedades de correctud y completud extendidas. Ası́ pues,
consideramos las siguientes dos formulaciones equivalentes del teorema
en forma extendida.

Teorema de Correctud-Completud Extendido (Formulación 1)


S
Existe un sistema axiomático S tal que para cualquier Σ {α} conjunto
de fórmulas:

Σ |= α si y sólo si Σ ⊢S α

Teorema de Correctud-Completud Extendido (Formulación 2)


Existe un sistema axiomático S tal que:

i) Para todas α y β fórmulas, α, (α → β) ⊢S β (MP en S).


18
Este trabajo es parte del presentado en [Amor 2001].
19
Suponemos que se tienen, bien como sı́mbolos del lenguaje o bien como sı́mbolos
definidos, a todos los conectivos y cuantificadores usuales: no (¬), y (∧), o (∨), si . . .
entonces . . . (→), si y sólo si (↔), para todo (∀) y existe (∃).
20
Cf. [Amor 2004].
3.5. Prueba semántica del Teo. de Correctud-Completud Extendido 121

ii) Para todas β, γ fórmulas, ⊢S (β → (¬β → γ)) (Contradicción implica


trivialidad en S).

iii) Para toda α fórmula, ⊢S [(¬α → α) → α] (Consequentia Mirabilis en


S).
S
iv) Para todo Γ {α, β} conjunto de fórmulas,

Si Γ, α ⊢S β entonces Γ ⊢S (α → β) (MTD en S).

v) Para cualquier Σ conjunto de fórmulas,

Σ es s-consistente si y sólo si Σ es satisfacible.

Como antes, la expresión MP se refiere a la regla de inferencia Modus


Ponens y MTD al Metateorema de la Deducción. Con s-consistente nos
referimos a la consistencia de un conjunto de fórmulas Σ respecto a un
sistema formal S. Hay que hacer notar que para tener la equivalencia
de las dos formulaciones, son necesarias las propiedades i) a iv) de la
formulación 2.
La Formulación 1 con Σ = ∅, la llamaremos correctud completud res-
tringida, es decir:

Teorema de Correctud-Completud Restringida


Existe un sistema formal S tal que para cualquier fórmula α:
|= α si y sólo si ⊢S α
Como se ve, hay dos versiones diferentes del Teorema de Correctud-
Completud21 , una restringida o débil como nuestra formulación de Correc-
tud-Completud Restringida y las formulaciones equivalentes de los teo-
remas I y II de Gödel22 , y por otro lado una versión generalizada, fuerte
o extendida como nuestra formulación de Correctud-Completud Exten-
dida y las formulaciones equivalentes del teorema IX de Gödel23 y la del
teorema de Henkin24 . George Boolos se refiere a esta distinción de la
21
Aunque muchas veces no se hace explı́cita la correctud, nosotros generalmente sı́
tratamos juntas a la correctud y la completud.
22
Cf. [Gödel 1930 a], [Gödel 1930 b], [Gödel 1930 c].
23
Cf. [Gödel 1930 a], [Gödel 1930 b], [Gödel 1930 c].
24
Cf. [Henkin].
122 [Cap. 3] EL TEOREMA DE COMPLETUD DE GÖDEL Y SU...

siguiente manera:25 “Puede hacerse una distinción entre dos tipos de teo-
rema de completud que pueden probarse acerca de sistemas lógicos: entre
teoremas de completud débil y fuerte. Un teorema de completud débil
muestra que una fórmula es demostrable si es válida; un teorema fuerte,
que una fórmula es demostrable a partir de un conjunto de fórmulas si es
una consecuencia lógica del conjunto”.
El Teorema de Correctud y Completud Extendido de Gödel asegura la
existencia de un sistema axiomático que satisface tanto la correctud como
la completud extendidas. La primera prueba de este teorema fundamental
fue publicada por Gödel en 1930. Nosotros daremos una prueba semántica
de nuestra primera formulación.
El Teorema de Compacidad por otro lado, es un teorema puramente
semántico, también probado por Gödel en el mismo artı́culo de 1930, que
asegura para cualquier conjunto infinito de fórmulas Σ, que si para cada
subconjunto finito hay un modelo, entonces hay un modelo de todo el con-
junto infinito Σ.26 Recordar que un modelo para un conjunto de fórmulas,
es una interpretación para el lenguaje respecto a la cual todas las fórmulas
del conjunto son verdaderas.

Ejercicios:
1. Probar la equivalencia de las formulaciones 1 y 2 del Teorema de
Correctud-Completud Extendido.
2. Probar las dos formas del Teorema de Compacidad (enunciadas en
la sección 1.1.2 del primer capı́tulo), usando las dos formulaciones
dadas del Teorema de Correctud-Completud Extendido.

Hay una prueba directa del Teorema de Correctud-Completud Exten-


dido que consiste en definir un sistema axiomático y probar que satisface
correctud y completud extendidas, probando la segunda formulación. Esta
prueba comúnmente se hace trabajando mucho dentro del sistema axio-
mático definido, haciendo multitud de derivaciones formales para lograr
el objetivo.27
25
Cf. [Boolos] página 52. Nuestra traducción.
26
Gödel lo formuló sólo para el caso numerable. Mal’cev lo hizo para el caso general
en 1941.
27
Véase el Apéndice de este libro, donde esta expuesta una prueba detallada de este
estilo.
3.5. Prueba semántica del Teo. de Correctud-Completud Extendido 123

Una prueba de tipo semántico consiste en definir de un modo ad hoc, un


sistema axiomático que satisfaga la correctud y la completud extendidas,
pero haciendo esto con una motivación semántica y con una justificación
también semántica, sin trabajar dentro del sistema definido. A continua-
ción recordaremos las herramientas semánticas necesarias para nuestro
objetivo. Primeramente recordamos las versiones semánticas de los teo-
remas de Skolem (2a Forma) y de Herbrand (1a Forma), el segundo de los
cuales se demostró usando el Teorema de Compacidad.
La relación entre una fórmula ϕ y su forma de Skolem de validez aso-
ciada, denotada FSV(ϕ), es estrictamente más débil que la relación de equi-
valencia lógica, pero aun ası́ es muy útil, ya que establece una equivalencia
en términos de validez lógica o equivalidez lógica, ya que el Teorema de
Skolem (2a Forma) asegura que: una fórmula ϕ es lógicamente válida si y
sólo si la forma normal de Skolem de validez de ϕ, es también lógicamente
válida.28 Formalmente:

Teorema de Skolem
Para cualquier fórmula ϕ:

|= ϕ si y sólo si |=FSV(ϕ)

Recordar que cualquier fórmula ϕ se puede transformar mediante un


algoritmo a su FSV(ϕ) la cual siempre es por construcción, una cuanti-
ficación “existencial pura” (es decir, sin cuantificadores universales) que
afecta a una fórmula matriz sin cuantificadores. Ası́, para toda ϕ, FSV(ϕ) =
(∃x1 . . . xk ψ) donde ψ es una fórmula sin cuantificadores y x1 , . . . , xk son las
variables de ψ.
En seguida mostraremos cómo obtener fácilmente esta forma de Sko-
lem de validez. El algoritmo que sigue es claramente distinto al de la
sección 3.2 pero es una forma directa de obtener la forma de Skolem de
validez (FSV), sin obtener la de satisfacción. Podrı́amos decir que la Sko-
lemización es la dual de la de satisfacción pues se eliminan los cuanti-
ficadores universales, en función de los existenciales. Por simplicidad
supongamos, sin pérdida de generalidad, que la fórmula original ϕ in-
cluye sólo los conectivos ¬, ∨, ∧. En otro caso, es fácil obtener una fórmula
lógicamente equivalente a ϕ reemplazando (α → β) por (¬α ∨ β), y (α ↔ β)
28
Véase el Teorema 3.3 de la sección 3.2 de este capı́tulo.
124 [Cap. 3] EL TEOREMA DE COMPLETUD DE GÖDEL Y SU...

por ((¬α∨β)∧(¬β∨α)). Entonces, la FSV(ϕ) se obtiene a través del siguiente


proceso algorı́tmico:
(1) Introducir negaciones por medio de las muy conocidas leyes lógicas
de la negación. Después (2) renombrar todas las variables acotadas, para
evitar variables repetidas en diferentes cuantificaciones o variables acota-
das que aparecen libres en otras partes de la fórmula (si hay). (3) Trans-
formar la fórmula a la Forma Normal Prenex (FNP)29 , y finalmente (4)
eliminar, de izquierda a derecha, todos los cuantificadores universales in-
troduciendo “testigos” que son constantes nuevas de Skolem o funciones
nuevas de Skolem. Estas funciones (llamadas “de Skolem”) dependen de
las variables de los cuantificadores existenciales previos al cuantificador
universal que se está eliminando, y de las variables libres (si hay). En el
caso de que no haya cuantificadores existenciales previos al cuantificador
universal que se está eliminando y no haya variables libres, se hace la
substitución por una constante (llamada “de Skolem”). Este proceso es el
dual del proceso ampliamente conocido como “Skolemización”30 .
Podemos resumir y “nombrar” los pasos de este procedimiento al-
gorı́tmico (que muestra como obtener directamente FSV(ϕ) a partir de ϕ)
del siguiente modo: introducción de negaciones (¬intro), renombre de
variables cuantificadas (renom-var), prenexar31 todos los cuantificadores
(Prenex-cuant)32 ; Skolemización Dual (DSk-∀var/sk) donde “var” es la va-
riable universal eliminada y “sk” es una nueva constante de Skolem o una
nueva función de Skolem, este consiste en eliminar de izquierda a derecha
cada uno de los cuantificadores universales con una función (de Skolem)
que depende de las variables de los cuantificadores existenciales previos.
El caso de cero existenciales previos o cero argumentos corresponde a una
constante (de Skolem). Finalmente obtenemos FSV(ϕ)33 .
29
Una forma de fórmula en la cual todos sus cuantificadores (si hay) están al principio
de la fórmula y cuantifican al resto de la fórmula, véase la sección 3.2. Cf. [Mendelson
1987], [Enderton 2001].
30
Véase la sección 3.2 de este capı́tulo. Cf. [Mendelson 1987], [Enderton 2001] y [Malitz
1979].
31
Transformar a la Forma Normal Prenex (FNP).
32
Hasta aquı́, todas las fórmulas generadas son lógicamente equivalentes entre sı́.
33
La Forma de Skolem de Validez (FSV), puede darse en términos de la Forma de
Skolem de Satisfacción (FSS). Lo siguiente establece, para el lector interesado, la re-
lación dual entre las dos formas de Skolem mencionadas: Si ϕ es una fórmula, entonces
FSV(ϕ)=FNP[¬(FSS(¬ϕ))]. De modo análogo FSS(ϕ)=FNP[¬(FSV(¬ϕ))]. Véase la sección
3.2 de este capı́tulo.
3.5. Prueba semántica del Teo. de Correctud-Completud Extendido 125

La equivalencia lógica la denotamos con “≡”. Es importante tener en


mente que los pasos de skolemización dual, que consisten de la elimi-
nación de cuantificadores universales, difieren de los otros pasos en que
no preservan equivalencia lógica. Para ilustrarlo, damos un ejemplo de
la aplicación de este algoritmo dual, a un ejemplo ya visto con el otro
procedimiento en la sección 3.2. Usaremos las abreviaciones introducidas:
Sea ψ = [∃y∀xP(x, y) ∧ ¬∃z∀x∀yQ(z, x, f (y))]. Entonces
ψ ≡ [∃y∀xP(x, y) ∧ ∀z∃x∃y¬Q(z, x, f (y))] ¬intro
≡ [∃v∀wP(w, v) ∧ ∀z∃x∃y¬Q(z, x, f (y))] renom-var
≡ ∃v∀z∃x∃y∀w[P(w, v) ∧ ¬Q(z, x, f (y))] Prenex-cuant
FNP(ψ) = ∃v∀z∃x∃y∀w[P(w, v) ∧ ¬Q(z, x, f (y))]
DSk1 = ∃v∃x∃y∀w[P(w, v) ∧ ¬Q(g(v), x, f (y))] Dsk-∀z/g(v)
DSk2 = ∃v∃x∃y[P(h(v, x, y), v) ∧ ¬Q(g(v), x, f (y))] Dsk-∀w/h(v, x, y)
FSV(ψ) = ∃v∃x∃y[P(h(v, x, y), v) ∧ ¬Q(g(v), x, f (y))].
Como un segundo ejemplo, aplicaremos el algoritmo dual de Skole-
mización a una fórmula con la que trabajaremos nuevamente después, en
un ejemplo de deducción en el sistema axiomático que definiremos más
adelante:
Sea ϕ = [∃x∀yP(x, y) → ∀y∃xP(x, y)]. Entonces
ϕ ≡ [¬∃x∀yP(x, y) ∨ ∀y∃xP(x, y)]
≡ [∀x∀y¬P(x, y) ∨ ∀y∃xP(x, y)] ¬intro
≡ [∀x∀y¬P(x, y) ∨ ∀z∃wP(w, z)] renom-var
∀x∃y∀z∃w[¬P(x, y) ∨ P(w, z)] Prenex-cuant
FNP(ϕ) = ∀x∃y∀z∃w[¬P(x, y) ∨ P(w, z)]
DSk1 = ∃y∀z∃w[¬P(x, y) ∨ P(w, z)] Dsk-∀x/c
DSk2 = ∃y∃w[¬P(c, y) ∨ P(w, f (y))] Dsk-∀z/ f (y)
FSV(ϕ) = ∃y∃w[¬P(c, y) ∨ P(w, f (y))]

El Teorema de Herbrand (1a Forma) por otro lado, asegura que una
fórmula existencial pura, con matriz digamos ψ, es lógicamente válida si y
sólo si hay una sucesión de instancias cerradas de ψ tal que la disyunción de
ellas es lógicamente válida34 . Recordar que una instancia de una fórmula
ψ es cerrada si no tiene variables; en otras palabras, si todas las variables
en ψ se sustituyen por términos sin variables.

Teorema de Herbrand
34
Véase el Teorema 3.4 de la sección 3.2 de este capı́tulo.
126 [Cap. 3] EL TEOREMA DE COMPLETUD DE GÖDEL Y SU...

Si ψ es una fórmula sin cuantificadores y con variables x1 , . . . , xk entonces:


|= (∃x1 . . . ∃xk ψ) si y sólo si existe una sucesión finita ψ1 , . . . , ψn , de
instancias cerradas de sustitución de ψ, tal que |= (ψ1 ∨ . . . ∨ ψn )
Veamos ahora la prueba de tipo semántico, del teorema de correctud y
completud restringidas; es decir, veamos que hay un sistema axiomático al
que llamaremos MA, tal que MA satisface correctud y completud restrin-
gidas: cualquier fórmula ϕ es lógicamente válida si y sólo si ϕ es teorema
formal de MA. Y justifiquémoslo semánticamente.
Sea pues ϕ una fórmula lógicamente válida. Como ϕ es lógicamente
equiválida a su cerradura universal ∀ϕ, entonces esto es equivalente a que
el enunciado ∀ϕ es también lógicamente válido35 . Ahora, por el Teorema
de Skolem, esto es equivalente a que el enunciado FSV(∀ϕ) es también
lógicamente válido. Y esto a su vez por el Teorema de Herbrand, es equi-
valente a que haya una serie de instancias cerradas de sustitución de la
matriz ψ del enunciado FSV(∀ϕ), cuya disyunción es lógicamente válida.
Ası́ pues, tenemos la siguiente cadena de equivalencias en el metalenguaje:
|= ϕ
si y sólo si |= ∀ϕ Equivalidez de Cerradura
si y sólo si |=FSV(∀ϕ) Por Teorema de Skolem
si y sólo si |= (∃x1 . . . ∃xk ψ)
pues
FSV(∀ϕ) = (∃x1 . . . ∃xk ψ)
(con ψ fórmula sin
cuantificadores y
x1 . . . xk son todas
las variables de ψ)
si y sólo si Hay ψ1 , . . . , ψn ,
instancias cerradas
de sustitución de ψ,
tales que:
|= (ψ1 ∨ . . . ∨ ψn ). Por Teorema de Herbrand
Con esta motivación semántica empecemos a definir al sistema MA de
modo que sus axiomas sean precisamente todas las fórmulas (ψ1 ∨ . . . ∨ ψn )
del estilo que acabamos de mencionar; es decir, que sus axiomas sean todas
35
La razón es la equivalidez lógica de la cerradura universal: |= ϕ si y sólo si |= ∀ϕ.
Obsérvese que ∀ϕ es un enunciado, pues es la cuantificación universal de todas las
variables libres de ϕ.
3.5. Prueba semántica del Teo. de Correctud-Completud Extendido 127

las disyunciones lógicamente válidas de instancias cerradas de sustitución


de fórmulas sin cuantificadores. Obsérvese que ser un axioma de este tipo
es decidible, ya que las disyunciones de instancias cerradas de fórmulas
sin cuantificadores son enunciados sin variables ni cuantificadores y su
validez lógica es algorı́tmicamente decidible.
Tenemos que expandir el lenguaje original, con un número infinito nu-
merable de constantes y un número infinito numerable de sı́mbolos de
función para cada aridad n ≥ 1. Esto es necesario para tener suficientes
instancias cerradas de sustitución de fórmulas sin cuantificadores y poder
generar todas las cuantificaciones existenciales posibles en el argumento
semántico dado.
Ahora, para definir las reglas de inferencia, nos regresaremos en el
argumento semántico anterior; es decir definimos como la primera regla
de inferencia de MA al paso inverso en el Teorema de Herbrand: de una
disyunción de instancias cerradas de sustitución de una fórmula ψ sin
cuantificadores, con variables x1 , . . . , xk , obtener la cuantificación existen-
cial de ψ.
Esta cuantificación existencial de ψ es precisamente la FSV(∀ϕ). A esta
regla la llamaremos HB o regla de Herbrand:

HB: (ψ1 ∨ . . . ∨ ψn )/(∃x1 . . . ∃xk ψ).

Pongamos ahora, como la segunda regla de inferencia de MA, al paso


inverso en el Teorema de Skolem: de la FSV(∀ϕ) obtener ∀ϕ. A esta regla
la llamaremos SK o regla de Skolem:

SK: FSV(∀ϕ)/∀ϕ

Definamos ahora como la tercera regla de inferencia de MA, al paso


inverso de la propiedad de equivalidez lógica de la cerradura universal:
de ∀ϕ obtener ϕ. A esta regla la llamaremos IU o regla de Instanciación
Universal:

IU: ∀ϕ/ϕ

Lo que acabamos de mostrar es lo que serı́a un esquema de prueba


formal de la fórmula lógicamente válida ϕ, en el sistema axiomático MA
que estamos definiendo. Es decir, la siguiente lista de cuatro fórmulas es
una prueba formal de ϕ en el sistema MA:
128 [Cap. 3] EL TEOREMA DE COMPLETUD DE GÖDEL Y SU...

1. (ψ1 ∨ . . . ∨ ψn ) Axioma de MA

2. (∃x1 . . . ∃xk ψ) Regla HB a 1.

3. ∀ϕ Regla SK a 2, (∃x1 . . . ∃xk ψ) = FSV(∀ϕ)

4. ϕ Regla IU a 3.

Por lo tanto, ⊢MA ϕ.


Debe ser claro que los teoremas semánticos de Skolem y de Herbrand
justifican tanto la correctud como la completud restringidas del sistema MA
como lo hemos definido parcialmente hasta ahora. Resulta importante
mencionar que los axiomas y reglas de inferencia ası́ definidos resultan
decidibles, pues esto es una caracterı́stica definitoria de los sistemas axio-
máticos.36
Hemos justificado de modo semántico, que el sistema MA como lo
hemos definido parcialmente hasta ahora, satisface correctud y completud
restringidas. Sin embargo si lo dejamos ası́, no satisfará ni la correctud ni la
completud extendidas; para mostrar esto bastan dos ejemplos. Llamemos
S al sistema axiomático de la definición parcial que tenemos hasta ahora y
que cumple correctud-completud restringida.
Para mostrar que S no satisface la correctud extendida, tenemos el
ejemplo:

P(c) ⊢S ∀xP(x) pero P(c) 2 ∀xP(x)

La primera afirmación está justificada por la regla SK pues


FSV(∀xP(x)) = P(c).
Para mostrar que S no satisface la completud extendida, tenemos el
ejemplo:

∀xP(x) |= P(c) pero ∀xP(x) 0S P(c)

Esta última afirmación está justificada por un análisis de posibles prue-


bas formales en S: Si ∀xP(x) ⊢S P(c), entonces hay una derivación de P(c)
a partir de ∀xP(x) en S, donde ∀xP(x) es una hipótesis y no puede ser
un teorema formal porque 2 ∀xP(x). Por otro lado, HB o SK no pueden
aplicarse a ∀xP(x) por su forma, ya que es incompatible con la forma que
36
Véase la definición de sistema axiomático, en la sección 3.3.
3.5. Prueba semántica del Teo. de Correctud-Completud Extendido 129

deben tener las premisas de HB y SK. Finalmente con UI sólo obtenemos


P(x). Ası́, como la fórmula ∀xP(x) no se usa para nada, podemos eliminarla
de la derivación y obtenemos que ⊢S P(c). Pero 2 P(c), contradiciendo la
correctud restringida de S.37
Entonces ¿cómo podemos ampliar o modificar lo que tenemos para
que nuestro sistema MA satisfaga el teorema extendido? Obsérvese que
hasta ahora no hemos impuesto ninguna restricción a la aplicación de las
reglas de inferencia. La respuesta nos la dan los resultados metalógicos
de la sección anterior y que probamos usando el Teorema de Compacidad.
Recordamos el último corolario de la sección anterior que enunciamos
como teorema 3.6:

Teorema 3.6. Si S es un sistema axiomático que satisface correctud-completud


restringidas, entonces:
S satisface correctud-completud extendidas si y sólo si S satisface MP y
MTD.
Este resultado nos mostró que la elección de este metateorema y de esta
regla de inferencia para un sistema axiomático particular, no es cuestión
de gusto o de conveniencia, sino que de hecho pueden considerarse como
propiedades estructurales de la lógica clásica, que juegan un papel funda-
mental en la obtención de la correctud y la completud extendidas de un
sistema axiomático.
Ası́ pues, como consecuencia de los resultados presentados, la res-
puesta a la pregunta ¿cómo ampliar o modificar nuestra definición para
que MA satisfaga el teorema extendido?, tiene como respuesta que MA
debe satisfacer Modus Ponens y el Metateorema de la Deducción.
Lo primero se resuelve muy fácilmente, simplemente agregando Modus
Ponens como la cuarta regla de MA. Lo segundo aunque no es inmediato,
se resuelve imponiendo una restricción a la aplicación de la segunda regla,
la que llamamos regla de Skolem o regla SK. Recordemos que la restricción
en la aplicación de reglas de inferencia forma parte de nuestra definición
de derivación formal y de sistema axiomático.
La restricción en este caso será: no se permite la aplicación de la regla
SK a hipótesis ni a fórmulas que dependan de hipótesis. Esto forma parte
de la definición de derivación en MA. Para precisar la restricción impuesta
a la aplicación de la regla SK, es necesario definir con rigor la idea intuitiva
37
Cf. [Amor 2001] p. 64-66.
130 [Cap. 3] EL TEOREMA DE COMPLETUD DE GÖDEL Y SU...

de que “una fórmula α dependa de una hipótesis ϕ en una derivación


dada”. Sea ϕ una fórmula que pertenece a un conjunto Σ de fórmulas
y supongamos que tenemos una derivación dada α1 , . . . , αn a partir del
conjunto Σ de hipótesis, junto con una justificación para cada paso de
la derivación. Entonces decimos que: αi depende de la hipótesis ϕ en esa
derivación si y sólo si αi = ϕ y la justificación de αi es “pertenecer a Σ
(ser hipótesis)”, o bien αi está justificada como consecuencia directa de
fórmula(s) anterior(es) en la derivación por medio de alguna regla de
inferencia de MA y al menos una de esas fórmulas anteriores depende de
ϕ en esa derivación.
Ası́, nuestro sistema axiomático MA queda completamente definido y
todo lo anterior lo resumimos en el siguiente lema.

Lema 3.7. Correctud-completud restringida en MA. Para toda fórmula ϕ, se


cumple que:
⊢MA ϕ si y sólo si |= ϕ

Como ya vimos antes, es claro que los teoremas semánticos de equi-


validez de cerradura universal, de Skolem y de Herbrand justifican tanto
la correctud como la completud restringidas del sistema MA. Debe obser-
varse que aunque en la justificación semántica no habı́amos considerado
la regla MP ni la restricción a la aplicación de la regla SK, eso no afecta
la demostración por lo siguiente: en el enunciado del Lema 3.7 no hay
referencia a hipótesis, por lo cual la restricción establecida al uso de la
regla SK no se aplica. Por otro lado la correctud restringida no puede afec-
tarse al agregar MP ya que es una regla muy buena, es decir, el resultado
formal de aplicar dicha regla es consecuencia lógica de sus premisas, aún
en el caso de fórmulas. Ahora bien, la completud restringida tampoco
puede afectarse pues si toda fórmula lógicamente válida es teorema sin
MP, también sucederá lo mismo al agregar otra regla, en particular MP.
Ası́, queda demostrado el Lema 3.7 para nuestro sistema MA. ⋄

El sistema axiomático MA
Definimos ahora con todo rigor el sistema axiomático MA para un len-
guaje de primer orden y con base en todo lo anterior vemos que cumple
lo propuesto. Primero expandimos el lenguaje con un número infinito nu-
merable de nuevas constantes y un número infinito numerable de nuevos
sı́mbolos de función para cada aridad n ≥ 1.
3.5. Prueba semántica del Teo. de Correctud-Completud Extendido 131

i)AXIOMAS DE MA

Todas las disyunciones (ψ1 ∨ . . . ∨ ψn ) lógicamente válidas de instancias


cerradas de sustitución de fórmulas ψ sin cuantificadores, son los axiomas
de MA.

ii)REGLAS DE INFERENCIA DE MA

a)Regla de Herbrand, HB:

(ψ1 ∨ . . . ∨ ψm )/(∃x1 . . . ∃xk ψ)

donde ψ es una fórmula sin cuantificadores, x1 , . . . , xk son todas las


variables de ψ y cada ψi es una instancia cerrada de sustitución de ψ.

b)Regla de Skolem, SK:

FSV(ϕ)/ϕ

donde FSV(ϕ) = (∃x1 . . . ∃xk ψ), ψ es fórmula sin cuantificadores y x1 , . . . , xk


son todas las variables de ψ.

c)Instanciación Universal, IU:

∀ϕ/ϕ

para cualquier fórmula ϕ.

d)Modus Ponens, MP:

α, (α → β)/β

para α y β fórmulas cualesquiera.

iii)DEFINICIÓN DE DERIVACIÓN EN MA

Una derivación de una fórmula α a partir de un conjunto de fórmulas


Σ en MA, es una lista finita de n fórmulas α1 , . . . , αn , con n ≥ 1; tal que
αn = α y para toda i (1 ≤ i ≤ n) o bien αi es un axioma de MA o αi es una
132 [Cap. 3] EL TEOREMA DE COMPLETUD DE GÖDEL Y SU...

fórmula de Σ, o αi se obtiene de fórmulas anteriores en la lista por medio


de alguna regla de inferencia de MA, con la siguiente restricción: no se
aplique la regla SK a hipótesis ni a fórmulas que dependan de hipótesis38 . Si tal
derivación existe, esto se denota: Σ ⊢MA α y se lee “α es derivable a partir
de Σ en el sistema MA”.
Para entender mejor la definición del sistema MA, damos como ejemplo
una derivación en MA:

Ejemplo: ∃x∀yPxy ⊢MA ∀y∃xPxy


Primero, obsérvese que ψ1 = [¬Pc f (c)∨Pc f ( f (c))] es la instancia cerrada
{y/ f (c), w/c} de la fórmula ψ = [¬Pcy ∨ Pw f (y)]. Segundo, que ψ2 =
[¬Pcc ∨ Pc f (c)] es la instancia cerrada {y/c, w/c} de la misma fórmula ψ =
[¬Pcy∨Pw f (y)]. Finalmente, la disyunción de estas dos instancias cerradas
es el enunciado

[¬Pc f (c) ∨ Pc f ( f (c))] ∨ [¬Pcc ∨ Pc f (c)]

que es lógicamente válido ya que es una tautologı́a de la forma proposi-


cional (¬A ∨ B) ∨ (¬C ∨ A). Por lo tanto (ψ1 ∨ ψ2 ) es un axioma de MA.
Sea ϕ = ∃x∀yPxy → ∀y∃xPxy entonces FSV(ϕ) =FSV(¬∃x∀yPxy ∨
∀y∃xPxy) = ∃y∃w(¬Pcy ∨ Pw f (y))39 . Es obvio que en este ejemplo ϕ = ∀ϕ.
Entonces la derivación es la siguiente:

1. [¬Pc f (c) ∨ Pc f ( f (c))] ∨ [¬Pcc ∨ Pc f (c)] Axioma de MA (ψ1 ∨ ψ2 )

2. ∃y∃w(¬Pcy ∨ Pw f (y)) Regla HB a 1.(FSV(ϕ))

3. [∃x∃yPxy → ∀y∃xPxy] Regla SK a 2. (ϕ)

4. ∃x∀yPxy Hipótesis

5. ∀y∃xPxy MP a 4, 3

Mostraremos a continuación que nuestro sistema axiomático MA, sı́


satisface el Metateorema de la Deducción (MTD). Por lo tanto, como ya
vimos que satisface la correctud-completud restringida (Lema 3.7) y Modus
38
La noción “α depende de la hipótesis β en una derivación” se definió antes del Lema 3.7.
39
Véase el segundo ejemplo después del Teorema de Skolem, al principio de esta sección.
3.5. Prueba semántica del Teo. de Correctud-Completud Extendido 133

Ponens, por el resultado metalógico de la sección anterior, satisfará también


la correctud-completud extendida.

Lema 3.8. Metateorema de la Deducción para el sistema MA


S
Para todo Σ {α, β} conjunto de fórmulas:

Si Σ, α ⊢MA β entonces Σ ⊢MA (α → β)

S
Demostración: Sea ϕ1 , . . . , ϕn (ϕn = β) una derivación de β a partir de Σ {α}
en MA. Demostraremos por inducción matemática sobre n, que para toda
i ≤ n, se cumple Σ ⊢MA (α → ϕi ).
Para el caso i = n, tendremos el resultado buscado.
Supongamos el resultado para toda j < i ≤ n: Hipótesis Inductiva (HI).
Para ϕi hay siete casos posibles: ϕi es un axioma de MA, ϕi ∈ Σ, ϕi = α,
ϕi es consecuencia por HB, ϕi es consecuencia por MP, ϕi es consecuencia
por IU, ϕi es consecuencia por SK.
Caso 1. Si ϕi es un axioma de MA, entonces ϕi es lógicamente válida.
Entonces también (α → ϕi ) es lógicamente válida y por completud res-
tringida (Lema 3.7) ⊢MA (α → ϕi ) y de aquı́ por la propiedad sintáctica de
monotonı́a tenemos que Σ ⊢MA (α → ϕi ).
Caso 2. Si ϕi ∈ Σ (hipótesis de Σ) entonces la fórmula [ϕi → (α → ϕi )] es
lógicamente válida y por completud restringida (Lema 3.7) ⊢MA [ϕi → (α →
ϕi )]. Ahora como el sistema tiene MP y sabemos que esto es equivalente
al inverso del MTD, entonces se satisface ϕi ⊢MA (α → ϕi ). De aquı́ como
ϕi ∈ Σ, por la propiedad sintáctica de monotonı́a, Σ ⊢MA (α → ϕi ).
Caso 3. Si ϕi = α, entonces (α → α) es lógicamente válida y por
completud restringida (Lema 3.7) ⊢MA (α → α). Pero ϕi = α, entonces
⊢MA (α → ϕi ) y por monotonı́a Σ ⊢MA (α → ϕi ).
Caso 4. Si ϕi es consecuencia por HB de alguna fórmula ϕ j con j < i
entonces ϕi = (∃x1 . . . ∃xk ψ) donde ψ es una fórmula sin cuantificadores,
x1 , . . . , xk son todas las variables de ψ, y ϕ j = (ψ1 ∨ . . . ∨ ψn ) donde cada
ψr (1 ≤ r ≤ n) es una instancia cerrada de sustitución de ψ. Como j < i,
por HI tenemos que Σ ⊢MA (α → ϕ j ), es decir tenemos que Σ ⊢MA (α →
(ψ1 ∨ . . . ∨ ψn )) (#1)
Es un resultado semántico fácil de ver que la fórmula [(ψ1 ∨ . . . ∨
ψn ) → (∃x1 . . . ∃xk ψ)] es lógicamente válida, es decir, |= [(ψ1 ∨ . . . ∨ ψn ) →
134 [Cap. 3] EL TEOREMA DE COMPLETUD DE GÖDEL Y SU...

(∃x1 . . . ∃xk ψ)]40 ,


y de aquı́, por la completud restringida (Lema 3.7) tenemos que:
⊢MA [(ψ1 ∨ . . . ∨ ψn ) → (∃x1 . . . ∃xk ψ)] (#2).
Es también un resultado semántico que la fórmula:
(α → (ψ1 ∨ . . . ∨ ψn )) → [[(ψ1 ∨ . . . ∨ ψn ) → (∃x1 . . . ∃xk ψ)] → (α →
(∃x1 . . . ∃xk ψ))]
es lógicamente válida, pues es una tautologı́a de la forma:

(A → B) → [(B → C) → (A → C)]

de aquı́, por la completud restringida (Lema 3.7) tenemos que:


⊢MA (α → (ψ1 ∨ . . . ∨ ψn )) → [[(ψ1 ∨ . . . ∨ ψn ) → (∃x1 . . . ∃xk ψ)] → (α →
(∃x1 . . . ∃xk ψ))].
Ahora de este teorema, por MP con (#1) obtenemos:

Σ ⊢MA [[(ψ1 ∨ . . . ∨ ψn ) → (∃x1 . . . ∃xk ψ)] → (α → (∃x1 . . . ∃xk ψ))]

y ahora de aquı́, por MP con (#2) obtenemos:

Σ ⊢MA (α → (∃x1 . . . ∃xk ψ)), es decir Σ ⊢MA (α → ϕi ).

Caso 5. Si ϕi es consecuencia por MP de ϕr y ϕm = (ϕr → ϕi ) con r,


m < i, entonces por HI tenemos Σ ⊢MA (α → ϕr )∗ y Σ ⊢MA (α → (ϕr → ϕi ))∗∗ .
Obsérvese que la fórmula [(α → (ϕr → ϕi ))] → [(α → ϕr ) → (α → ϕi )]
es lógicamente válida pues es una tautologı́a de la forma [(A → (B →
C))] → [(A → B) → (A → C)]. Entonces por la completud restringida
(Lema 3.7),
⊢MA [(α → (ϕr → ϕi ))] → [(α → ϕr ) → (α → ϕi )]
De aquı́ por MP con ** tenemos que ⊢MA [(α → ϕr ) → (α → ϕi )] y por MP
con * tenemos Σ ⊢MA (α → ϕi ).
Caso 6. Si ϕi es consecuencia por IU de alguna fórmula ϕ j con j < i,
entonces ϕ j = ∀ϕi . Como j < i, por HI sabemos que Σ ⊢MA (α → ϕ j ). Es
decir:
40
Véase Corolario 1.2.1 del Capı́tulo 1. Un ejemplo particular es |= [P(c, a) →
∃x1 ∃x2 P(x1 , x2 )].
3.5. Prueba semántica del Teo. de Correctud-Completud Extendido 135

Σ ⊢MA (α → ϕi ) (•)

El hecho de que la fórmula (∀ϕi → ϕi ) es lógicamente válida, o sea |=


(∀ϕi → ϕi ), es también un resultado semánticamente sencillo. Por lo tanto,
por la completud restringida (Lema 3.7) tenemos que ⊢MA (∀ϕi → ϕi )(••).
Puede verse fácilmente que la fórmula:

(α → ∀ϕi ) → [(∀ϕi → ϕi ) → (α → ϕi )]

es lógicamente válida, porque es una tautologı́a de la forma:

(A → B) → [(B → C) → (A → C)]

Entonces, por la completud restringida (Lema 3.7) tenemos:

⊢MA (α → ∀ϕi ) → [(∀ϕi → ϕi ) → (α → ϕi )].

Ahora, usando MP y (•) obtenemos:

Σ ⊢MA [(∀ϕi → ϕi ) → (α → ϕi )]

y usando MP con (••) obtenemos:

Σ ⊢MA (α → ϕi ).

Caso 7. Si ϕi es consecuencia por SK de ϕk con k < i, entonces


ϕk =FSV(ϕi ) y además sabemos que ϕk no es ni hipótesis de Σ ni depende
de hipótesis de Σ. Sea ϕ1 , . . . , ϕk , la lista que representa la derivación de ϕk ;
de esta lista considero la sublista que tiene a las fórmulas ϕ j con j < k, que
se usaron en la derivación original para obtener ϕk , junto con ϕk al final, y
únicamente a esas fórmulas.
Debe ser claro que ninguna fórmula de esa sublista está en Σ (ninguna
es hipótesis), pues ϕk no está en Σ y si alguna ϕ j (con j < k) estuviera en Σ,
como se usó para obtener ϕk , entonces tendrı́amos tanto que ϕk dependerı́a
de ella como que serı́a fórmula de Σ lo cual es imposible ya que contradirı́a
que ϕk no depende de hipótesis de Σ. Ası́ pues, se tiene que por definición
esa sublista es una prueba formal de ϕk ; es decir ⊢MA ϕk , o sea que ϕk es un
teorema formal.
Como ϕk =FSV(ϕi ), tenemos que ⊢MA FSV(ϕi ). De aquı́, por la regla SK
(pues ϕk =FSV(ϕi ) no está en Σ ni depende de fórmulas de Σ) tenemos
136 [Cap. 3] EL TEOREMA DE COMPLETUD DE GÖDEL Y SU...

que ⊢MA ϕi y como también ⊢MA [ϕi → (α → ϕi )]41 , por MP tenemos que
⊢MA (α → ϕi ) y por monotonı́a Σ ⊢MA (α → ϕi ).
Esto concluye la prueba por inducción matemática del Metateorema de
la Deducción para el sistema MA. ⋄

En esta demostración se usa de modo fundamental, en el caso siete, la


restricción particular dependiente del contexto, a la aplicacin de la regla
SK en las derivaciones del sistema MA, lo cual forma parte de nuestra
definición de este sistema en particular; ası́ como la posibilidad de restric-
ción a la aplicación de reglas, forma parte de nuestra definición de sistema
axiomático en general. Finalmente, quedó definido el sistema axiomático
MA y quedó probado de modo semántico que satisface la correctud y la
completud extendidas.

Teorema 3.9. Hay un sistema


S axiomático (digamos MA), tal que para cualquier
conjunto de fórmulas Σ {ϕ} satisface:

Σ ⊢MA ϕ si y sólo si Σ |= ϕ

Además, la prueba de ello es de tipo semántico.


Demostración: Por el Teorema 3.6 y los Lemas 3.7 y 3.8. ⋄

Para terminar daremos una descripción de las ideas intuitivas y la


heurı́stica que nos permitieron obtener nuestro sistema axiomático MA. La
definición del sistema resulta ad hoc desde el punto de vista semántico, pues
sus axiomas y reglas de inferencia no están motivadas sintácticamente,
sino que responden a invertir el proceso semántico descrito, que resumo
a continuación, para cualquier fórmula ϕ y para cualquier conjunto de
fórmulas Σ:
Partimos de la consecuencia lógica de ϕ a partir de Σ. Entonces existe
una sucesión finita de fórmulas de Σ, digamos α1 , . . . , αn , tales que ϕ es con-
secuencia lógica a partir de ellas (Teorema de Compacidad). Entonces la ca-
dena de implicaciones de ellas a ϕ es una fórmula implicativa lógicamente
válida, digamos A, donde A= (α1 → (α2 → . . . → (αn → ϕ) . . .)), de la que
considero su cerradura universal ∀A que también es lógicamente válida
(por equivalidez lógica de la cerradura universal) para la cual se genera
algorı́tmicamente una forma normal especial B=FSV(∀A), que también
41
Por la completud restringida (Lema 3.7), pues |= [ϕi → (α → ϕi )].
3.5. Prueba semántica del Teo. de Correctud-Completud Extendido 137

es lógicamente válida (Teorema de Skolem) y a partir de ella, existe una


fórmula proposicional cerrada42 , también lógicamente válida C (Teorema
de Herbrand) que es una disyunción de instancias cerradas de la matriz
de B, cuya validez lógica es decidible.
Ahora bien, si simplemente invertimos el proceso descrito, ponemos
como axioma cualquier fórmula proposicional cerrada de la forma de C,
con la condición de que sea lógicamente válida (los axiomas deben ser
decidibles y éstos lo son por su forma y porque su validez lógica es deci-
dible). Pongamos el paso de C a B como primera regla de inferencia, (la
aplicación de las reglas debe ser decidible y ésta lo es). Ahora pongamos
el paso de B a ∀A, como segunda regla de inferencia (ésta es decidible
pues la transformación de una fórmula ∀A a la forma normal mencionada
B es algorı́tmica y por tanto hay un algoritmo para decidir el paso de B a
A). Finalmente pongamos la tercera regla para pasar de ∀A a la fórmula
implicativa A.
Hecho lo anterior, tenemos en forma inmediata, sólo por la definición
de prueba formal, que la fórmula implicativa A se puede obtener como un
teorema. Ahora pongamos Modus Ponens como cuarta regla de inferencia
y tendremos la derivación de ϕ a partir de la sucesión finita de fórmulas
de Σ, y de aquı́ por lo tanto tendremos la derivación formal de ϕ a partir
de Σ (por monotonı́a de la relación sintáctica de derivación).
Todo lo anterior garantiza que todas las consecuencias lógicas sean
derivaciones formales (completud extendida), sin embargo es necesario
“controlar” las derivaciones posibles para tener la importante propiedad
complementaria: que todas las derivaciones formales sean consecuencias
lógicas (correctud extendida). Para esto, resulta necesario que el sistema
satisfaga el Metateorema de la Deducción. Este fue un resultado clave para
poder “descubrir” nuestro sistema, de modo que satisfaga tanto la com-
pletud extendida como la correctud extendida. Ası́ pues, para que nuestro
sistema cumpliera eso, debimos restringir la aplicación de la segunda regla
de inferencia43 (el paso de B a ∀A) de modo que no se aplique a fórmulas
que sean hipótesis o que dependan de hipótesis. Con estas modificacio-
nes, el MTD se cumple y por tanto la correctud extendida se satisface. Ası́
pues, nuestro sistema axiomático quedó determinado, cumple lo que nos

42
Sin variables libres y sin cuantificadores.
43
Que no es una regla de inferencia “buena” en el sentido definido en la sección 3.3 de
este capı́tulo.
138 [Cap. 3] EL TEOREMA DE COMPLETUD DE GÖDEL Y SU...

propusimos que cumpliera y la justificación de todo ello fue semántica.


Hemos dado una respuesta afirmativa al problema de dar una de-
mostración de tipo semántico para el Teorema de Correctud-Completud
extendido, el cual podrı́a ser pensado como un corolario del Teorema de
Compacidad. Esto es porque para demostrarlo usamos compacidad, una
versión semántica del Teorema de Herbrand, demostrado con compacidad
y usamos también algunos otros resultados puramente semánticos como
la versión semántica del Teorema de Skolem.
Finalmente podemos decir que no solo hemos demostrado lo que puede
considerarse una equivalencia entre los dos teoremas fundamentales de la
lógica clásica (correctud-completud extendida y compacidad), sino que
también hemos mostrado lo poderosas que son las ideas semánticas para
demostrar resultados sintácticos.
Apéndice A

Prueba Sintáctica del Teorema de Completud-


Correctud Extendido de Gödel

Sea Lρ un lenguaje de primer orden (con igualdad), de tipo ρ. Sea Σ un


conjunto de fórmulas de Lρ .

Definición
1) El tipo de Σ, τ(Σ) = {s : s es sı́mbolo no lógico de Lρ y s aparece en
alguna fórmula de Σ}
Observación: τ(φ) denota τ({φ}).
2) Σ es de tipo ρ sii τ(Σ) ⊆ ρ.
3) Σ es completo sii para cualquier fórmula α: α ∈ Σ o (¬α) ∈ Σ.
4) Σ es s-consistente sii no hay fórmula β tal que Σ ⊢S β y Σ ⊢S (¬β).
5) Σ es maximal s-consistente sii Σ es s-consistente y para cualquier ∆
conjunto s-consistente de fórmulas, si Σ ⊆ ∆, entonces Σ = ∆.
6) Σ es cerrado bajo testigos sii para toda fórmula (∃xα) ∈ Σ, hay una
constante c ∈ τ(Σ) tal que (α)xc ∈ Σ.

A.1 Teorema de Correctud-Completud para Lρ


Daremos dos versiones (A y B) del Teorema de Completud-Correctud
extendido y demostraremos su equivalencia. Para los conceptos previos
que usaremos aquı́, véase el Capı́tulo 3, sección 3.3 (Sistemas Axiomáticos).

139
140 [Apéndice] PRUEBA SINTÁCTICA DEL TEOREMA DE...

Teorema (versión A)
Hay un sistema formal S tal que:
i) Para todo α, β enunciados, α, (α → β) ⊢S β. (MP en S).
ii) Para todo β, γ enunciados, ⊢S (β → (¬β → γ)). (Contradicción implica
trivialidad, en S).
iii) Para todo α enunciado, ⊢S (¬α → α) → α
iv) Para todo Γ ∪ {α, β} conjunto de enunciados,

Si Γ, α ⊢S β entonces Γ ⊢S (α → β).

(MTD en S).
v) Para cualquier Σ conjunto de enunciados:

Σ es s − consistente ⇔ Σ tiene modelo.

Teorema (versión B)
Hay un sistema formal S tal que, para cualquier Γ ∪ {α} conjunto de
enunciados,
Γ |= α ⇔ Γ ⊢S α.

Equivalencia de A y B
Demostración: (A ⇒ B)
Supongamos A. Sea S el sistema formal dado por A. Sea Γ∪{α} un conjunto
de enunciados.

⇒) Supongamos Γ 0S α, entonces Γ ∪ {¬α} es s-consistente, pues, si no


lo fuera, habrı́a una fórmula β tal que

Γ ∪ {¬α} ⊢S β y Γ ∪ {¬α} ⊢S ¬β,

pero por i) y ii) de la hipótesis, Γ ∪ {¬α} ⊢S γ para cualquier enunciado γ,


en particular Γ ∪ {¬α} ⊢S α. Ahora, por iv) tenemos que Γ ⊢S (¬α → α) y
por iii) y i), tenemos que Γ ⊢S α. Ası́ pues, Γ ∪ {¬α} es s-consistente, y por
A v)⇒), Γ ∪ {¬α} tiene un modelo, de donde Γ 6|= α.
⇐) Supongamos que Γ 6|= α. Entonces, Γ ∪ {¬α} tiene un modelo, y
por Av)⇐), Γ ∪ {¬α} es s-consistente. Entonces Γ 0S α; (pues si Γ ⊢S α,
A.1 TEOREMA DE CORRECTUD-COMPLETUD PARA Lρ 141

entonces Γ ∪ {¬α} ⊢S α y Γ ∪ {¬α} ⊢S ¬α, contradiciendo la s-consistencia


de Γ ∪ {¬α}). ⋄

Observación:
Para ⇐), no se usó que el sistema cumpla i), ii), iii), iv).

Demostración: (B ⇒ A)
Supongamos B. Sea S el sistema dado por B. Sea Σ un conjunto de enun-
ciados. Es fácil ver que:
i’) Para todo α, β enunciados, α, (α → β) |= β.
ii’) Para todo β, γ enunciados, |= (β → (¬β → γ)).
iii’) Para todo α enunciado, |= (¬α → α) → α
iv’) Para todo Γ ∪ {α, β} conjunto de enunciados,

Si Γ, α |= β entonces Γ |= (α → β).

Entonces usando B, se tiene inmediatamente que S cumple i), ii), iii), iv).

Observación:
Para i), ii), iii), sólo se usa B⇒). Para iv) se usa B⇔).

Ahora veamos la afirmación principal v) acerca de Σ:


⇒) Supongamos que Σ no tiene modelo. Entonces Σ |= β, para cual-
quier enunciado β. Entonces por B⇒), Σ ⊢S β, para cualquier enunciado β,
de donde Σ es s-inconsistente.
⇐) Supongamos que Σ es s-inconsistente. Entonces hay α enunciado
tal que Σ ⊢S α y Σ ⊢S ¬α. Pero entonces por B⇐), tenemos que Σ |= α y
Σ |= ¬α, de donde Σ no tiene modelo. ⋄

Sea ρ un tipo y Lρ un lenguaje de primer orden de tipo ρ. Daremos un


sistema axiomático para Lρ con igualdad, o cálculo de predicados (CP) con
igualdad. Nosotros lo llamaremos S:
I. Axiomas de S
Si α, β, γ son fórmulas, y x, y son variables de Lρ , entonces los siguientes
son axiomas (esquemas de axiomas) de S:
A1) α → (β → α)
A2) (α → (β → γ)) → ((α → β) → (α → γ))
A3) (¬β → ¬α) → ((¬β → α) → β)
142 [Apéndice] PRUEBA SINTÁCTICA DEL TEOREMA DE...

A4) ∀xα → (α)xt , donde t es un término de Lρ .


A5) ∀x(α → β) → (α → ∀xβ), donde x no aparece libre en α.
A6) ∀x(x ≈ x)
A7) ∀x∀y[x ≈ y → (α → α′ )], donde α′ es la fórmula que resulta de
sustituir y es lugar de alguna, algunas o todas las presencias libres de x en
α.
II. Reglas de inferencia de S
Si α, β son fórmulas y x es una variable de Lρ , entonces los siguientes dos
esquemas son las reglas de inferencia de S:
1. Modus Ponens (MP): β se obtiene a partir de α y (α → β).
2. Generalización (GEN): ∀xα se obtiene a partir de α.
III. Definición de deducción formal
Una deducción formal de una fórmula α a partir de un conjunto Σ de
fórmulas (hipótesis), es una sucesión finita de fórmulas α1 , . . . , αn , tal que
αn = α. Y para cada i ∈ {1, . . . , n}, o αi es axioma de S o αi ∈ Σ (se dice que
αi es hipótesis de Σ) o αi es consecuencia de dos fórmulas anteriores en la
sucesión por la regla MP (es decir, hay α j y αk = (α j → αi ) con j, k < i); o αi
es consecuencia de una fórmula anterior por la regla GEN (es decir, hay α j
y x variable, tal que αi = ∀xα j , con j < i), CON LA RESTRICCIÓN de que
la variable x no aparezca libre en fórmulas de Σ (en hipótesis), de los cuales
dependa α j y αi = ∀xα j ; (es decir, que no sucede que α j dependa de alguna
β ∈ Σ y x aparezca libre en β). Para denotar que “hay una deducción formal
de α a partir de Σ en S”, lo hacemos ası́: “Σ ⊢S α”.

Metateorema 1. (MT 1.) Para cualesquiera fórmulas α y β:

α, (α → β) ⊢S β.

Demostración:
1. α . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Hipótesis.
2. (α → β) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Hipótesis.
3. β . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Modus Ponens 1,2.

Metateorema 2. (MT 2.)Para cualquier fórmula α:

⊢S (α → α)
A.1 TEOREMA DE CORRECTUD-COMPLETUD PARA Lρ 143

Demostración:
1. (α → ((α → α) → α)) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Ax 1.
2. [(α → ((α → α) → α))] → [(α → (α → α)) → (α → α)] . . . . . . . . . . . . . Ax 2.
3. (α → (α → α)) → (α → α) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . MP 1,2.
4. (α → (α → α)) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Ax 1.
5. (α → α) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . MP 4,3.

Teorema . Metateorema de la Deducción (MTD)


Para todo Γ ∪ {α, β} conjunto de enunciados,

Si Γ, α ⊢S β entonces Γ ⊢S (α → β).

Demostración:
Sea φ1 , . . . , φn = β una deducción de β a partir de Γ ∪ {α}. Demostraremos
por inducción sobre n, que para toda i ≤ n, Γ ⊢S (α → φi ) y para el caso i = n
tenemos el resultado. Supongámoslo para todo j < i ≤ n, HI (Hipótesis
Inductiva). Para φi , hay cinco casos:
Caso 1
Si φi ∈ Γ (hipótesis de Γ) entonces:
1. φi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Hip.
2. φi → (α → φi ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Ax1.
3. α → φi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . MP 1,2.
Por lo tanto, Γ ⊢S (α → φi ).
Caso 2
Si φi = α (la hipótesis α) entonces, por el Meteteorema 2 con α = φi :

⊢S (α → φi )

y por lo tanto Γ ⊢S (α → φi ).
Caso 3
Si φi es una axioma, entonces:
1. φi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Axioma.
2. φi → (α → φi ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Ax1.
3. α → φi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . MP 1,2.
Ası́, ⊢S (α → φi ) y Γ ⊢S (α → φi ).
144 [Apéndice] PRUEBA SINTÁCTICA DEL TEOREMA DE...

Caso 4
Si φi es MP de φ j y de φk = (φ j → φi ) con j, k < i, por HI tenemos:

Γ ⊢S (α → φ j ) (∗) y Γ ⊢S (α → (φ j → φi )) (∗∗)

y entonces continuamos con la siguiente deducción:


1. (α → (φ j → φi )) → [(α → φ j ) → (α → φi )] . . . . . . . . . . . . . . . . . . . . . Ax 2.
2. [(α → φ j ) → (α → φi )] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . MP (∗∗),1.
3. (α → φi ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . MP (∗),2.
Por lo tanto, Γ ⊢S (α → φi ).
Caso 5
Si φi es GEN de φ j y φi = (∀xφ j ) con j < i, entonces por HI tenemos:

Γ ⊢S (α → φ j ) (∗ ∗ ∗)

Nótese que por la restricción de la aplicación de GEN, suponiendo que φ j


depende de α, x no está libre en α ni en las hipótesis de Γ de las cuales
depende φ j . Entonces continuamos con la siguiente deducción:
1. ∀x(α → φ j ) → (α → ∀xφ j ) . . . . . . . . . . . . . . . . Ax 5 (x no está libre en α).
2. ∀x(α → φ j ) . . . . . . . . . . . . . . . . . . . . . . . . . . GEN (∗ ∗ ∗) (α no es hipótesis).
3. (α → ∀xφ j ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . MP 2,1.
Por lo tanto Γ ⊢S (α → φi ).
Si φ j no depende de α , entonces Γ ⊢S φ j y aplicando GEN, Γ ⊢S (∀xφ j );
en forma análoga a los casos de axioma o de hipótesis de Γ, se obtiene en
tres pasos más que Γ ⊢S (α → ∀xφ j ), es decir, Γ ⊢S (α → φi ).

Lema . (Lema de Finitud)


Sea Σ un conjunto de enunciados, entonces:
Σ es s-consistente ⇔ todo subconjunto finito de Σ es s-consistente.
Demostración:
⇒) Sea Σ s-consistente. Sea ∆ ⊆ Σ, ∆ finito. Si ∆ fuera s-inconsistente,
entonces existe β tal que

∆ ⊢S β y ∆ ⊢S ¬β.

Entonces Σ ⊢S β y Σ ⊢S ¬β. Por lo tanto, Σ es s-inconsistente! Por lo


tanto, ∆ es s-inconsistente.
A.1 TEOREMA DE CORRECTUD-COMPLETUD PARA Lρ 145

⇐) Supongamos que Σ es s-inconsistente, entonces hay β tal que Σ ⊢S β y


Σ ⊢S ¬β. Consideramos ambas deducciones, que son finitas por definición.
Sea
∆ = {α ∈ Σ : α aparece en alguna de las deducciones}.
Entonces debe ser claro que ∆ ⊢S β y ∆ ⊢S ¬β, de donde ∆ es finito, ∆ ⊆ Σ,
y ∆ es s-inconsistente. Por lo tanto, no todo subconjunto finito de Σ es
s-consistente.

Corolario . Σ es s-inconsistente si y sólo si hay un ∆ ⊆ Σ, ∆ finito tal que ∆ es


s-inconsistente.

IV. Reglas derivadas de S


Las reglas derivadas son reglas de transformación en el sistema, de la forma
“de φ1 , . . . , φn inferir β” que se justifican al probar la deducción:

φ1 , . . . , φn ⊢S β.

Veamos dos ejemplos:


TRANS:
(α → β), (β → γ)
(α → γ)
1. α → β . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Hip.
2. β → γ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Hip.
3. (α → (β → γ)) → [(α → β) → (α → γ)] . . . . . . . . . . . . . . . . . . . . . . . . . . . . Ax 2.
4. (β → γ) → (α → (β → γ)). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .Ax 1.
5. α → (β → γ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . MP 2,4.
6. (α → β) → (α → γ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . MP 5,3.
7. α → γ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . MP 1,6.
INT. PREM:
α → (β → γ)
β → (α → γ)
1. α → (β → γ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Hip.
2. [β → ((α → β) → (α → γ))] → [(β → (α → β)) → (β → (α → γ))] . . Ax 2.
3. [α → (β → γ)] → [(α → β) → (α → γ)] . . . . . . . . . . . . . . . . . . . . . . . . . . . . Ax 2.
4. (α → β) → (α → γ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . MP 1,3.
146 [Apéndice] PRUEBA SINTÁCTICA DEL TEOREMA DE...

5. [(α → β) → (α → γ)] → [β → ((α → β) → (α → γ))] . . . . . . . . . . . . . . . Ax 1.


6. β → ((α → β) → (α → γ)) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . MP 4,5.
7. (β → (α → β)) → (β → (α → γ)) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . MP 6,2.
8. β → (α → β) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Ax 1.
9. β → (α → γ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . MP 8,7.

Observación:
Como veremos en seguida se cumple:

⊢S (β → (¬β → γ)).

De aquı́ se prueba que para todo Σ se cumple que:


Σ es s-consistente sii hay α tal que Σ 0S α
o bien
Σ es s-inconsistente sii para todo enunciado α, Σ ⊢S α.
La demostración se deja como ejercicio al lector.

Ejercicios: Demostrar las siguientes reglas derivadas:


1. INST(x/t):
∀xφ
(φ)xt
donde t es término.
2. EXIST:
(φ)xt
∃xφ
donde t es término.
3. CONTRAP:

(α → β)
(¬β → ¬α).
A.2 PRERREQUISITOS SINTÁCTICOS 147

A.2 Prerrequisitos sintácticos


I. ⊢S (β → (¬β → γ))
1. β . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Hip.
2. ¬β . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Hip.
3. β → (¬γ → β) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Ax 1.
4. (¬γ → β) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . MP 1,3.
5. ¬β → (¬γ → ¬β) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Ax1.
6. (¬γ → ¬β) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . MP 2,5.
7. (¬γ → ¬β) → ((¬γ → β) → γ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Ax 3.
8. (¬γ → β) → γ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . MP 6,7.
9. γ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . MP 4,8.
Por lo tanto, β, ¬β ⊢S γ, entonces (por el MTD, 9 pasos) β ⊢S (¬β → γ),
entonces (por el MTD, 29 pasos) ⊢S (β → (¬β → γ)).
I’. ⊢S (¬β → (β → γ))
Prueba análoga.
I”. ¬α ⊢S (α → β)
1. ¬α . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Hip.
2. ¬α → (¬β → ¬α) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Ax 1.
3. (¬β → ¬α) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . MP 1,2.
4.(¬β → ¬α) → ((¬β → α) → β)) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Ax 3.
5. (¬β → α) → β . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . MP 3,4.
6. ((¬β → α) → β) → (α → ((¬β → α) → β)) . . . . . . . . . . . . . . . . . . . . . . Ax 1.
7. α → ((¬β → α) → β) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . MP 5,6.
8. [α → ((¬β → α) → β)] → [(α → (¬β → α)) → (α → β)] . . . . . . . . . Ax 2.
9. (α → (¬β → α)) → (α → β) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . MP 7,8.
10. α → (¬β → α) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Ax 1.
11. α → β . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . MP 10,9.
II. ⊢S (¬α → α) → α
1. ¬α → ¬α . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . MTEO 2.
2. (¬α → ¬α) → ((¬α → α) → α) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Ax 3.
3. (¬α → α) → α . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . MP 1,2.
III. ⊢S ¬¬φ → φ
1. ¬¬φ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Hip.
2. ¬¬φ → (¬φ → ¬¬φ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Ax 1.
3. ¬φ → ¬¬φ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . MP 1,2.
148 [Apéndice] PRUEBA SINTÁCTICA DEL TEOREMA DE...

4. (¬φ → ¬¬φ) → ((¬φ → ¬φ) → φ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . Ax 3.


5. (¬φ → ¬φ) → φ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . MP 3,4.
6. (¬φ → ¬φ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . MTEO 2.
7. φ. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .MP 6,5.
Por lo tanto, ¬¬φ ⊢S φ, entonces (por el MTD) ⊢S (¬¬φ → φ).
IV. ⊢S (φ → ¬φ) → ¬φ
1. φ → ¬φ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Hip.
2. ¬¬φ → φ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . TEO III.
3. ¬¬φ → ¬φ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . TRANS 2,1.
4. (¬¬φ → ¬φ) → ((¬¬φ → φ) → ¬φ) . . . . . . . . . . . . . . . . . . . . . . . . . . . Ax 3.
5. (¬¬φ → φ) → ¬φ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . MP 3,4.
6. ¬φ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . MP 2,5.
Por lo tanto (φ → ¬φ) ⊢S ¬φ, entonces (por el MTD) ⊢S (φ → ¬φ) → ¬φ.
V. ⊢S (φ → ¬¬φ)
1. ¬¬¬φ → ¬φ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . TEO III.
2. φ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .Hip.
3. φ → (¬¬¬φ → φ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Ax 1.
4. ¬¬¬φ → φ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . MP 2,3.
5. (¬¬¬φ → ¬φ) → [(¬¬¬φ → φ) → ¬¬φ] . . . . . . . . . . . . . . . . . . . . . . Ax 3.
6. (¬¬¬φ → φ) → ¬¬φ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . MP 1,5.
7. ¬¬φ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . MP 4,6.
Por lo tanto φ ⊢S ¬¬φ, entonces (por le MTD) ⊢S (φ → ¬¬φ).
VI. ⊢S (¬β → ¬α) → (α → β)
1. (¬β → ¬α) → ((¬β → α) → β) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Ax 3.
2. [(¬β → α) → β] → [α → ((¬β → α) → β)] . . . . . . . . . . . . . . . . . . . . . . Ax 1.
3. (¬β → ¬α) → [α → ((¬β → α) → β)] . . . . . . . . . . . . . . . . . . . . TRANS 1,2.
4. [α → ((¬β → α) → β)] → [(α → (¬β → α)) → (α → β)] . . . . . . . . . Ax 2.
5. (¬β → ¬α) → [(α → (¬β → α)) → (α → β)] . . . . . . . . . . . . . TRANS 3,4.
6. (α → (¬β → α)) → [(¬β → ¬α) → (α → β)] . . . . . . . . . . . INT. PREM. 5.
7. α → (¬β → α) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Ax 1.
8. (¬β → ¬α) → (α → β) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . MP 7,6.
VII. ⊢S (α → β) → (¬β → ¬α)
1. α → β . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Hip.
2. ¬β . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Hip.
3. ¬β → (¬¬α → ¬β) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Ax 1.
4. ¬¬α → ¬β . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . MP 2,3.
A.2 PRERREQUISITOS SINTÁCTICOS 149

5. ¬¬α → α . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . TEO III.


6. ¬¬α → β . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . TRANS 5,1.
7. (¬¬α → ¬β) → ((¬¬α → β) → ¬α) . . . . . . . . . . . . . . . . . . . . . . . . . . . . Ax 3.
8. (¬¬α → β) → ¬α . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . MP 4,7.
9. ¬α . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . MP 6,8.
Por lo tanto (α → β), ¬β ⊢S ¬α, entonces (por el MTD, 2 veces)
⊢S (α → β) → (¬β → ¬α).
VIII. Corolario . (Contrapuesta)

Si Σ, α ⊢S β, entonces Σ, ¬β ⊢S ¬α.

Demostración:
Suponemos que Σ, α ⊢S β, entonces (por el MTD) se tiene que Σ ⊢S (α → β),
y como ⊢S (α → β) → (¬β → ¬α), entonces (por MP), Σ ⊢S (¬β → ¬α).
Por lo tanto, Σ, ¬β ⊢S ¬α.

IX. ⊢S ∃x(x ≈ x), para cualquier x variable del lenguaje.


1. ∀x(¬(x ≈ x)) → ¬(x ≈ x) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Ax 4.
2. ¬¬(x ≈ x) → ¬∀x(¬(x ≈ x)) . . . . . . . . . . . . . . . . . . . . . . . . . . . CONTRAP 1.
3. (x ≈ x) → ¬¬(x ≈ x) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . TEO V.
4. (x ≈ x) → ¬∀x(¬(x ≈ x)) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . TRANS 3,2.
5. ∀x(x ≈ x) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Ax 6.
6. ∀x(x ≈ x) → (x ≈ x) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Ax 4.
7. x ≈ x . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . MP 5,6.
8. ¬∀x¬(x ≈ x) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . MP 7,4.
9. ∃x(x ≈ x) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Abreviatura 8.
X. Ejercicios:

a) Para todo término t, ⊢S (t ≈ t).


b) Para todos t1 , t2 , términos, (t1 ≈ t2 ) ⊢S (t2 ≈ t1 ).
c) Para todos t1 , t2 , t3 , términos (t1 ≈ t2 ), (t2 ≈ t3 ) ⊢S (t1 ≈ t3 ).

a) Sea t un término; entonces ∀x(x ≈ x) → (x ≈ x)xt es un axioma.


1. ∀x(x ≈ x) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Ax 6.
2. ∀x(x ≈ x) → (x ≈ x)xt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Ax 4.
3. (x ≈ x)xt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . MP 1,2.
4. (t ≈ t) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Es 3 (repetición).
150 [Apéndice] PRUEBA SINTÁCTICA DEL TEOREMA DE...

b) Sean t1 y t2 términos,
1. (t1 ≈ t2 ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .Hip.
2. ∀x∀y(x ≈ y → (x ≈ x → y ≈ x)) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Ax 7.
3. ∀y(t1 ≈ y → (t1 ≈ t1 → y ≈ t1 )) . . . . . . . . . . . . . . . . . . . . . . . . INST 2 (x/t1 ).
4. (t1 ≈ t2 → (t1 ≈ t1 → t2 ≈ t1 )) . . . . . . . . . . . . . . . . . . . . . . . . . . INST 3 (y/t2 ).
5. (t1 ≈ t1 → t2 ≈ t1 ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . MP 1,4.
6. t1 ≈ t1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . TEO X (a).
7. t2 ≈ t1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . MP 6,5.
Por lo tanto (t1 ≈ t2 ) ⊢S (t2 ≈ t1 ).
c) Sean t1 , t2 , t3 , términos,
1. t1 ≈ t2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Hip.
2. t2 ≈ t3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Hip.
3. ∀x∀y[x ≈ y → (t1 ≈ x → t1 ≈ y)] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Ax 7.
4. ∀y[t2 ≈ y → (t1 ≈ t2 → t1 ≈ y)] . . . . . . . . . . . . . . . . . . . . . . . . INST 3 (x/t2 ).
5. (t2 ≈ t3 ) → ((t1 ≈ t2 ) → (t1 ≈ t3 )) . . . . . . . . . . . . . . . . . . . . . . . INST 4 (y/t3 ).
6. (t1 ≈ t2 ) → (t1 ≈ t3 ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . MP 2,5.
7. (t1 ≈ t3 ). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .MP 1,6.
Por lo tanto (t1 ≈ t2 ), (t2 ≈ t3 ) ⊢S (t1 ≈ t3 ).
XI. Ejercicio: Para todo término t:

⊢S ∃x(x ≈ t).

1. ∀x¬(x ≈ t) → (¬(x ≈ t))xt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Ax 4.


Obs: (¬(x ≈ t)xt = ¬(x ≈ t)xt = ¬(t ≈ t).
2. ¬¬(t ≈ t → ¬∀x¬(x ≈ t) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . CONTRAP 1.
3. (t ≈ t) → ¬¬(t ≈ t) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Teo V.
4. (t ≈ t) → ¬∀x¬(x ≈ t) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . TRANS 3,2.
5. t ≈ t . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . TEO X (a).
6. ¬∀x¬(x ≈ t) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . MP 5,4.
7. ∃x(x ≈ t) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Abreviatura 6.

XII. Ejercicio:

a) ¬(β → γ) ⊢S β
b) ¬(β → γ) ⊢S ¬γ.
A.2 PRERREQUISITOS SINTÁCTICOS 151

a)
1. ¬(β → γ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Hip.
2. (¬β → (β → γ)) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . TEO I’.
3. ¬(β → γ) → (¬β → ¬(β → γ)) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Ax 1.
4. ¬β → ¬(β → γ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . MP 1,3.
5. [¬β → ¬(β → γ)] → [(¬β → (β → γ)) → β] . . . . . . . . . . . . . . . . . . . . Ax 3.
6. (¬β → (β → γ)) → β . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . MP 4,5.
7. β . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . MP 2,6.
b)
1. ¬(β → γ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Hip.
2. ¬(β → γ) → (¬¬γ → ¬(β → γ)) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Ax 1.
3. ¬¬γ → ¬(β → γ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . MP 1,2.
4. γ → (β → γ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Ax 1.
5. ¬¬γ → γ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . TEO III.
6. ¬¬γ → (β → γ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . TRANS 5,4.
7. [¬¬γ → ¬(β → γ)] → [(¬¬γ → (β → γ)) → ¬γ] . . . . . . . . . . . . . . . Ax 3.
8. (¬¬γ → (β → γ)) → ¬γ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . MP 3,7.
9. ¬γ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . MP 6,8.
XIII. Ejercicio: β, ¬γ ⊢S ¬(β → γ)

1. β . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Hip.
2. ¬γ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Hip.
3. (¬¬(β → γ) → ¬γ) → [(¬¬(β → γ) → γ) → ¬(β → γ)] . . . . . . . . Ax 3.
4. ¬γ → (¬¬(β → γ) → ¬γ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Ax 1.
5. ¬¬(β → γ) → ¬γ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . MP 2,4.
6. ¬¬(β → γ) → (β → γ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . TEO III.
7. (β → γ) → (β → γ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . MTEO 2.
8. β → [(β → γ) → γ] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . INT. PREM. 7.
9. (β → γ) → γ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . MP 1,8.
10. ¬¬(β → γ) → γ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . TRANS 6,9.
11. (¬¬(β → γ) → γ) → ¬(β → γ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . MP 5,3.
12. ¬(β → γ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . MP 10,11.
XIV. Ejercicio: Para toda fórmula β, x variable y c constante,

(β)xc ⊢S (∃xβ)
152 [Apéndice] PRUEBA SINTÁCTICA DEL TEOREMA DE...

1. (β)xc . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .Hip.
2. ∀x¬β → (¬β)xc . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Ax 4.
3. ¬¬(β)xc → ¬∀x¬β . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . CONTRAP 2.
4. (β)xc → ¬¬(β)xc . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . TEO V.
5. (β)xc → ¬∀x¬β . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . TRANS 4,3.
6. ¬∀x¬β . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . MP 1,5.
7. ∃xβ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Abreviatura de 6.

A.3 Demostración de la versión A del Teorema


de Completud-Correctud
Hay un sistema formal S que cumple i), ii), iii), iv) y v) para cada Σ:
Σ es s-consistente ⇔ Σ tiene modelo
Ses S el sistema dado antes. Ya demostramos por MT1, TEO I, TEO II y
MTD, que S cumple i), ii), iii) iv). Demostraremos v).
Sea Σ un conjunto de enunciados.
⇐) Supongamos que Σ es s-inconsistente. Entonces hay β tal que Σ ⊢S β
y Σ ⊢S ¬β.

Afirmación. (∗) Para todo Γ ∪ {α}, se cumple que:

Γ ⊢S α ⇒ Γ |= α

Demostración:
Supongamos que Γ ⊢S α. Sea γ1 , . . . , γn = α tal deducción. Demostraremos
por inducción sobre n, que ∀k ≤ n, Γ |= γk . Sea k ≤ n.
Supongamos que: ∀i < k, Γ |= γi (HI). Demostrémoslo para k. Sabemos
que: γk es enunciado de Γ o axioma de S o MP de anteriores o GEN de
anteriores con la restricción.
Si γk es enunciado de Γ (hipótesis), entonces trivialmente Γ |= γk .
Si γk es axioma, entonces ya que todos los axiomas de S son universal-
mente válidos (ejercicio), entonces |= γk de donde Γ |= γk .
Si γk es MP de γ j y γr = (γ j → γk ), con j, r < k, entonces por HI, Γ |= γ j
y Γ |= γr . Entonces es inmediato que Γ |= γk .
A.3 DEMOSTRACIÓN DE LA VERSIÓN A DEL... 153

Si γk es GEN de γ j con j < k, y γk = (∀xγ j ); entonces por HI Γ |= γ j . Pero


como Γ es un conjunto de enunciados, entonces veamos que Γ |= (∀xγ j ).
Sea A una estructura y sea s una asignación. Supongamos que A |= β [s]
para toda β ∈ Γ; es decir, A es modelo de Γ. Sea a ∈ A (A es el universo
de A), entonces consideremos s(x/a). Como todo β ∈ Γ es un enunciado,
entonces A |= β [s(x/a)] para todo β ∈ Γ de donde por HI (que es Γ |= γ j )
tenemos que: A |= γ j [s(x/a)] y esto es para cualquier a ∈ A. Ası́, por
definición de satisfacción de la cuantificación universal, tenemos que
A |= (∀xγ j ) [s]. Ası́ pues Γ |= (∀xγ j ); es decir, Γ |= γk .

Volviendo a la demostración, y una vez demostrada nuestra afirmación


(∗), como tenı́amos que:

Σ ⊢S β y Σ ⊢S ¬β.

Por la afimación (∗) tenemos que:

Σ |= β y Σ |= ¬β,

de donde se sigue que Σ no tiene modelo.


Observación:
Para la demostración de “⇒” del Teorema de Completud (versión A): para
cualquier Σ, si Σ es s-consistente entonces Σ tiene modelo, necesitaremos
varios Lemas: Lema 0, Lema 1, Lema 2 y Lema 3. Usaremos el Lema de
Zorn para demostrar el Lema 1. El Lema 0 se usará el la demostración
del Lema 1. Usaremos “consistente” en vez de “s-consistente” ya que el
sistema S está fijo.

Lema 0. Si Σ es un conjunto consistente de fórmulas y φ es fórmula, entonces:


Σ ∪ {φ} es consistente o Σ ∪ {¬φ} es consistente
Demostración:
Sea Σ consistente. Supongamos que ni Σ ∪ {φ}, ni Σ ∪ {¬φ} son consistentes.
Entonces de ellos se deduce en el sistema S cualquier fórmula, en particular:

Σ ∪ {φ} ⊢S ¬φ y Σ ∪ {¬φ} ⊢S φ.
154 [Apéndice] PRUEBA SINTÁCTICA DEL TEOREMA DE...

Entonces por MTD:

Σ ⊢S (φ → ¬φ) y Σ ⊢S (¬φ → φ).

Por IV:
⊢S (φ → ¬φ) → ¬φ
y por II:
⊢S (¬φ → φ) → φ
entonces por MP,
Σ ⊢S ¬φ y Σ ⊢S φ !
Ası́ pues, si Σ es consistente entonces Σ ∪ {φ} es consistente o Σ ∪ {¬φ} es
consistente.

Observación:
El inverso del Lema anterior es cierto y fácilmente demostrable a partir de
las definiciones de consistencia y deducción.

Corolario . Sea Σ un conjunto de enunciados. Entonces son equivalentes:


a) Σ es completo y consistente.
b) Σ es maximal consistente (maximal respecto a ⊆).

Demostración:
a) ⇒ b) Sea Σ completo y consistente. Sea ∆ un conjunto de enunciados tal
que Σ ⊆ ∆. Si Σ , ∆, sea φ ∈ ∆ \ Σ entonces como Σ es completo, ¬φ ∈ Σ.
Por lo tanto {φ, ¬φ} ⊆ ∆ y ∆ es inconsistente pues

∆ ⊢S φ y ∆ ⊢S ¬φ.

Ası́, Σ es maximal consistente.


b) ⇒ a) Sea Σ maximal consistente. Sea φ tal que φ < Σ, entonces
Σ , Σ ∪ {φ} y Σ ⊂ Σ ∪ {φ}. Por lo tanto Σ ∪ {φ} no es consistente. Como
Σ es consistente entonces Σ ∪ {¬φ} es consistente por el Lema 0; y como
Σ ⊆ Σ ∪ {¬φ}, entonces Σ = Σ ∪ {¬φ} y de aquı́ que ¬φ ∈ Σ; por lo tanto, Σ
es completo. Obsérvese que ya era consistente.

A.3 DEMOSTRACIÓN DE LA VERSIÓN A DEL... 155

Lema 1. Si Σ es un conjunto consistente de enunciados entonces hay un conjunto


de enunciados Γ, con las siguientes propiedades:
i) Σ ⊆ Γ
ii) τ(Γ) = τ(Σ)
iii) Γ es completo.
iv) Γ es s-consistente.
v) |Γ| = |Σ| + ℵ0
Demostración:
Sea A = {∆ : ∆ es un conjunto de enunciados de tipo τ(Σ), Σ ⊆ ∆ y ∆
es s−consistente }. Entonces (A, ⊆) es un COPO. Zornifiquemos: Sea C
una cadena en (A, ⊆); es decir, C ⊆ A y (C, ⊆) es un COTO. Es inmediato
que para todo ∆ ∈ C, ∆ ⊆ ∪C por lo que ∪C es una cota superior de C.
Veamos que ∪C ∈ A. Es claro que ∪C es un conjunto de enunciados de
tipo τ(Σ) y que Σ ⊆ ∪C (pues Σ ⊆ ∆, para todo ∆ ∈ C). ∪C es s-consistente
(pues si fuera s-inconsistente, habrı́a un B ⊆ ∪C, B finito, inconsistente y
si B = {α1 , . . . , αn } ⊆ ∪C, entonces ∀i ∈ {1, . . . , n} αi ∈ ∆i ∈ C; y como los ∆i
están totalmente ordenados por ⊆, hay un máximo ∆i0 tal que B ⊆ ∆i0 y
entonces ∆i0 es s-inconsistente!). Ası́, ∪C ∈ A. Por el Lema de Zorn, A tiene
un elemento maximal respecto a ⊆, digamos Γ ∈ A, entonces τ(Γ) = τ(Σ),
Σ ⊆ Γ y Γ es s-consistente; es decir, Γ es maximal s-consistente o sea, Γ es
completo y s-consistente.

Lema 2. Si Σ es un conjunto consistente de enunciados, entonces hay un conjunto


de enunciados Ω tal que:
i) Σ ⊆ Ω
ii) Ω es cerrado bajo testigos.
iii) Si |Σ| ≥ ℵ0 entonces |Ω| = |Σ|.
iv) Ω es s-consistente
Demostración:
Definimos primero Ωn por recursión para n en los naturales: S
1. Ω0 = Σ. Supóngase definido Ωn para n ≥ 0. Para cada σ ∈ Ωn \ m<n Ωm ,
que cσ < τ(Ωn ) y tal que cσ , cσ′ si σ , σ′ .
sea cσ una constante nueva tal S
Para cada enunciado σ ∈ (Ωn \ m<n Ωm ) definimos:
 x
∗ (α)cσ si σ = (∃xα),
σ =
σ en otro caso.
156 [Apéndice] PRUEBA SINTÁCTICA DEL TEOREMA DE...

2. Ωn+1 = Ωn ∪ {σ∗ : σ∗ , σ y σ ∈ Ωn \ m<n Ωm }. Sea Ω = n∈N Ωn . Es


S S
claro que si n < m, entonces Ωn ⊆ Ωm y τ(Ωn ) ⊆ τ(Ωm ). Veamos que Ω
cumple i), ii),
Siii) y iv).
i) Σ = Ω0 ⊆ n∈N ΩnS= Ω.
ii) Sea (∃xα) ∈ Ω = n∈N Ωn . Por lo tanto, hay n ∈ N, tal que (∃xα ∈ Ωn y
entonces hay un mı́nimo n0 ∈ N con esa propiedad. Entonces:
[
(∃xα) ∈ (Ωn0 \ Ωm )
m<n0

y
(∃xα)∗ = (α)xc(∃xα) , (∃xα)
y
(∃xα)∗ = (α)xc(∃xα) ∈ Ωn0 +1 ⊆ Ω
y
c(∃xα) ∈ τ(Ωn0 +1 ) ⊆ τ(Ω).
iii) Supongamos que Σ es infinito. Es decir |Σ| ≥ ℵ0 . Es fácil ver que
∀n ∈ N, |Ωn | = |Σ|, por inducción sobre N pues Ω0 = Σ y si |Ωn | = |Σ|
entonces como Ωn+1 es Ωn unido con un conjunto de cardinal a lo más |Σ|,
entonces |Ωn+1 | ≤ |Σ| + |Σ| = |Σ| y como Σ ⊆ Ωn+1 , entonces |Σ| ≤ |Ωn+1 |. Ası́
pues |Ωn+1 | = |Σ|. Ahora bien,
[
|Ω| = | Ωn | = ℵ0 · |Ωn | = ℵ0 · |Σ| = |Σ|.
n∈N
S
iv) Para ver que Ω = n∈N Ωn es s-consistente, bastará ver que cada uno
de los Ωn es s-consistente, por inducción:
n = 0) Ω0 = Σ es s-consistente por hipótesis.
Supongamos que Ωn es s-consistente (HI).
n + 1) Ωn+1 = Ωn ∪ {σ∗ : σ∗ , σ y σ ∈ Ωn \ m<n Ωm }. Si Ωn+1 es s-
S
inconsistente, hay un ∆ ⊆ Ωn+1 , ∆ finito tal que ∆ es s-inconsistente (Lema
de Finitud), y además es de la forma

∆ = Γ ∪ {(α1 )xc11 , . . . , (αr )xcrr }

donde Γ ⊆ Ωn , Γ finito, ci denota aS c(∃xi αi ) y σi = (∃xi αi ). Además


(∃x1 α1 ), . . . , (∃xr αr ) están en (Ωn \ m<n Ωm ).
Sea Σ0 = Γ ∪ {(∃x1 α1 ), . . . , (∃xr αr )}. Por lo tanto, Σ0 ⊆ Ωn y Σ0 finito.
Como ∆ es s-inconsistente entonces ∆ ⊢S γ, para cualquier γ, en particular
A.3 DEMOSTRACIÓN DE LA VERSIÓN A DEL... 157

∆ ⊢S β para cualquier β que no tenga presencias de las constantes c1 , . . . , cr .


Entonces
Γ, (α1 )xc11 , . . . , (αr )xcrr ⊢S β
para cualquier β sin c1 , . . . , cr y cr no aparece libre ni en αr , ni en Γ, ni en
(αi )xcii (i < r), entonces por el Sublema (2.3) (Regla C) que se demostrará más
adelante y que afirma:
Si Γ, (α)xc ⊢S β y el sı́mbolo constante c no aparece
ni en α ni en β ni en Γ, entonces Γ, ∃xα ⊢S β
tenemos que:
Γ, (α1 )xc11 , . . . , (αr )xcr−1
r−1
, (∃xr αr ) ⊢S β
para cualquier β sin c1 , . . . , cr .
Análogamente aplicamos el Sublema 2.3, r − 1 veces más, obteniendo:

Γ, (∃x1 α1 ), . . . , (∃xr−1 αr−1 ), (∃xr αr ) ⊢S β

para cualquier β sin c1 , . . . , cr . Ası́ pues, como

Σ0 = Γ ∪ {(∃x1 α1 ), . . . , (∃xr−1 αr−1 ), (∃xr αr )}

entonces:
Σ0 ⊢S β y Σ0 ⊢S ¬β
pues si c1 , . . . , cr no aparecen en β, tampoco aparecen en ¬β. De aquı́, como
Σ0 ⊆ Ωn , Σ0 finito y Σ0 s-inconsistente, entonces Ωn es s-inconsistente!
Ası́ pues, si Ωn es s-consistente, entonces Ωn+1 es s-consistente. Hemos
demostrado
S pues que ∀n ∈ N, Ωn es s-consistente, lo cual implica que
Ω = n∈N Ωn es s-consistente, pues si Ω fuese s-inconsistente, entonces
(por el Lema de Finitud) habrı́a un ∆0 ⊆ Ω, ∆0 finito, s-inconsistente y
entonces habrı́a un n ∈ N tal que ∆0 ⊆ Ωn y tal que Ωn serı́a s-inconsistente
contra lo que acabamos de demostrar. ⋄

A.3.1 Sublemas sobre constantes (para el Lema 2)


Los siguientes tres sublemas tienen como objetivo justificar el Sublema 2.3
usado en un paso del Lema 2 anterior.

Sublema 2.1. (Generalización sobre constantes)


Si Γ ⊢S φ y c es un sı́mbolo de constante que no aparece en Γ, entonces hay una
158 [Apéndice] PRUEBA SINTÁCTICA DEL TEOREMA DE...

variable y, que no aparece en φ, tal que Γ ⊢S ∀y(φ)cy . Más aun, hay una deducción
de ∀y(φ)cy a partir de Γ, en la cual c no aparece.
Demostración:
Sea α1 , . . . , αn una deducción de φ a partir de Γ, en S. Entonces αn = φ. Sea
y la primera variable (según la enumeración de las variables x0 , x1 , x2 , . . .)
tal que no aparece en ninguna de las fórmulas αi .
Afirmamos que: (α1 )cy , . . . , (αn )cy (∗) es una deducción de (φ)cy a partir de
Γ. Obsérvese que (αn )cy = (φ)cy . Debemos verificar que cada (αi )cy cumpla: o
estar en Γ o ser axioma de S o ser MP de anteriores o ser GEN de anterior.
Por casos, sobre las αi :
Caso 1) αi ∈ Γ. Entonces c no aparece en αi (pues c no aparece en Γ). Por lo
tanto, (αi )cy = αi ∈ Γ.
Caso 2) αi es axioma de S. Entonces obsérvese que (αi )cy es también axioma
de S, ya que la nueva variable y no aparece en αi , e introducir una nueva
variable, transforma un axioma en otro axioma, (del mismo esquema). Si
c no aparece en αi entonces (αi )cy = αi .
Caso 3) αi es MP de α j y αk = (α j → αi ) con j, k < i. Entonces (αk )cy =
((α j )cy → (αi )cy ). Por lo tanto, (αi )cy se obtiene por MP de (α j )cy y (αk )cy .
Caso 4) αi es GEN de α j con j < i y αi = (∀xα j ). Entonces (αi )cy = (∀xα j )cy =
∀x(α j )cy es GEN de (α j )cy con la variable x, que claramente es distinta a y,
pues y no aparece en αi . Ahora como x no es libre en fórmulas β ∈ Γ tales
que α j dependa de ellas y (α j )cy depende de las correspondientes (β)cy en las
cuales x no es libre (pues x no libre en esas β y x , y), entonces la restricción
al aplicar GEN se cumple.
Sea ∆ el subconjunto finito de Γ, usado en (∗). Entonces hemos mostrado
que (∗) es una deducción de (φ)cy a partir de ∆ y y no aparece en ∆; ası́
pues, podemos aplicar ahora, GEN con la variable y a la fórmula (φ)cy y
obtenemos que
∆ ⊢S ∀y(φ)cy .
Más aún, esta deducción de ∀y(φ)cy es una deducción en la cual c no aparece
en absoluto. Ahora bien, como ∆ ⊆ Γ, tenemos que

Γ ⊢S ∀y(φ)cy .


A.3 DEMOSTRACIÓN DE LA VERSIÓN A DEL... 159

Sublema 2.2. Si Γ ⊢S (α)xc y el sı́mbolo de constante c no aparece ni en Γ, ni en


α, entonces Γ ⊢S ∀xα y hay una deducción de (∀xα) a partir de Γ, en la cual c no
aparece.
Demostración:
Por el Sublema 2.1 con φ = (α)xc hay una deducción (sin c) a partir de Γ, de
∀y(αxc )cy donde y no aparece en αxc . Pero como c no aparece en α, entonces
((α)xc )cy = (α)xy . Por lo tanto, Γ ⊢S ∀y(α)xy .
Solo resta demostrar que ∀y(α)xy ⊢S ∀xα pero eso es fácil pues sabemos
y
que (∀y(α)xy → α) resulta ser un axioma (Ax 4), sólo que ((α)xy )x debe ser α;
y
es decir, ((α)xy )x = α, pero recordemos que: y no aparece en αxc , c no aparece
en α y ((α)xc )cy = (α)xy .

Sublema 2.3. (Regla C o Regla de Elección)


Si Γ, (α)xc ⊢S β y el sı́mbolo constante c no aparece ni en α ni en β ni en Γ, entonces

Γ, ∃xα ⊢S β.

Además hay una deducción de β a partir de Γ ∪ {∃xα} en la cual c no aparece.

Observación: Esto es de uso muy común en matemáticas:


. . .si sabemos que hay un x tal que “ x ”, le llamamos c. Ahora a partir
de “ c ” demostramos que se cumple β (donde no aparece c). En tal
caso concluimos que: si sabemos que hay un x tal que “ x ” entonces
β. Obsérvese que esta regla no afirma que ∃xα ⊢S (α)xc , lo cual generalmente
es falso!

Demostración:
Como Γ, (α)xc ⊢S β por contraposición (Ejercicio VIII)

Γ, ¬β ⊢S ¬(α)xc ,

pero obsérvese que ¬((α)xc ) = (¬α)xc de donde

Γ, ¬β ⊢S (¬α)xc

y por el Sublema 2.2, Γ, ¬β ⊢S ∀x¬α; otra vez por contraposición

Γ, ¬∀x¬α ⊢S ¬¬β
160 [Apéndice] PRUEBA SINTÁCTICA DEL TEOREMA DE...

y como ¬¬β ⊢S β (Ejercicio III) y ¬∀x¬α se abrevia ∃xα, entonces tenemos


que Γ, ∃xα ⊢S β. ⋄

Corolario (de los Lemas 1 y 2)


Sea Σ un conjunto de enunciados consistente, entonces hay un conjunto
de enunciados Σ∗ tal que
i) Σ ⊆ Σ∗
ii) Σ∗ es s-consistente.
iii) Σ∗ es completo.
iv) Σ∗ es cerrado bajo testigos.
v) |Σ∗ | = |Σ| + ℵ0 .
Demostración:
Sea Σ consistente. Definimos por recursión para n ∈ N:
Σ0 = Σ.
Σ2n+1 = el conjunto Γ del Lema 1 para Σ2n .
Σ2n+2 = elSconjunto Ω del Lema 2 para Σ2n+1 .
Sea Σ∗ = n∈N Σn .

Observaciones:
1) ∀n ∈ N, Σn ⊆ Σn+1 . Por la propiedad i) de los Lemas 1 y 2 y τ(Σn ) ⊆
τ(Σn+1 ) ⊆ τ(Σ∗ ). Es obvio que:
[
i) Σ = Σ0 ⊆ Σn = Σ ∗
n∈N

2) ∀n ∈ N, Σn es s-consistente. Por hipótesis y la propiedad iv) de los


Lemas 1 y 2.
3) ∀n ∈ N, Σ2n+1 es completo. Por el Lema 1.
4) ∀n ∈ N, Σ2n+2 es cerrado bajo testigos. Por el Lema 2.

Afirmamos que Σ∗ = n∈N Σn es consistente, completo y cerrado bajo


S
testigos:
ii) Σ∗ es s-consistente pues es unión de una cadena de conjuntos consistentes
por un argumento análogo al del final del Lema 2 iv) aplicando el Lema
de Finitud.
iii) Σ∗ es completo, pues si σ es de tipo τ(Σ∗ ), σ es de tipo τ(Σn ) para algún
n, ya que τ(σ) es finito. De aquı́ se sigue que σ es de tipo τ(Σ2m+1 ) para
algún m tal que n ≤ 2m y Σ2m+1 es completo por observación 3, por lo que
σ ∈ Σ2m+1 o ¬σ ∈ Σ2m+1 , entonces σ ∈ Σ∗ o ¬σ ∈ Σ∗ .
A.3 DEMOSTRACIÓN DE LA VERSIÓN A DEL... 161

iv) Σ∗ es cerrado bajo testigos, pues si (∃xα) ∈ Σ∗ entonces (∃xα) ∈ Σn para


algún n ∈ N, de donde (∃xα) ∈ Σ2m+2 para algún m ∈ N tal que n ≤ 2m + 1
y por la observación 4 hay c ∈ τ(Σ2m+2 ) ⊆ τ(Σ∗ ) tal que (α)xc ∈ Σ2m+2 ⊆ Σ∗ .
v) Para justificar que |Σ∗ | = |Σ| + ℵ0 hay que observar que:
· Σ∗ es consistente, completo y cerrado bajo testigos.
· ⊢S ∃x(x ≈ x), (Ejercicio IX) entonces Σ∗ ⊢S ∃x(x ≈ x), por lo tanto
∃x(x ≈ x) ∈ Σ∗ . Pues si ∃x(x ≈ x) < Σ∗ , entonces ¬∃x(x ≈ x) ∈ Σ∗ !
Ası́ pues, ∃x(x ≈ x) ∈ Σ∗ para cualquier x variable: x1 , x2 , x3 , . . . Entonces
por ser cerrado bajo testigos, hay cx ∈ τ(Σ∗ ) tal que (cx ≈ cx ) ∈ Σ∗ para
cualquier variable x. Ası́ pues, |Σ∗ | ≥ ℵ0 , pues (cx ≈ cx ) , (c y ≈ c y ) si x , y.
Por otro lado, Σ∗ ⊇ Σ por lo que |Σ∗ | ≥ |Σ|. Entonces

|Σ∗ | ≥ max{|Σ|, ℵ0 }.

De hecho si Σ es finito, por el argumento anterior |Σ∗ | ≥ ℵ0 y si Σ es infinito,


por el argumento anterior |Σ∗ | ≥ |Σ|.
Consideremos ahora lo siguente:
· El número total de los sı́mbolos de un lenguaje de tipo ρ es igual al
cardinal ℵ0 +|ρ| pues al menos tenemos un número numerable de variables.
· Los enunciados son sucesiones finitas de sı́mbolos, por lo que en cada
enunciado hay a lo más un número finito de sı́mbolos.
· Obsérvese que por ser Σ∗ consistente, completo y cerrado bajo testigos,
|τ(Σ∗ )| ≥ ℵ0 .
· Obsérvese que en general, si |τ(Σ)| ≥ ℵ0 entonces |τ(Σ)| = |Σ|, pues
cada enunciado tiene a lo más un número finito de sı́mbolos.
· Recordar que en el Lema 1. τ(Σ) = τ(Γ) por lo que |Γ| = |Σ| + ℵ0 y en
el Lema 2, a partir de la primera completación y cerradura bajo testigos,
tenemos Σ2 infinito, por lo tanto, |Σ| = |Ω| en el Lema 2.
· Ası́ pues |Σ∗ | = |Σ|, si |Σ| ≥ ℵ0 y si |Σ| < ℵ0 entonces |Σ∗ | = ℵ0 .

Lema 3. Si Σ es un conjunto de enunciados consistente, completo y cerrado


bajo testigos, entonces Σ tiene un modelo digamos A, tal que su universo A
cumple |A| ≤ |Σ|.
Demostración:
Obsérvese que: si Σ es s-consistente, completo y cerrado bajo testigos,
entonces Σ es infinito y τ(Σ) tiene infinidad de constantes. Esto se ve
162 [Apéndice] PRUEBA SINTÁCTICA DEL TEOREMA DE...

fácilmente, si se consideran todos los enunciados de la forma ∃x(x ≈ x),


los cuales deben estar en Σ porque ⊢S ∃x(x ≈ x) y por sus tres propiedades!
Los enunciados de esa forma son una infinidad, pues son distintos para
distintas variables y tenemos una infinidad numerable de variables. Sea

A′ = {t : t es término de tipo τ(Σ) y t sin variables }.

Definimos una relación binaria r, sobre A′ como sigue:


Para t1 , t2 ∈ A′ , (t1 , t2 ) ∈ r sii (t1 ≈ t2 ) ∈ Σ.
Es relativamente fácil verificar que r es una relación de equivalencia sobre
A; usando lo siguiente (Ejercicio X):
a) ⊢S (t ≈ t); para cualquier término t.
b) (t1 ≈ t2 ) ⊢S (t2 ≈ t1 ); para cualesquiera términos t1 , t2 .
c) (t1 ≈ t2 ), (t2 ≈ t3 ) ⊢S (t1 ≈ t3 ); para cualesquiera términos t1 , t2 , t3 .
d) Σ es s-consistente y completo.
· Sea t = {u ∈ A′ : (t, u) ∈ r} = {u ∈ A′ : (t ≈ u) ∈ Σ}.
· Definimos A = {t : t ∈ A′ }. El cociente A′ /r (de A′ módulo r).
A es un conjunto no vacı́o y será el universo de la estructura A que
definiremos: Para cada P predicado, f sı́mbolo operacional, c constante en
τ(Σ), definimos PA , f A , cA :
i) Si P ∈ τ(Σ), P de aridad n y t1 , . . . , tn ∈ A, entonces

(t1 , . . . , tn ) ∈ PA ⇔ P(t1 , . . . , tn ) ∈ Σ.

ii) Si f ∈ τ(Σ), de aridad m y t1 , . . . , tm ∈ A, entonces

f A (t1 , . . . , tm ) = f (t1 , . . . , tm ).

iii) Si c ∈ τ(Σ), entonces cA = c.


Sea A = hA, {PA }, { f A }, {cA }iP, f,c ∈τ(Σ) . Es claro que |A| ≤ |A′ | por ser A el
cociente de A′ modulo r, además, como ⊢S (t ≈ t) para cada t ∈ A′ y como
Σ es s-consistente y completo, entonces para cada t sin variables de tipo
τ(Σ), (t ≈ t) ∈ Σ. Ası́, |A′ | ≤ |Σ| y entonces |A| ≤ |Σ|.
Veremos ahora que A es un modelo de Σ, pero demostraremos algo más
general:
Para todo α enunciado de tipo τ(Σ) se cumple que

α ∈ Σ ⇔ A |= α.
A.3 DEMOSTRACIÓN DE LA VERSIÓN A DEL... 163

Antes, dos sublemas técnicos:

Sublema 3.1. Para todo t ∈ A′ , tA = t.


Demostración: Por inducción sobre términos sin variables.
1) Si t = c, tA = cA = c (por definición de A).
2) Si t = f (t1 , . . . , tm ) y suponemos que tA = t1 para cada i = 1, . . . , m (HI)
tA = [ f (t1 , . . . , tm )]A = f A (tA1 , . . . , tAm ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . por definición de interpretación de términos y por HI,
= f A (t1 , . . . , tm ),
= f (t1 , . . . , tm ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . por definición de A,
= t.

Sublema 3.2. Para todo t ∈ A, hay c ∈ τ(Σ) tal que t = c (es decir, hay c ∈ τ(Σ)
tal que c ∈ t).
Demostración:
Para todo t ∈ A′ , sucede que (t ≈ t) ∈ Σ por ser Σ completo y s-consistente.
De aquı́ que como ⊢S ∃x(x ≈ t) para todo t (Ejercicio XI) entonces
∃x(x ≈ t) ∈ Σ (de lo contrario, por completud estarı́a la negación y se
deducirı́a una contradicción, contradiciendo la consistencia de Σ).
Ahora, si ∃x(x ≈ t) ∈ Σ, como Σ es cerrado bajo testigos, hay c ∈ τ(Σ)
tal que (c ≈ t) = (x ≈ t)xc ∈ Σ. Luego entonces (c, t) ∈ r y c ∈ t o bien c = t.

Sea α un enunciado de tipo τ(Σ). Demostraremos que:

α ∈ Σ ⇔ A |= α.

Demostración: Por inducción sobre la longitud n (número de sı́mbolos) del


enunciado.
HI. Supongamos que se cumple para cualquier β con menos de n sı́mbolos.
Sea α con n sı́mbolos. Hay cuatro casos: α atómica, α negación, α impli-
cación y α cuantificación universal.
1) α atómica.
i) α = (t1 ≈ t2 ).
164 [Apéndice] PRUEBA SINTÁCTICA DEL TEOREMA DE...

A |= α ⇔ A |= (t1 ≈ t2 )
⇔ (tA1 = tA2 ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Definición de satisfacción,
⇔ (t1 = t2 ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Sublema 3.1,
⇔ (t1 , t2 ) ∈ r . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Definición de t,
⇔ (t1 ≈ t2 ) ∈ Σ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Definición de r.
ii) α = P(t1 , . . . , tn )
A |= α ⇔ A |= P(t1 , . . . , tn )
⇔ htA1 , . . . , tAn i ∈ PA . . . . . . . . . . . . . . . . . . . . . . . . Definición de satisfacción,
⇔ ht1 , . . . , tn i ∈ PA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Sublema 3.1,
⇔ P(t1 , . . . , tn ) ∈ Σ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Definición de A.
2) α = ¬β
A |= α ⇔ A |= (¬β)
⇔ A 6|= β . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Definición de satisfacción,
⇔ β < Σ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . HI,
⇔ ¬β ∈ Σ . . . . . . . . . . . . . . . . . . ⇒) Porque Σ es completa (por hipótesis)
. . . . . . . . . . . . . . . . . . . . . . . . . ⇐) Porque Σ es s-consistente (por hipótesis).
3) α = (β → γ)
A |= α ⇔ A |= (β → γ)
⇔ A 6|= β o A |= γ . . . . . . . . . . . . . . . . . . . . . . . . . Definición de satisfacción,
⇔ β < Σ o γ ∈ Σ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . HI,
⇔ (β → γ) ∈ Σ.
⇒) Si β < Σ, entonces ¬β ∈ Σ pero ¬(β → γ) ⊢S β (XIIa) y Σ es consistente.
Por lo tanto (β → γ) ∈ Σ que es completo.
Si γ ∈ Σ como ¬(β → γ) ⊢S ¬γ (XII b) y Σ es s-consistente. Por lo tanto
(β → γ) ∈ Σ.
⇐) Si (β → γ) ∈ Σ, como β, ¬γ ⊢S ¬(β → γ) (XIII) y Σ es consistente entoncs
no sucede que β ∈ Σ y ¬γ ∈ Σ. Por lo tanto β < Σ o ¬γ < Σ. Por lo tanto
β < Σ o γ ∈ Σ, ya que Σ es completo.
4) α = (∀xβ)
Antes de demostrar este caso, haremos unas observaciones:
1. A |= ¬α ⇔ A 6|= α . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Def. satisfacción.
A.3 DEMOSTRACIÓN DE LA VERSIÓN A DEL... 165

2. A 6|= ¬β ⇔ A |= β . . . . . . . . . . . . . . . . Contrapuesta en el metalenguaje.


3. A |= ¬¬β ⇔ A |= β . . . . . . . . . . . . . . . . . . . . . . . . . . . De 1 (con α = ¬β) y 2.
4. A |= ∀xβ ⇔ A |= ∀x¬¬β . . . . . . . . . . . . . . . . . . . . . . Def. satisfacción y 3.
Ahora sı́, para α = ∀xβ tenemos:
A |= α ⇔ A |= (∀xβ)
⇔ A |= (∀x¬¬β) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Por 4.
⇔ A 6|= ¬(∀x¬¬β) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Por 2.
⇔ A 6|= (∃x¬β) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Abreviatura.
⇔ no hay t ∈ A, tal que A |= ¬β [(x/t)] para alguna s asignación.
⇔ no hay c ∈ A, tal que A |= ¬β [(x/c)] para alguna s asignación.
⇒) Inmediato pues toda constante es término.
⇐) Por Sublema 3.2, para todo t ∈ A hay c tal que c = t.
⇔ no hay c ∈ τ(Σ), tal que A |= (¬β)xc . . . . . . . . . . Por Teo. de Sust. pues
. . . . . . . . . . . . . . . . . A |= (¬β) [s(x/tA [s])] ↔ A |= (¬β)xt [s] con c = cA = tA .
⇔ no hay c ∈ τ(Σ), tal que (¬β)xc ∈ Σ . . . . . . . . . . . . . . . . . . . . Por HI, pues
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . long[(¬β)xc ] = long[¬β] < long[(∀xβ)],
⇔ (∃x¬β) < Σ . . . . . . . ⇒) Porque Σ es cerrado bajo testigos (hipótesis).
. . . . . . . . . . . . . . . . . . . . ⇐) Por que si (¬β)xc ∈ Σ para algún c ∈ τ(Σ), como
. . . . . . . . . . . . . . . . . . . . . . . (¬β)xc ⊢S (∃x¬β) (Ejercicio XIV) y Σ es completo
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . y consistente, entonces (∃x¬β) ∈ Σ).
⇔ (¬∃x¬β) ∈ Σ . . . . . . . . . . . . . . . . . . . . . . . . . . . . ⇒) Porque Σ es completo
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ⇐) Porque Σ es consistente.
⇔ (∀xβ) ∈ Σ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Por abreviatura.

Hemos demostrado que para todo enunciado α de tipo τ(Σ):

α ∈ Σ ⇔ A |= α.

Ası́ pues, A es modelo de Σ o sea Σ tiene un modelo que ha sido construido.


Además ya se vió que el cardinal del universo de A, |A|, cumple |A| ≤ |Σ|.

166 [Apéndice] PRUEBA SINTÁCTICA DEL TEOREMA DE...

Epı́logo
Si Σ es un conjunto de enunciados consistente entonces Σ tiene un modelo
de cardinal ≤ |Σ| + ℵ0 .
Demostración:
Sea Σ un conjunto consistente de enunciados. Por el Corolario de los lemas
1 y 2, hay Σ∗ tal que Σ ⊆ Σ∗ y Σ∗ es consistente, completo y cerrado bajo
testigos y además |Σ∗ | = |Σ| + ℵ0 . Por el Lema 3, Σ∗ tiene un modelo,
digamos A tal que es modelo de Σ ⊆ Σ∗ y el cardinal de su universo
|A| ≤ |Σ∗ | = |Σ| + ℵ0 . Como en general τ(Σ) , τ(Σ∗ ) y τ(Σ) ⊂ τ(Σ∗ ), podemos
tomar de la estructura A de tipo τ(Σ∗ ), el reducto de A a τ(Σ) ⊆ τ(Σ∗ ). Ası́,
A|τ(Σ) es un modelo de Σ, del tipo de Σ y de cardinal menor o igual que
|Σ| + ℵ0 .

Bibliografı́a

[Amor 1995] Axiomatizabilidad y completud en lógica de primer orden,


José Alfredo Amor, Vı́nculos Matemáticos No. 160, Facultad de Ciencias,
UNAM, (p. 1-18), 1995.

[Amor 1996] Análisis no-estándar, Vı́nculos Matemáticos No.214, José Al-


fredo Amor, Facultad de Ciencias UNAM (p.1-33), 1996.

[Amor 1997] Inducción y recursión, José Alfredo Amor, Revista Miscelánea


Matemática No.26, Sociedad Matemática Mexicana (pp.1-17), 1997.

[Amor 2001] Relaciones metalógicas entre compacidad y completud:


una prueba semántica de completud en lógica clásica, José Alfredo
Amor, tesis doctoral, UNAM, México, 2001.

[Amor 2003] A structural characterization of extended correctness-


completeness in classical logic, José Alfredo Amor, Crı́tica, Revista His-
panoamericana de Filosofı́a, Vol. 35, No. 103, p. 69-82, 2003.

[Amor 2004] Un refinamiento del concepto de sistema axiomático, José


Alfredo Amor, Signos Filosóficos. Vol. VI, Num.11, p.121-140, 2004.

[Amor 2005] Teorı́a de conjuntos para estudiantes de ciencias, libro de


texto, José Alfredo Amor, Coordinación de Servicios Editoriales, Facultad de
Ciencias, UNAM. 2a Edición ISBN: 970-32-2454-7, (p. 1-117), 2005.

[Barwise] Handbook of mathematical logic, Part A model theory, Jon


Barwise, North Holland, 1977.

[Bell & Slomson] Models and ultraproducts, John Bell & Alan Slomson,
North Holland, 1971.

167
168 Bibliografı́a

[Boolos] Logic, logic and logic, George Boolos, Harvard University Press,
1998.

[Bridge] Beginning model theory, Jane Bridge, Oxford University Press,


1977.

[Dawson a] Logical dilemmas, the life and work of Kurt Gödel, John W.
Dawson, A K Peters Ltd, 1997.

[Dawson b] The compactness of first order logic: from Gödel to Linds-


tröm, John W. Dawson, History and Philosophy of Logic, vol. 14 (no.1),
p.15-37, 1993.

[Enderton] A mathematical introduction to logic 2nd Ed. Herbert B. En-


derton, Academic Press, 2001.

[Enderton] Una introducción matemática a la lógica, 2a edición, Instituto


de Investigaciones Filosóficas, UNAM, 2004.

[Fagin, Halpern & Vardi] What is an inference rule?, Ronald Fagin, Joseph
Y. Halpern and Moshe Y. Vardi, The Journal of Symbolic Logic, Vol. 57, N.3,
p. 1018-1045, 1992.

[Feferman] Kurt Gödel collected works, Vol. I, Solomon Feferman Ed., Ox-
ford University Press, 1986.

[Gödel 1929] On the completeness of the calculus of logic, en Kurt Gödel


Collected Works, Vol.I, Oxford University Press, Ed. Solomon Feferman, p.
61-101, 1986.

[Gödel 1930 a] The completeness of the axioms of the functional calculus


of logic, en Kurt Gödel Collected Works, Vol.I, Oxford University Press,
Ed. Solomon Feferman, p. 103-123, 1986.

[Gödel 1930 b] La suficiencia de los axiomas del cálculo lógico funcional,


en Kurt Gödel Obras completas, Alianza Universidad, Ed. Jesús Mosterı́n,
p. 20-34, 1981.

[Gödel 1930 c] The completeness of the axioms of the functional calculus


of logic, Kurt Gödel, en From Frege to Gödel, a source book in mathematical
logic, 1879-1931, Harvard University Press, p. 582-591, 1967
Bibliografı́a 169

[Harary] Graph theory, Harary F., Addison Wesley, 1972.

[Heijenoort van] From Frege to Gödel, a source book in mathematical


logic, 1879-1931, Jean van Heijenoort, Harvard University Press, 1967.

[Heijenoort van] El desarrollo de la teorı́a de la cuantificación, Jean van


Heijenoort, Instituto de Investigaciones Filosóficas-UNAM, 1975.

[Henkin 1949] The completeness of the first-order functional calculus,


Leon Henkin, The Journal of Simbolic Logic, Vol.14, No.3, (p. 159-166),
1949.

[Hilbert & Ackermann 1928] Grundzüge der theoretischen logik, David


Hilbert & Wilhelm Ackermann, Berlin, Springer 1928. Traducción al
inglés: Principles of Mathematical Logic, Chelsea Pub. Co., 1950.

[Lindstrom] On extensions of elementary logic, Lindstrom P., Theory 35,


p. 1-11, 1969.

[Malcev] The metamathematics of algebraic systems: collected papers


1936-1967, Anatolii Ivanovic Malcev, North Holland, Amsterdam, 1971.

[Malitz] Introduction to mathematical logic, Part III. model theory, Jerome


Malitz, Springer-Verlag, 1979.

[Manzano] Teorı́a de modelos, Marı́a Manzano, Alianza Editorial, Madrid,


1989.

[Mendelson 1987] Introduction to mathematical logic, Third Edition,


Elliott Mendelson, Wadsworth & Brooks, California, 1987.

[Mosterı́n] Kurt Gödel. Obras Completas, Jesús Mosterı́n, Alianza Editorial,


Madrid, Ed. Jesús Mosterı́n, 1981.

[Robinson] Non standard análisis, Abraham Robinson, North Holland,1974.

[Tarski 1935] Der wahrheitsbegriff in den formalisierten sprachen, Stu-


dia Philos. (Warsaw) 1, 261-405. Traducción al inglés: Logic, Semantic
and Metamathematics, Oxford, p.152-278, 1956.

También podría gustarte

pFad - Phonifier reborn

Pfad - The Proxy pFad of © 2024 Garber Painting. All rights reserved.

Note: This service is not intended for secure transactions such as banking, social media, email, or purchasing. Use at your own risk. We assume no liability whatsoever for broken pages.


Alternative Proxies:

Alternative Proxy

pFad Proxy

pFad v3 Proxy

pFad v4 Proxy