Compacidad Lógica
Compacidad Lógica
Compacidad Lógica
COMPACIDAD EN LA LÓGICA DE
PRIMER ORDEN Y SU RELACIÓN
CON EL TEOREMA DE COMPLETUD
v
vi PREFACIO
valiosas sugerencias.
Para la presente segunda edición (corregida y aumentada) de este li-
bro, conté con los valiosos comentarios y sugerencias del Dr. David Meza
Alcántara a quien agradezco la cuidadosa revisión de una versión prelimi-
nar, lo que ayudo mucho a mejorar el nuevo texto.
En la elaboración en LATEX agradezco la colaboración de Héctor Miguel
Cejudo Camacho quien corrigió las erratas de la edición anterior y capturó
las muchas modificaciones, siendo las principales el complemento sobre
consecuencia lógica de Capı́tulo 1, ası́ como los importantes cambios rea-
lizados en el Capı́tulo 3 donde presento la prueba semántica del Teorema
de Correctud-Completud Extendido de Gödel.
Espero que este libro sea útil como texto para los cursos de lógica
matemática en las escuelas y facultades de ciencias y logre motivar a los
lectores a seguir avanzando en este tema.
José Alfredo Amor.
Contenido
Prefacio v
Introducción xi
ix
x CONTENIDO
xi
Capı́tulo 1
1.1 Antecedentes
1.1.1 Conceptos y resultados preliminares
Lenguajes de primer orden y su semántica
1
2 [Cap. 1.] EL TEOREMA DE COMPACIDAD PARA...
primer orden, para indicar que los predicados se aplican únicamente a in-
dividuos, y que la cuantificación es únicamente sobre individuos. Esto
permite distinguirlos de aquellos lenguajes en los que hay predicados que
tienen a otros predicados como argumentos o en los cuales, se permite
cuantificación sobre predicados o funciones, a éstos últimos se les deno-
mina lenguajes de orden superior.
v) ∃. cuantificador existencial.
Si x ∈ C, I(x) = xA ∈ A.
I es la función interpretación de A sobre el universo A.
Ejemplo:
Si ρ = {P2 , f1 , f2,1 , f2,2 , c0 }, donde P2 ∈ R2 ; f1 ∈ F1 ; f2,1 , f2,2 ∈ F2 y c0 ∈ C (una
constante). Entonces una interpretación posible para Lρ es:
B = hN, PB B B B B
2 , f1 , f2,1 , f2,2 , co i = hN, ≤, s, +, ·, 0i.
Observaciones:
1.- Dada la asignación S, S(i/a) denota la nueva asignación tal que
S , si n , i;
S(i/a)(n) = n
a , si n = i.
2.- [S(i/a)](j/b), se denota S(i/a, j/b).
3.- S(i/a, j/b) = S( j/b, i/a), si i , j.
4.- S(i/a, j/b) = S( j/b) = S(i/b), si i = j.
1.1 ANTECEDENTES 5
Observaciones:
1.- Con “sii”, abreviamos “si y sólo si”.
2.- Para decir que la asignación S no satisface a la fórmula α en la estructura
A, escribiremos:
A 6|= α[S].
Definición 1.12. (Verdad en una estructura)
A |= α.
|= α.
válidas.
tA [S] = tA [S′ ].
y
En otros textos de lógica matemática se define (α)t de modo diferente para
el caso existencial, ya que se pide que vi no aparezca en t. Esta petición
se conoce como: “x es libre para t en α” o como “(α)vt es admisible”. Con
nuestra definición cualquier sustitución es admisible y sin restricciones.
|= [(∀vi α) → (α)vt i ].
A. Leyes Clásicas
1.- α ↔ α . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Identidad
2.- ¬(α ∧ ¬α) . . . . . . . . . . . . . . . . . . . . . . . . . . . . No Contradicción
3.- α ∨ ¬α . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Tercero Excluido
B. Asociatividad y Conmutatividad
1.- (α ∧ β) ∧ γ ↔ α ∧ (β ∧ γ)
2.- (α ∨ β) ∨ γ ↔ α ∨ (β ∨ γ)
3.- ((α ↔ β) ↔ γ) ↔ (α ↔ (β ↔ γ))
4.- (α ∧ β) ↔ (β ∧ α)
5.- (α ∨ β) ↔ (β ∨ α)
6.- (α ↔ β) ↔ (β ↔ α)
C. Leyes de Negación
1.- ¬¬α ↔ α . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Doble Negación
2.- ¬(α ∨ β) ↔ (¬α ∧ ¬β) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ∗
3.- ¬(α ∧ β) ↔ (¬α ∨ ¬β) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ∗
4.- ¬(α → β) ↔ (α ∧ ¬β)
5.- ¬(α ↔ β) ↔ (α ∧ ¬β) ∨ (β ∧ ¬α)
∗
[De Morgan o Dualidad.]
D. Leyes de Simplificación
1.- α ∨ α ↔ α . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Idempotencia
2.- α ∧ α ↔ α . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Idempotencia
3.- α ∧ (α ∨ β) ↔ α . . . . . . . . . . . . . . . . . . . . . . . . . . . Eliminación
4.- α ∨ (α ∧ β) ↔ α . . . . . . . . . . . . . . . . . . . . . . . . . . . Eliminación
5.- α ∧ (β ∨ ¬β) ↔ α . . . . . . . . . . . . . . . . . . . . . . . . . . . . Absorción
6.- α ∧ (β ∧ ¬β) ↔ (β ∧ ¬β) . . . . . . . . . . . . . . . . . . . . . Absorción
7.- α ∨ (β ∧ ¬β) ↔ α . . . . . . . . . . . . . . . . . . . . . . . . . . . . Absorción
8.- α ∨ (β ∨ ¬β) ↔ (β ∨ ¬β) . . . . . . . . . . . . . . . . . . . . . Absorción
9.- (α ∨ β) ∧ (α ∨ ¬β) ↔ α . . . . . . . . . . . . . . . . . . Simplificación
10.- (α ∧ β) ∨ (α ∧ ¬β) ↔ α . . . . . . . . . . . . . . . . . Simplificación
E. Distributividad-Factorización
1.- α ∨ (β ∧ γ) ↔ (α ∨ β) ∧ (α ∨ γ)
2.- α ∧ (β ∨ γ) ↔ (α ∧ β) ∨ (α ∧ γ)
3.- [α → (β ∨ γ)] ↔ [(α → β) ∨ (α → γ)]
4.- [α → (β ∧ γ)] ↔ [(α → β) ∧ (α → γ)]
5.- [α ∨ (β → γ)] ↔ [(α ∨ β) → (α ∨ γ)]
6.- [α ∧ (β → γ)] → [(α ∧ β) → (α ∧ γ)]
1.1 ANTECEDENTES 13
F. Exportación-Importación
1.- [(α ∧ β) → γ] ↔ [α → (β → γ)]
2.- [α ∧ (β → γ)] → [(α ∧ β) → γ)]
3.- [α ∧ (α ∧ β → γ)] → [β → γ)]
4.- [α ∧ (β → γ)] → [β → (α ∧ γ)]
5.- [α ∨ (β → γ)] → [β → (α ∨ γ)]
G. Leyes de la Implicación
1.- (α → β) ↔ (¬α ∨ β)
2.- (α → β) ↔ ¬(α ∧ ¬β)
3.- (α → β) ↔ (¬β → ¬α) . . . . . . . . . . . . . . . . . . . . Contrapuesta
4.- [α → (β → γ)] ↔ [β → (α → γ)] . . . . . . . . . . . . . . . . . . . . . . . ∗
5.- α → (β → α) . . . . . . . . . . . . . . . Afirmación del antecedente
6.- (¬α → α) → α . . . . . . . . . . . . . . . . . . Consecuentia Mirabilis
7.- ¬α → (α → β) . . . . . . . . . . . . . . . . . . . Ley de Contradicción
8.- (α → β) ↔ (α → α ∧ β) . . . . . . . . . . . . . . . . . . . . . . Expansión
9.- (α → β) ↔ (α ∨ β → β) . . . . . . . . . . . . . . . . . . . . . . Expansión
∗
[Intercambio de premisas]
F. Con igualdad
1.- ∀x(x ≈ x)
2.- ∀x∀y(x ≈ y → y ≈ x)
3.- ∀x∀y∀z(x ≈ y ∧ y ≈ z → x ≈ z)
Si α(x/y) denota el resultado de sustituir y en lugar de x en α, en cero o
más lugares o todos los lugares. Entonces:
4.- ∀x∀y[x ≈ y → (α → α(x/y))] (Ley de Leibniz).
G. Paradoja de Russell
1.- ¬∃x∀y[α ↔ ¬(α)xy ]
2.- ¬∃x∀y[(α)xg(x) ↔ ¬(α)xg(y) ]
y y
3.- ¬∃x∀y[(α) g(y) ↔ ¬((α) g(y) )xy ]
Para aclarar más los tres ejemplos de universalmente válidas del tipo G.
Paradoja de Russell, daremos tres instancias particulares con α = P(x, y):
1.- ¬∃x∀y(P(x, y) ↔ ¬P(y, y))
2.- ¬∃x∀y(P(g(x), y) ↔ ¬P(g(y), y))
3.- ¬∃x∀y(P(x, g(y)) ↔ ¬P(y, g(y)))
1.1 ANTECEDENTES 17
a) Si Γ ⊆ Σ y Γ |= ϕ entonces Σ |= ϕ (Monotonı́a)
b) Si Σ |= ϕ y para todo α en Σ, Γ |= α, entonces Γ |= ϕ (Corte)
c) Σ, α |= β si y sólo si Σ |= (α → β)
d) Σ |= ϕ si y sólo si Σ ∪ {¬ϕ} no es satisfacible
e) Γ es satisfacible si y sólo si Γ 6|= ∃x(x , x)
f) Σ, α, (α → β) |= β
Ejercicios:
3. Probar lo siguiente:
a) γ1 , . . . , γn |= γ ⇔ |= [(γ1 ∧ . . . ∧ γn ) → γ].
b) γ1 , . . . , γn |= γ ⇔ |= (γ1 → (γ2 → . . . → (γn → γ)) . . .).
Definición 1.19. Sea A = hA, Ii, una ρ-estructura y sea B = hB, Ji una
ρ′ -estructura, donde I y J son funciones de interpretación. Decimos que A
es el reducto de B a ρ o bien que B es una expansión de A a ρ′ sii
i) ρ ⊆ ρ′
ii) A = B
iii) I = J|ρ (la función de interpretación I, es igual a la restricción de J al
tipo ρ).
Ejemplo:
Consideremos la siguiente estructura B = hN, <, +, ·, 0i, donde:
N = Conjunto de los números naturales.
<= (P2 )A , la relación menor,
+ = ( f2,1 )A , la función suma,
1.1 ANTECEDENTES 21
Ejemplos:
1.- Homomorfismo
A = hZ, +, ·i y B = hZ2 , ⊕.⊙i son homomorfas, donde: Z es el conjunto
de los enteros, Z2 el conjunto de los enteros módulo 2, los sı́mbolos +, ·
denotan las operaciones de suma y producto usuales, y ⊕, ⊙ se definen de
la siguiente manera:
22 [Cap. 1.] EL TEOREMA DE COMPACIDAD PARA...
⊕ 0 1 ⊙ 0 1
0 0 1 0 0 0
1 1 0 1 0 1
v) Si h es un isomorfismo, entonces
Demostración:
Veamos antes la necesidad de la hipótesis:
1.- Supongamos que α sı́ tiene cuantificadores, sea A = h1N, PA i, donde
1N = {n ∈ N : n es impar }, con PA = ∅ y B = hN, PB i, con PB = {n ∈ N :
n es par }. Es fácil ver que A ⊆ B, y por la Proposición (3), i : A → B es un
monomorfismo, sea α = (∃xP(x)), tendrı́amos que: A 6|= (∃xP(x)) [S], pero
B |= (∃xP(x)) [i ◦ S].
2.- Supongamos ahora que α sı́ tiene sı́mbolo ≈, sea A = hZ, +, ·i y sea
B = hZ2 , ⊕, ⊙i, donde Z2 = {0, 1}. Ahora bien sea α = ¬(v1 ≈ v2 ) y
definamos la siguiente función, h : Z → Z2 , tal que:
(
0, si z es par;
h(z) =
1, si z es impar.
Si t = c,
= f (t1 , . . . , tn )B [h ◦ S].
Paso inductivo para negación y disyunción de ii) a v). Para α, β
fórmulas, supongamos: A |= α [S] sii B |= α [h ◦ S],
A |= ¬α [S] sii A 6|= α [S] . . . . . . . . . . . . . . . . . . . . . . . . . def. de satisfacción,
sii B 6|= α [h ◦ S] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . por hipótesis inductiva,
sii B |= ¬α [h ◦ S] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . def. de satisfacción.
A |= (α ∨ β) [S]
sii A |= α [S] o A |= β [S] . . . . . . . . . . . . . . . . . . . . por def. de satisfacción,
sii B |= α [h ◦ S] o B |= β [h ◦ S] . . . . . . . . . . . . . por hipótesis inductiva,
sii B |= (α ∨ β) [h ◦ S] . . . . . . . . . . . . . . . . . . . . . . . por def. de satisfacción.
Ası́, para probar ii), solo resta demostrarlo para las atómicas sin igual-
dad:
A |= Pn (t1 , . . . , tn ) [S]
sii htA1 [S], . . . , tAn [S]i ∈ PAn . . . . . . . . . . . . . . por definición de satisfacción,
sii hh(tA1 [S]), . . . , h(tAn [S])i ∈ PB n . . . . . . . . . . . . . por ser h homomorfismo,
sii htB1
[h ◦ S], . . . , tB
n [h ◦ S]i ∈ PB n . . . . . . . . . . . . . . . . . . . . . . por la parte i),
sii B |= Pn (t1 , . . . , tn ) [h ◦ S] . . . . . . . . . . . . . . . . . . por def. de satisfacción.
Para probar iii), sólo resta demostrarlo para las atómicas con igualdad.
Supongamos que h es monomorfismo:
A |= (t1 ≈ t2 ) [S],
sii tA1 [S] = tA2 [S] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . por def. de satisfacción,
sii h(tA1 [S]) = h(tA2 [S]) . . . . . . . . . . . . . . . . . . por ser h función e inyectiva,
sii tB
1
[h ◦ S] = tB2
[h ◦ S] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . por la parte i),
sii B |= (t1 ≈ t2 ) [h ◦ S] . . . . . . . . . . . . . . . . . . . . por la def. de satisfacción.
Para probar el caso iv) y el v), sólo resta demostrar el caso de cuantifi-
cación, α = (∃vi β). Para iv) supongamos que β no tiene igualdad (≈), y que
la función h es epimorfismo, para el caso v) β es cualquier fórmula y h es
isomorfismo, entonces:
1.1 ANTECEDENTES 25
A |= (∃vi β) [S]
sii hay a ∈ A, tal que A |= β [S(i/a)], . . . . . . . . . . . . . . . def. de satisfacción,
sii hay a ∈ A, tal que B |= β [h ◦ (S(i/a))] . . . . . . . . . . . . por H.I. con S(i/a),
sii hay a ∈ A, tal que B |= β [(h ◦ S)(i/h(a))]
Obsérvese que h ◦ (S(i/a)) = (h ◦ S)(i/h(a)), pues
(
h(a), si j = i;
h ◦ (S(i/a)) j =
h(S j ), si j , i.
y, (
h(a), si j = i;
(h ◦ S)(i/h(a)) j =
h(S j ), si j , i.
sii hay b ∈ B, tal que B |= β [(h ◦ S)(i/b)]. . . . . . . . . . (⇒) con b = h(a) ∈ B,
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . (⇐) porque h es epimorfismo.
sii B |= (∃vi β) [h ◦ S] . . . . . . . . . . . . . . . . . . . . . . . . . por def. de satisfacción.
⋄
Demostración:
Supongamos que A B y sea σ un enunciado; por la parte v) del TH,
tenemos que A |= σ [S] sii B |= σ [h ◦ S]; ahora como σ es un enunciado
(no tiene variables libres), las sucesiones son irrelevantes (Proposición 1),
por lo que tendremos de hecho que A |= σ sii B |= σ o sea A ≡ B. ⋄
Demostración:
Sea i la función identidad (inclusión) de A en B, i : A → B; como A ⊆ B,
tenemos que i es un monomorfismo y por iii) del TH, tenemos que:
A |= α sii C |= α.
Demostración:
Demostración:
Sea λ > κ. Si λ es cardinal finito, sea B un conjunto ajeno con A, de cardinal
λ \ κ. Y si λ es infinito, sea B un conjunto de cardinal λ. Entonces E = B ∪ A
cumple las hipótesis del Corolario 4.3 de donde hay una estructura C con
universo E tal que: A es modelo de Σ sii C es modelo de Σ; por lo que C es
modelo de Σ y el cardinal de C es igual al cardinal de E que es λ. ⋄
Identidad y axiomatización
El siguiente corolario nos muestra un hecho interesante: supongamos que
la “igualdad”, la interpretamos como una relación binaria; ¿Serı́a entonces
posible, dar un conjunto de propiedades expresadas en Lρ (axiomas de
igualdad), de modo que si son verdaderas en esta interpretación, entonces
la interpretación de la igualdad sea necesariamente la identidad?
Esto no se puede hacer, es decir, la igualdad como identidad no es
definible axiomáticamente.
Demostración:
Supongamos que la identidad sı́ fuera axiomáticamente definible, y sean
P y Σ, tales que cumplen con la definición anterior. Considérese ahora el
enunciado siguiente:
n−1
^ n−1
_
∃v0 , ∃v1 , . . . , ∃vn−1 ( ¬P(vi , v j ) ∧ ∀w( P(w, vi ))),
i,j i=0
Ejemplo:
Dada A estructura, TeoA = {σ : σ enunciado y A |= σ} es completo. TeoA
se llama la Teorı́a de A.
Teorema de Compacidad
Sea Σ un conjunto de ρ-enunciados. Σ es finitamente satisfacible sii Σ es
satisfacible.
Recordemos que la idea de la demostración del Teorema de Compaci-
dad es la siguiente:
Partir de un conjunto de enunciados finitamente satisfacible, “completar y
cerrar bajo testigos” dicho conjunto, de modo que siga siendo finitamente
satisfacible; a continuación iterar los dos pasos anteriores hasta un mo-
mento en que obtengamos un conjunto finitamente satisfacible, completo
y cerrado bajo testigos, el cual veramos que es satisfacible construyéndole
un modelo.
Aunque la prueba que presentaremos en la siguiente sección está hecha
para enunciados, al final veremos que se puede generalizar a fórmulas.
Demostración:
a) ⇒ b). Supongamos que Σ es completo y finitamente satisfacible. Sea ∆
un conjunto de enunciados tal que Σ ⊆ ∆. Si Σ , ∆, sea φ ∈ ∆ \ Σ, entonces
¬φ ∈ Σ por lo que {φ, ¬φ} ⊆ ∆ y ∆ no pueden ser finitamente satisfacible.
b) ⇒ a). Supongamos que Σ es maximal finitamente satisfacible. Sea φ
tal que φ < Σ; entonces Σ , Σ ∪ {φ} y Σ ⊂ Σ ∪ {φ} de donde Σ ∪ {φ}
no es finitamente satisfacible. Como Σ es finitamente satisfacible, por el
Lema 0, Σ ∪ {¬φ} es finitamente satisfacible y como contiene a Σ, entonces
Σ = Σ ∪ {¬φ}, de donde ¬φ ∈ Σ y ası́ Σ es completo. ⋄
iii) Γ es completo.
iv) Γ es finitamente satisfacible.
Demostración: Usaremos el Lema de Zorn. Sea
A = {∆ : ∆ es un conjunto de enunciados de tipo τ(Σ), Σ ⊆ ∆ y
∆ es finitamente satisfacible }
Entonces hA, ⊆i es un conjunto parcialmente ordenado , ∅. La cadena
vacı́a tiene como cota a Σ ∈ A. Sea C una cadena , ∅ en hA, ⊆i; es decir
C ⊆ A tal que ShC, ⊆i es un conjunto
S totalmente ordenado. Es claro que
∀∆
S ∈ C, ∆ ⊆ C, por lo que C es una cota superior de C. Veamos que
C ∈ A. S
Debe S ser claro que C es un conjunto
S de enunciados de tipo τ(Σ) y
que Σ ⊆ C (puesSΣ ⊆ ∆, ∀∆ ∈ C). C es finitamente satisfacible pues S si
no, habrı́a un B ⊆ C, B finito y no satisfacible y si B = {α1 , . . . , αn } ⊆ C,
entonces ∀i = 1, . . . , n, αi ∈ ∆i ∈ C (para algún ∆i ) y como los ∆i están
totalmente ordenados por ⊆, hay un máximo S∆i0 tal que B ⊆ ∆i0 y entonces
∆i0 no es finitamente satisfacible!. Ası́ pues C ∈ A.
Ahora, por el Lema de Zorn, A tiene un elemento maximal respecto a la
relación ⊆, digamos Γ ∈ A. Entonces τ(Γ) = τ(Σ), Σ ⊆ Γ y Γ es finitamente
satisfacible maximal, de donde por el Corolario del Lema 0, Γ es completo
y finitamente satisfacible. ⋄
Demostración:
Demos primero el conjunto Ω; para ello definamos por recursión, sobre los
números naturales, los conjuntos Ωn , para n ∈ N, como sigue:
Ω0 = Σ.
Supongamos definido S Ωn , para n ≥ 0.
Para cada σ ∈ [Ωn \ m<n Ωm ], sea cσ una constante tal que:
y entonces
α ∈ Σ sii A |= α.
A |= α sii α ∈ Σ∗
Observación
Si bien el Teorema de Compacidad se ha probado para conjuntos de enun-
ciados, también es cierto para conjuntos de fórmulas, pues sustituyendo
las variables libres por constantes nuevas, se obtiene un conjunto de enun-
ciados que resulta equivalente respecto a satisfacibilidad.
En un modelo, las interpretaciones de las constantes añadidas propor-
cionan una instancia para las variables libres sustituidas por las constantes,
la cual satisface a las fórmulas en ese modelo.
Ejemplo:
La clase de intervalos abiertos {(0, 1), (0, 1/2), . . . , (0, 1/n), . . .} posee la pif,
pues (0, C1 )∩(0, C2 )∩. . .∩(0, Cn ) = (0, C∗ ), con Ci = 1/n para algún n ∈ N\{0}
y C∗ = min{C1 , . . . , Cn }.
Proposición 1.10. Un espacio topológico (X, τ) es compacto sii toda clase {cν }
de cerrados básicos de X que posee la propiedad de intersección finita, posee ella
misma una intersección no vacı́a.
Demostración:
⇒) Supongamos que (X, τ) es un espacio topológico compacto. Sea {cν } una
1.4 ¿POR QUÉ EL TEOREMA DE COMPACIDAD... 45
S \ [φ] = [¬φ].
∆ = Σ ∪ {¬(c ≈ d) : c, d ∈ C y c , d}.
A |= Σ y |A| ≥ ℵ0 .
49
50 [Cap. 2.] APLICACIONES DEL TEOREMA DE COMPACIDAD
Ejercicios:
1) Sea φ un enunciado de un lenguaje de primer orden. Pruebe que si φ es
verdadero en cualquier τ(φ)-estructura finita y φ es verdadero en cualquier
τ(φ)-estructura numerable, entonces φ es universalmente válido.
2) Sea φ un enunciado de un lenguaje de primer orden. Pruebe que si φ
es verdadero en cualquier τ(φ)-estructura finita y φ es verdadero en cual-
quier τ(φ)-estructura de cardinal fijo κ > ℵ0 , entonces φ es universalmente
2.2 EL PROBLEMA DE LOS CUATRO COLORES PARA... 51
válido.
3) Si Σ es un conjunto de enunciados que tiene un modelo de cualquier
cardinal finito, entonces Σ tiene un modelo infinito.
4) Si Σ es un conjunto de enunciados que tiene un modelo de cualquier
cardinal finito, entonces Σ tiene un modelo de cardinal mayor o igual que
cualquier cardinal fijo infinito.
Ejemplos:
a) Mapa 3-coloreable:
1
3
2 3
52 [Cap. 2.] APLICACIONES DEL TEOREMA DE COMPACIDAD
1
2 3
Demostración:
Sea M = (P, F) un mapa infinito, y consideremos el conjunto de colores:
C = {1, 2, 3, 4}. Para cada i ∈ C, sea Pi un sı́mbolo relacional (también
llamado letra predicativa) de aridad 1 y para cada a ∈ P, sea Ca , una
constante tal que, si a, b ∈ P y a , b, entonces Ca , Cb . (Una constante
distinta para cada paı́s).
Sea ρ = {P1 , P2 , P3 , P4 } ∪ {Ca : a ∈ P}, y sea Σ un conjunto de enunciados
de Lρ , definido como sigue:
2.2 EL PROBLEMA DE LOS CUATRO COLORES PARA... 53
Σ = {¬(Ca ≈ Cb ) : a, b ∈ P, a , b}
∪{P1 (Ca ) ∨ P2 (Ca ) ∨ P3 (Ca ) ∨ P4 (Ca ) : a ∈ P}
∪{¬(Pi (Ca ) ∧ P j (Ca )) : a ∈ P, i, j ∈ C, i , j}
∪{¬(Pi (Ca ) ∧ Pi (Cb )) : a, b ∈ P, (a, b) ∈ F, i ∈ C}.
Afirmamos que si Σ es satisfacible, entonces M = (P, F) es 4-coloreable.
Sea A = hA, PA1 , PA2 , PA3 , PA4 , {CAa }a∈P i una ρ-estructura, tal que A es modelo
de Σ. Asociemos a cada paı́s, un y sólo un elemento de A, mediante la
siguiente función inyectiva (esto lo hacemos para poder referirnos a los
paises en un lenguaje de primer orden):
h : P −→ A, h(a) = CAa .
x tiene un sólo color, ya que: A |= ¬(P j (Cx ) ∧ Pi (Cx )), para i, j ∈ C, con i , j.
ii) ∀x, y ∈ P, tales que (x, y) ∈ F, x tiene distinto color al de y. Sean x, y ∈ P,
con (x, y) ∈ F, por i) tenemos que: A |= Pi (Cx ), para algún i ∈ C, y como A es
modelo de Σ, entonces A |= ¬(Pi (Cx ) ∧ Pi (C y )), pues por hipótesis (x, y) ∈ F,
i ∈ C. Es decir, paises fronterizos tienen distintos colores.
Hemos visto que si Σ es satisfacible, entonces M = (P, F) es 4-coloreable.
Ası́, bastará ver que Σ es satisfacible, para tener la proposición. Para ello,
verifiquemos que Σ es finitamente satisfacible y apliquemos el Teorema de
Compacidad:
Sea Γ ⊆ Σ, finito y sea B = {x ∈ P : Cx ∈ τ(Γ)}; observemos que B es
finito, sea F′ = {(x, y) ∈ F : x, y ∈ B}. Ası́, M′ = (B, F′ ) es un mapa finito, de
hecho es una subestructura o submapa finito de M, que por hipótesis es
4-coloreable, es decir, hay una “4-coloración de M′ ”. Sea
B = hB, PB B B B B
1 , P2 , P3 , P4 , {Cx }x∈B i,
54 [Cap. 2.] APLICACIONES DEL TEOREMA DE COMPACIDAD
donde PB i
= {x ∈ B : x tiene el color i} y CB x = x. Afirmamos que B |= Γ,
pues:
i) Si ¬(Ca ≈ Cb ) ∈ Γ, entonces a , b, a, b ∈ B y CB B
a = a , b = Cb .
ii) Si (P1 (Cx ) ∨ P2 (Cx ) ∨ P3 (Cx ) ∨ P4 (Cx )) ∈ Γ, entonces como x ∈ B , x debe
tener un color, digamos i, entonces x ∈ PB i
, i ∈ C. Con lo que B |= Pi (Cx ),
para algún i ∈ C, y B |= (P1 (Cx ) ∨ P2 (Cx ) ∨ P3 (Cx ) ∨ P4 (Cx )).
iii) Si ¬(Pi (Cx ) ∧ P j (Cx )) ∈ Γ, con i, j ∈ C, i , j, entonces no es cierto que
x ∈ PB i
y x ∈ PBj , puesto que x tiene un sólo color, esto es,
Ejemplos:
1) (N, |), donde R = | denota la relación de divisibilidad sobre N, es un
copo, pues cumple i), ii), iii) y iv), pero como 3 6 | 8 y 8 6 | 3, (N, |) no es un
COTO.
2) Si en N definimos R , como la relación menor o igual: xRy sii x ≤ y,
entonces (N, R) cumple i) y ii) de la definición anterior y es un COTO: éste
es usualmente denotado como (N, ≤).
Antes de continuar, hay que verificar que R∗ , ası́ definido, es lo que quere-
mos, es decir, que:
i) R ⊆ R∗ .
Sea (a, b) ∈ R, es decir, aRb, con a, b ∈ A, entonces P(Ca , Cb ) ∈ Σ y entonces
B |= P(Ca , Cb ), ya que B es un modelo de Σ, pero por definición de R∗ , se
tiene que aR∗ b o (a, b) ∈ R∗ .
ii) (A, R∗ ) es un COTO.
Sea a ∈ A, entonces aRa, pues (A, R) es un COPO, entonces aR∗ a por i). Sean
a, b ∈ A tal que aR∗ b y bR∗ a, entonces
B |= P(Ca , Cb ) y B |= P(Cb , Ca ),
CB B
a = a , b = Cb
Definición 2.5. Decimos que (T, ≤), es un árbol sii (T, ≤) es un COPO tal
que:
i) Hay un único a0 ∈ T, tal que para todo b ∈ T, a0 ≤ b. (a0 es raiz del
árbol).
ii) Para todo a ∈ T, Pa = {y ∈ T : y ≤ a}, el conjunto de los predecesores de
a, es un conjunto bien ordenado, es decir, (Pa , ≤) es un COBO.
Nn = {x ∈ T : |Px | = n + 1},
ası́, N0 = {a0 }.
Ejemplos:
1) El conjunto de las sucesiones finitas de ceros y unos, parcialmente orde-
nado por extensión, es un árbol (árbol binario de Cantor).
2) No todo árbol de altura infinita, tiene un rama de longitud infinita: en
este ejemplo, toda rama tiene longitud de n < ℵ0 y para toda n < ℵ0 ,
Nn , ∅. Ver figura 2.1
60 [Cap. 2.] APLICACIONES DEL TEOREMA DE COMPACIDAD
0
110
10011
10
0
1 100
0110
11
00
11
0
00
11 00
11 00
11
00
110 10
1
11 00
00 11 00
11 10
0 10
101
0
1 1 00
0 11 1 1
0 00
11 1
000
11
1
0
00
11
0 11
1 00
00
11 0
1
0 11
1 00
00
11 0
0
1 0
1
01
1 0
01
10
01
1 0
0
1
11 00
00 11 01 01 00
11 1
0 10
0 100
11
1
0
1 00
0 1100
11 01 1
0 00
11 00
11 00
1100
110
0
11
1 0
0 0
1 100
11 0111
0011 0
00 1 0
1 0100
11
00
11
00
11
11 0
00 10
101
110
00 10
111 0
00 100
1100
11
1
000
11
1 0
0 1110
00 10
100
11
100
011110
00 00
11
1
00
1100
11
00
11
00
1100
11
00
11
00
11
10
0 1
110
00 11
00
11
00
100
11
11
00
1 00
0 11
10
0 00
11
100
11
001
00
11
11 0
0
1
Figura 2.1: Árbol de altura infinita con todas sus ramas finitas.
A |= P(Cn0 ) ∨ . . . ∨ P(Cnkn ),
Ası́, (B, ≤), es un árbol de altura finita k, y por el lema anterior, tiene una
rama R, de longitud k, la altura del árbol.
Afirmamos que B = hB, PB , (Cni )B i, donde PB = R, (Cni )B = ani , es un
modelo para Γ0 , pues:
i) Si ¬(Cni ≈ Cmj ) ∈ Γ0 , ani , amj , 0 ≤ i ≤ kn , 0 ≤ j ≤ km , entonces
Definición 2.11. Sea N = hN, <, +, S, ·, 0i; decimos que G es un modelo no-
estándar de la Aritmética de los Números Naturales, si G ≡ N, pero no es cierto
que G N. Es decir, son el mismo tipo y hacen verdaderos a los mismos
enunciados, pero no son isomorfos.
Teo(N) = {σ ∈ Lρ : N |= σ}.
Ejemplo:
Supóngase que se desea encontrar la pendiente m, de la tangente a la curva
f (x) = x2 , en el punto P = (x0 , y0 ). Tomando otro punto Q = (x0 +∆x, y0 +∆y)
y trazando la secante que une a P y Q, obtenemos la Figura 2.2.
de aquı́ que:
m = ∆y/∆x = 2x0 + ∆x.
Ası́ pues, para obtener una cada vez mejor aproximación a m, se deberı́a to-
mar ∆x , 0, y al mismo tiempo, ∆x tan pequeño que fuera despreciable. El
problema es que ningún real distinto de cero, es teóricamente despreciable!
2.6 REIVINDICACIÓN DE LOS INFINITESIMALES 65
f (x)
Q
∆y
y0 P ∆x
x0
r1 , r2 ⇒ Cr1 , Cr2 .
σ ∈ Teo(R) o ¬σ ∈ Teo(R).
M = R|τ(Γ0 ) |= σ.
Por lo tanto,
h(FRf (r1 , . . . , rm )) = FAf (h(r1 ), . . . , h(rm ))
sii CAf (r1 ,...,rm ) = FAf (CAr1 , . . . , CArm )
sii “C f (r1 ,...,rm ) ≈ F f (Cr1 , . . . , Crm )” es verdadero en A
sii “C f (r1 ,...,rm ) ≈ F f (Cr1 , . . . , Crm )” es verdadero en R
2.6 REIVINDICACIÓN DE LOS INFINITESIMALES 69
iv) h preserva elementos distinguidos, pues h(CRr ) = h(r) = CAr , por defi-
nición de h.
Tenemos pues, una copia isomórfica de R, dentro de A, cosa que era
lo que se esperaba, pero nuestro objetivo no es crear una estructura en
donde convivan los infinitesimales y objetos que se comportan como los
números reales, sino directamente extender los números reales al agregar
los números infinitesimales, es decir, crear un modelo de R, donde infini-
tesimales y reales pertenezcan al universo del modelo. Para ello, se puede
construir una estructura, que llamaremos ∗ R, isomórfica a A, tal que R sea
subestructura de ∗ R.
Consideremos el universo A de A, y cambiemos todo r ∈ R, de A \ h[R]
(si lo hay), por un objeto no número real y lo hacemos “jugar el mismo
papel” que r en la estructura A, ası́, obtendremos una estructura A′ , A′ A
(pueden ser la misma) y tal que:
(A′ \ h[R]) ∩ R = ∅.
r, si x = h(r), con r ∈ R;
g(x)
x, en otro caso.
UNIVERSOS
R A
α
h h[R]
−→
1-1
r h(r) = CAr
A′ ∗
R = g[A′ ]
b b
g
h[R] −→ R
1-1
r
ESTRUCTURAS
R h h[R] ⊆ A A′ g ∗ R ⊇ R.
⋄
Definimos ahora, la nueva estructura ∗ R, con un universo ∗ R, tal que:
∗
R = g[A′ ] y calcando la estructura de A′ , sobre ∗ R:
∗ ′
hx1 , . . . , xn i ∈ PRR sii hg−1 (x1 ), . . . , g−1 (xn )i ∈ PAR ,
′
FRf (x1 , . . . , xn ) = g[FAf (g−1 (x1 ), . . . , g−1 (xn ))],
′
C∗R A
r = g(Cr ) = r.
Observaciones:
1) Debemos recordar, que para toda relación R sobre R, denotamos con
∗ ∗
R = PRR (que es la interpretación del sı́mbolo PR en la estructura ∗ R); en
particular R, como relación 1-aria sobre R, ∗ R, será el universo o dominio
de ∗ R, pues el enunciado ∀xPR (x) es verdadero en R, de donde es verdadero
2.6 REIVINDICACIÓN DE LOS INFINITESIMALES 71
Ejemplos:
a) ∗ < es transitiva en ∗ R, pues < es transitiva en R y se expresa con:
h ∗ R, ∗
<, ∗ +, ∗ ·, 0, 1i
72 [Cap. 2.] APLICACIONES DEL TEOREMA DE COMPACIDAD
es un campo ordenado.
e) ∗ 1b ∈ ∗ R y es mayor que cualquier real:
Sea r ∈ R, si r ≤ 0, existe r0 ∈ R+ , tal que r < r0 , ahora como r0 ∈ R+ ,
entonces 0 ∗ < b ∗ < r10 , ya que b es positivo y menor que cualquier real
positivo, en particular es menor que r10 . Multipliquemos ahora por ∗ 1b (el
inverso multiplicativo de b , 0 que existe porque ∗ R es campo); entonces
1 ∗1
1∗< ·
r0 b
∗1
y ahora multiplicando por r0 obtenemos r < r0 ∗ < b
.
Corolario . ∗ R R.
Demostración:
Sabemos que un orden lineal es denso completo y separable, sii es isomorfo
a los reales con su orden, pero:
h ∗ R, ∗
<i
2.6 REIVINDICACIÓN DE LOS INFINITESIMALES 73
Notación
a) Fin = {x : x es finito }
b) inf = {x : x es infinitesimal }
c) Las letras i, j denotan infinitesimales.
d) Las letras K, L, M denotan infinitos.
e) Las letras r, t denotan estándar o reales.
Observaciones:
a) El único estándar infinitesimal es 0, o sea,
R ∩ inf = {0}.
Proposición 2.7.
a) Fin está cerrado bajo ∗ +, ∗ ·, ∗ −, es decir, Fin es un sub-anillo de ∗ R.
b) inf está cerrado bajo ∗ +, ∗ ·, ∗ − y productos finitos, es decir, inf es un ideal en
el anillo Fin.
Demostración:
a) Sean x, y ∈ Fin,
∗ ∗
|x| < a, |y| < b
para algún a, b ∈ R, entonces
∗
|x ± y| < ∗ |x| ∗ + ∗ |y| < a ∗ + b = a + b ∈ R
∗
|x ∗ · y| < a ∗ · b = a · b ∈ R
b) Sean i, j en inf, entonces
a a
∀a ∈ R+ (∗ |i| ∗ < ∧ ∗ |j| ∗ < ),
2 2
entonces
∗ a a
|i ± j| ∗ < + = a.
2 2
Sea i ∈ inf, z ∈ Fin, entonces ∗ |z| ∗ < a, para algún a ∈ R. Sea y ∈ R+ ,
entonces
∗
y y
|i| ∗ < ∧ ∗ |i · z| ∗ < · a = y.
a a
⋄
Proposición 2.8.
a) ≈ es una relación de equivalencia sobre ∗ R.
b) Si (u ≈ v), y (x ≈ y), entonces (u ∗ + x ≈ v ∗ + y) y (∗ −u ≈ ∗ − v).
c) Si x, y, u, v ∈ Fin, (u ≈ v) y (x ≈ y), entonces (u ∗ · x ≈ v ∗ · y).
Demostración:
a) Porque 0 ∈ inf y Proposición 2.7 b).
b) (u + x) − (v + y) = (u − v) + (x − y) ∈ inf, por la Proposición 2.7 b).
2.6 REIVINDICACIÓN DE LOS INFINITESIMALES 75
Obsérvese que si r, s ∈ R;
r ≈ s sii r = s,
Demostración:
Sea x finito, ∃!r ∈ R tal que x ≈ r, entonces x − r = i, para algún i ∈ inf. Ası́,
x = r + i. ⋄
función St , como:
i) St [inf] = {0}, St [R] = R.
ii) ∀r ∈ R(r ≈ x ↔ r = St (x)), siempre que x sea finito.
iii) St (x + y) = St (x) + St (y), usando la Proposición 2.8 b).
iv) St (x · y) = St (x) · St (y), usando la Proposición 2.8 c).
v) St (1/x) = 1/St (x), si x <inf.
Capı́tulo 3
77
78 [Cap. 3] EL TEOREMA DE COMPLETUD DE GÖDEL Y SU...
Observaciones:
1) Ser lógicamente equivalentes es una relación binaria, de equivalencia
sobre las fórmulas del lenguaje Lρ , es decir
i) |= (α ↔ α).
ii) Si |= (α ↔ β), entonces |= (β ↔ α).
iii) Si |= (α ↔ β) y |= (β ↔ γ), entonces |= (α ↔ γ).
2) Generalmente por comodidad de notación, |= (α ↔ γ), lo denotaremos
como α ≡ γ.
3) α ≡ β sii α implica lógicamente a β, y β implica lógicamente a α. Es decir
α ≡ β sii |= (α → β) y |= (β → α).
4) La afirmación: “ |= (α → β)” es estrictamente más fuerte que la afir-
mación: “si |= α, entonces |= β”.
Demostración:
Supongamos |= (α → β). Supongamos |= α. Entonces por el criterio
de verdad de la implicación, |= β. Ahora, si 6|= α, entonces la segunda
afirmación es cierta, pero puede haber una estructura A, tal que A |= α y
A 6|= β con lo que no se cumplirı́a |= (α → β).
⋄
Q1 v1 . . . Qn vn φ,
donde φ es una fórmula sin cuantificadores y para i ∈ {1, . . . , n}, Qi ∈ {∀, ∃}.
A φ se le llama la matriz de la forma prenex.
Ejemplo:
A |= ¬α [s] sii A 6|= α [s] sii A 6|= α′ [s] sii A |= ¬α′ [s].
80 [Cap. 3] EL TEOREMA DE COMPLETUD DE GÖDEL Y SU...
Ası́ pues, para toda A y toda s, A |= ¬α [s] sii A |= ¬α′ [s], por lo que
|= (¬α ↔ ¬α′ ), es decir, (¬α) ≡ (¬α′ ).
b) Supongamos α ≡ α′ y β ≡ β′ . Sean A y s cualesquiera, entonces
A |= (α ∨ β) [s] sii A |= α [s] o A |= β [s]
sii A |= α ′ [s] o A |= β ′ [s]
sii A |= (α ′ ∨ β ′ ) [s].
Ası́, (α ∨ β) ≡ (α′ ∨ β ′ ).
c) Supongamos que α ≡ α′ , y sean A y s cualesquiera, entonces:
A |= (∃xα) [s] sii hay a ∈ A tal que A |= α [s(x/a)]
sii hay a ∈ A tal que A |= α ′ [s(x/a)]
sii A |= (∃xα ′ ) [s].
⋄
φ −→ φ′
ψ ψ′
Si φ ≡ φ ′ , entonces ψ ≡ ψ ′ .
Demostración: Por inducción sobre la formación de fórmulas.
Supongamos que φ ≡ φ ′ . Si ψ no tiene a φ como subfórmula, no hay nada
que demostrar, pues ψ = ψ ′ . Supongamos pues que φ sı́ aparece como
subfórmula en ψ.
Si φ = ψ, entonces ψ ′ = φ ′ , por lo que ya por hipótesis tenemos que
ψ ≡ ψ ′ . Supondremos pues que φ , ψ y que φ sı́ aparece en ψ como
subfórmula.
Si ψ es atómica, entonces φ = ψ y ψ ′ = φ ′ de donde por hipótesis
tendremos que ψ ≡ ψ ′ , como el caso anterior.
Si ψ = (¬α), entonces ψ ′ = ¬(α ′ ), donde α ′ denota el resultado de
sustituir φ ′ en lugar de una o más presencias de la subfórmula φ en la
3.1. TEOREMAS DE EQUIVALENCIA Y FORMAS... 81
ψ = (∃xα) ≡ (∃xα ′ ) = ψ ′ .
Lema 3.3. Sean t un término, φ una fórmula y u una variable que no aparece en
t ni en φ. Sean t∗ y φ∗ el resultado de sustituir u en lugar de todas las presencias
de la variable v en t y φ respectivamente. Entonces, para toda A y toda s ∈ N A:
i) tA [s] = t∗ A [s(u/s(v))],
ii) A |= φ [s] sii A |= φ∗ [s(u/s(v))]
Demostración:
Supongamos que v aparece en t y en φ, si no, no hay qué demostrar, pues
t = t∗ y φ = φ∗ .
i) Por inducción sobre la formación de términos: si t = v, entonces t∗ = u,
y tenemos que:
φ = (¬α) ≡ ¬(Q1 v1 . . . Qn vn α ′ )
y sea
∃, si Qi = ∀,
′
Qi =
∀, si Qi = ∃.
Entonces, usando que
¬(Q1 v1 . . . Qn vn α ′ ) ≡ Q1 ′ v1 . . . Qn ′ vn ¬α ′
φ = (α ∨ β) ≡ (Q1 v1 . . . Qn vn α ′ ) ∨ (T1 w1 . . . Tk wk β ′ ).
Ahora, por el Lema 3.4, podemos suponer, sin pérdida de generalidad, que
todos los vi (i = 1, . . . , n) son distintos de las w j (j = 1, . . . , k), pues todas
ellas son variables cuantificadas. Ahora, usando que si x no aparece libre
en β y y no aparece libre en α, entonces
(∀xα ∨ β) ≡ ∀x(α ∨ β)
(α ∨ ∀yβ) ≡ ∀y(α ∨ β)
3.2. SKOLEMIZACIÓN. TEOREMAS DE SKOLEM Y... 85
(∃xα ∨ β) ≡ ∃x(α ∨ β)
(α ∨ ∃yβ) ≡ ∃y(α ∨ β)
y usando también el Lema 3.2 de la sustitución de fórmulas equivalentes,
tenemos la siguiente equivalencia lógica:
(Q1 v1 . . . Qn vn α ′ ) ∨ (T1 w1 . . . Tk wk β ′ ) ≡ Q1 v1 . . . Qn vn T1 w1 . . . Tk wk (α ′ ∨ β ′ )
y usando la transitividad de ≡, obtenemos lo buscado, pues la última
fórmula claramente es prenex. Es fácil ver, aplicando la definición de
(α ∧ β) como ¬(¬α ∨ ¬β), que el comportamiento de ∧ es análogo.
Si φ = (∃xα), por H.I. tenemos que: α ≡ (Q1 v1 . . . Qn vn α ′ ), y por el Lema
3.1 c):
φ = (∃xα) ≡ (∃xQ1 v1 . . . Qn vn α ′ )
y esta última es claramente prenex.
⋄
Daremos ahora un nuevo ejemplo de cómo encontrar la forma normal
prenex de una fórmula dada φ, FNP(φ):
φ = ∀x(¬∃yP(y, x) → ∃yP(x, y) ∧ ∀z¬P(y, z) ∧ P(z, c))
φ ≡ ∀x(∃yP(y, x) ∨ (∃yP(x, y) ∧ ∀z¬P(y, z) ∧ P(z, c)))
φ ≡ ∀x(∃wP(w, x) ∨ (∃uP(x, u) ∧ ∀v¬P(y, v) ∧ P(z, c)))
Cambiando w en lugar de y en las primeras presencias, cambiando u
en lugar de y en las siguientes dos presencias y cambiando v en lugar de
las primeras dos presencias de z, por los lemas 3.4 y 3.2.
La razón para hacer las sustituciones anteriores, es que las variables y
y z aparecen libres en la fórmula original.
φ ≡ FNP(φ) = ∀x∃w∃u∀v(P(w, x) ∨ (P(x, u) ∧ ¬P(y, v) ∧ P(z, c)))
Sacamos los cuantificadores, o “prenexamos” al principio de la fórmula
con paréntesis exterior, cada uno de los cuantificadores ∃w, ∃u, ∀v, por las
equivalencias lógicas usadas en el teorema anterior. Nótese que el orden
en que se saquen cada uno de estos tres cuantificadores, es arbitrario,
pudiéndose haber obtenido:
φ ≡ ∀x∃u∀v∃w(P(w, x) ∨ (P(x, u) ∧ ¬P(y, v) ∧ P(z, c))).
Es decir, la FNP(φ) no es única, aunque se podrı́an fijar criterios para
obtenerla de un modo único.
86 [Cap. 3] EL TEOREMA DE COMPLETUD DE GÖDEL Y SU...
Definición 3.3.
1) La fórmula,
∀u1 . . . ∀un φ( f (u1 , . . . , un , w1 , . . . , wk ), u1 , . . . , un , w1 , . . . , wk ) (∗)
es un paso de Skolemización de ψ, si ψ es una fórmula de la forma:
Definición 3.4. Sea ψ una fórmula cualquiera. Sea φ una fórmula en forma
normal prenex tal que ψ ≡ φ, es decir, FNP(ψ) = φ, y sea φ1 , . . . , φn una
sucesión de fórmulas tal que φ1 = φ, φn es una fórmula universal pura
(es decir, una fórmula que sólo tiene cuantificadores universales o no tiene
cuantificadores) y φi+1 es un paso de Skolemización de φi (i = 1, . . . , n − 1).
Entonces, decimos que φn es una forma normal de Skolem para satisfacción de
ψ; lo que abreviamos como FSS(ψ).
Ejemplo:
ψ = ∀x(¬∃yP(y, x) → ∃yP(x, y) ∧ ∀z¬P(y, z) ∧ P(z, c))
ψ ≡ FNP(ψ) = ∀x∃w∃u∀v(P(w, x) ∨ (P(x, u) ∧ ¬P(y, v) ∧ P(z, c))).
Primer paso de Skolemización:
∀x∃u∀v(P( f (x, y, z), x) ∨ (P(x, u) ∧ ¬P(y, v) ∧ P(z, c)))
Segundo paso de Skolemización:
∀x∀v(P( f (x, y, z), x) ∨ (P(x, g(x, y, z)) ∧ ¬P(y, v) ∧ P(z, c))).
Esta última fórmula es FSS(ψ).
Demostración:
88 [Cap. 3] EL TEOREMA DE COMPLETUD DE GÖDEL Y SU...
Xa = {d ∈ A : A |= β[a,d] } ⊆ A
un elemento de Xa , si Xa , ∅,
B
f(a) =
un elemento de A, si Xa = ∅.
Si n + k = 0, definimos
un elemento de X0 , si X0 , ∅,
B
c =
un elemento de A, si X0 = ∅.
donde X0 = {d ∈ A : A |= β [d]}, para el caso n + k = 0.
Definimos ahora la siguiente expansión:
(
hA, f B i, si n + k > 0 y τ(B) = τ(A) ∪ { f },
B=
hA, cB i, si n + k = 0 y τ(B) = τ(A) ∪ {c}.
Esto sucede porque FNP(φ) ≡ φ y por el Lema 3.1 a), tenemos que
¬ FNP(φ) ≡ ¬φ, pero también ¬φ ≡ FNP(¬φ) y por transitividad de ≡,
3.2. SKOLEMIZACIÓN. TEOREMAS DE SKOLEM Y... 91
Ejemplo: Sea
A |= (ψ → FSV(ψ)) [s].
Ejemplo:
ψ = ∃y∀xP(x, y) ∧ ¬∃z∀x∀yQ(z, x, f (y))
ψ ≡ ∃v∀wP(w, v) ∧ ∀z∃x∃y¬Q(z, x, f (y))
ψ ≡ FNP(ψ) = ∃v∀z∃x∃y∀w(P(w, v) ∧ ¬Q(z, x, f (y)))
1o SK= ∀z∃x∃y∀w(P(w, c) ∧ ¬Q(z, x, f (y)))
2o SK= ∀z∃y∀w(P(w, c) ∧ ¬Q(z, g(z), f (y)))
3o SK= ∀z∀w(P(w, c) ∧ ¬Q(z, g(z), f (h(z))))
FSS(ψ) = ∀z∀w(P(w, c) ∧ ¬Q(z, g(z), f (h(z))))
FNP(¬ψ) = ∀v∃z∀x∀y∃w(¬P(w, v) ∨ Q(z, x, f (y)))
1o SK= ∀v∀x∀y∃w(¬P(w, v) ∨ Q(g1 (v), x, f (y)))
2o SK= ∀v∀x∀y(¬P(g2 (v, x, y), v) ∨ Q(g1 (v), x, f (y)))
FNP(¬ FSS(¬ψ)) = ∃v∃x∃y(P(g2 (v, x, y), v) ∧ ¬Q(g1 (v), x, f (y)))
FSV(ψ) = ∃v∃x∃y(P(g2 (v, x, y), v) ∧ ¬Q(g1 (v), x, f (y))).
Teorema de Herbrand
Ejemplo:
Si φ(x, y) = P(x, c) ∨ ¬Q(y, f (x)), entonces τ(φ) = {P, Q, f, c}. Los términos
94 [Cap. 3] EL TEOREMA DE COMPLETUD DE GÖDEL Y SU...
sin variables del tipo τ(φ), son por ejemplo: c, f (c), f ( f (c)), etc. Ası́, algunas
instancias cerradas de sustitución de φ(x, y) son:
P(c, c) ∨ ¬Q(c, f (c)),
P(c, c) ∨ ¬Q( f (c), f (c)),
P( f (c), c) ∨ ¬Q(c, f ( f (c))),
P( f (c), c) ∨ ¬Q( f (c), f ( f (c))), etc.
Lema 3.6. Sea A una estructura. Supongamos que hay una constante en el tipo de
A, τ(A). Sea B = {tA : t es un término sin variables de tipo τ(A)}. Entonces
B es el universo de una subestructura de A.
Demostración:
Es claro que B ⊆ A. Definimos la estructura B sobre B, como la restricción
de A a B; ası́ pues, f B = f A |B , PB = PA ∩Bn y cB = cA , para cada f, P, c ∈ τ(A),
y definimos ahora B:
B = hB, PB , f B , cB i,
para cada P, f, c ∈ τ(A). Lo único que es necesario verificar para que
B ⊆ A, es que la funciones f B sean cerradas sobre B; veamos pues que
para cualquier b1 , . . . , bn ∈ B y fn ∈ τ(A), f B (b1 , . . . , bn ) = f A (b1 , . . . , bn ) ∈ B.
Pero, si b1 , . . . , bn ∈ B, entonces para todo i, bi = tAi para algún ti término sin
variables de tipo incluido en τ(A), ası́,
6|= (φ1 ∨ . . . ∨ φk ).
Como A |= ¬φi (ti1 , . . . , tin ) para ti1 , . . . , tin cualesquiera de tipo incluido en
τ(A), y como φ es una fórmula sin cuantificadores, por el Corolario 1.6.2
del Teorema del Homomorfismo (Capı́tulo 1), tenemos que: A |= (¬φi ) sii
B |= (¬φi ) para toda (¬φi ) ∈ Σ, entonces B es modelo de Σ por lo que,
B |= (¬φi ) para toda (¬φi ) ∈ Σ y B |= (¬φi )(ti1 , . . . , tin ) para todos ti1 , . . . , tin
términos. Ahora bien:
B |= (¬φi )(ti1 , . . . , tin ) sii B |= (¬φi )[tB
i1
, . . . , tB
in
] para todo ti j ,
por el Teorema de Sustitución
sii B |= (¬φi )[b1 , . . . , bn ] para todo b1 , . . . , bn ∈ B, pues b j = tB
ij
= tAi j ,
sii B |= (∀v1 . . . ∀vn ¬φ),
sii B |= ¬(∃v1 . . . ∃vn φ),
sii B 6|= (∃v1 . . . ∃vn φ).
Por lo que 6|= (∃v1 . . . ∃vn φ), con lo que termina la demostración.
⋄
Ejemplo:
Sea ψ = ∃y∃w(¬P(c, y) ∨ P(w, f (y))), ¿|= ψ? τ(ψ) = {P, f, c}.
Ejemplos de términos sin variables del tipo de φ = (¬P(c, y) ∨ P(w, f (y))),
son c, f (c), f ( f (c)), etc.
Instancias de sustitución de φ son:
φ1 = (¬P(c, c) ∨ P(c, f (c)))
φ2 = (¬P(c, c) ∨ P( f (c), f (c)))
φ3 = (¬P(c, f (c)) ∨ P(c, f ( f (c))))
¿|= φ1 ? No:
hN, ≥, sucesor, 3i 6|= ¬P(c, c) ∨ P(c, f (c))
3.2. SKOLEMIZACIÓN. TEOREMAS DE SKOLEM Y... 97
hN, {(3, 3)}, sucesor, 3i 6|= (¬P(c, c) ∨ P(c, f (c))) ∨ (¬P(c, c) ∨ P( f (c), f (c))))
Demostración:
Sean γ1 , . . . , γm , γ fórmulas cualesquiera. Entonces:
a) γ1 , . . . , γm |= γ sii |= (γ1 ∧ . . . ∧ γm → γ) . . . . . . . Por criterios de verdad,
sii |= ∀(γ1 ∧ . . . ∧ γm → γ) . . . . . . . . . . Pues para toda φ, |= φ ⇔|= ∀φ,
sii |= FSV(∀(γ1 ∧ . . . ∧ γm → γ)) . . . . . . . . . Por Teo. Skolem 2a forma.
sii |= (∃x1 . . . ∃xn α) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Donde
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . (∃x1 . . . ∃xn α) = FSV(∀(γ1 ∧ . . . ∧ γm → γ)
sii hay una sucesión α1 , . . . , αk de instancias de α, tal que
|= (α1 ∨ . . . ∨ αk ) . . . . . . . . . . . . . . . . . . . . . . . . Por el Teorema de Herbrand.
b) γ1 , . . . , γm |= γ sii |= (γ1 ∧ . . . ∧ γm → γ) . . . . . . . . Por criterio de verdad
sii (γ1 ∧ . . . ∧ γm ∧ ¬γ) es no satisfacible . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Pues |= φ ⇔ ¬φ es no satisfacible
sii ∃(γ1 ∧ . . . ∧ γm ∧ ¬γ) es no satisfacible . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . Pues φ es satisfacible sii ∃φ es satisfacible
sii FSS(∃(γ1 ∧ . . . ∧ γm ∧ ¬γ) es no satisfacible . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Por el Teorema de Skolem 1a forma.
sii (∀x1 . . . ∀xn β) es no satisfacible . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . Donde (∀x1 . . . ∀xn β) = FSS(∃(γ1 ∧ . . . ∧ γm ∧ ¬γ)
sii hay una sucesión β1 , . . . βk de instancias de β, tal que (β1 ∧ . . . ∧ βk )
es no satisfacible . . . . . . . . . . . . . . . . . Por el Teorema de Herbrand, 2a forma.
⋄
Aplicaciones
Ejemplo:
Si σ = P(c, f (d)) ∨ Q(g(d), f (c)), entonces
Demostración:
Demostración:
Si t = c, cA = cB . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . por definición de B,
si t = f (t1 , . . . , tn ), tB = f B (tB
1
, . . . , tB B A A
n ) = f (t1 , . . . , tn ) . . . . . . . . . . . . . . . . . . . . .
sii B |= P(t1 , . . . , tn ).
3) φ = (¬α) y φ = (α ∨ β), es directo.
⋄
cB = γ(cA )
Si b1 , . . . , bn ∈ B, f B (b1 , . . . , bn ) = γ( f A (γ−1 (b1 ), . . . , γ−1 (bn ))).
Si b1 , . . . , bm ∈ B, hb1 , . . . , bm i ∈ PB sii hγ−1 (b1 ), . . . , γ−1 (bn )i ∈ PA .
⋄
donde m = |Tσ |.
⋄
Ejemplo:
Cosideremos el tipo ρ = {P, g}, donde P es un predicado de aridad 2 y g es
un sı́mbolo de función de aridad 1. Considérese la pregunta:
si y sólo si
Proposición 3.1. Toda regla de inferencia muy buena es buena y toda regla de
inferencia buena es regular y no inversamente.
108 [Cap. 3] EL TEOREMA DE COMPLETUD DE GÖDEL Y SU...
Notación
Si Σ = Γ ∪ {β}, entonces Γ ∪ {β} ⊢S α se abreviará:
Γ, β ⊢S α.
En caso de que Σ = ∅, ∅ ⊢S α se abreviará:
⊢S α
y en este caso diremos que α es un teorema formal de S y a la deducción
formal de α a partir del conjunto φ, le llamaremos una prueba formal de
α en el sistema S, la cual obviamente será una sucesión finita de fórmulas
α1 , . . . , αn con αn = α y para cada i ∈ {1, . . . , n}, o αi ∈ ∆ (αi es un axioma de
S) o αi es consecuencia de fórmulas anteriores de la sucesión en virtud de
alguna regla de inferencia de S, la cual puede tener o no restricciones.
Si α ⊢S β y β ⊢S ϕ entonces α ⊢S ϕ
2. Σ ⊢S (α → β) suposición
4. Σ, α, (α → β) ⊢S β de (1), con Γ = Σ
2. Γ, α, (α → β) ⊢S (α → β) reflexividad y monotonı́a
S
3. Γ, α, (α → β), α ⊢S β de (1) y (2) con Σ = Γ {α, (α → β)}
4. Γ, α, (α → β) ⊢S β quitando la repetición de α
Ası́, por (4), S satisface MP. ⋄
Si Σ, α ⊢S β entonces Σ ⊢S (α → β)
Es decir, el sistema S satisface el Metateorema de la Deducción, si en
caso de que en S se derive un enunciado β a partir de α (posiblemente junto
con otro conjunto de enunciados Σ) entonces en S se deriva el enunciado
“(α → β)” (posiblemente junto con Σ, pero ya sin α).
Ejercicios:
1. Demuestre las propiedades sintácticas básicas a) y b).
2. Demuestre las propiedades sintácticas de reflexividad y transitivi-
dad.
3. Demuestre el Lema de Finitud.
4. Demuestre la equivalencia de las dos formas del lema de finitud.
5. Suponiendo que un sistema formal S satisface Modus Ponens y sa-
tisface el Metateorema de la Deducción, demuestre que:
⊢S α → ((α → β) → β).
Si Σ |= α entonces Σ ⊢S α
Si ⊢S α entonces |= α
Si |= α entonces ⊢S α.
1. Γ, α, (α → β) |= β propiedades semánticas6
2. Γ, α, (α → β) ⊢S β completud extendida de S
1. Σ |= α suposición
6. Σ ⊢S α propiedad sintáctica9 y γ1 , . . . γn ⊆ Σ
6
Recordar que con propiedades semánticas nos referimos a propiedades elementales de
las definiciones de verdad y de consecuencia lógica de la sección 1.1.2 del primer capı́tulo.
En este caso por la propiedad semántica f).
7
S
Recordar el Teorema de Compacidad (Segunda forma): Si Σ {ϕ} es un conjunto
de fórmulas de un lenguaje de primer orden con igualdad y Σ |= ϕ, entonces hay un
subconjunto finito Γ ⊆ Σ, tal que Γ |= ϕ.
8
Aplicando n veces la propiedad semántica c).
9
Propiedad sintáctica a) monotonı́a.
3.4. RESULTADOS METALÓGICOS 117
1. Γ, α ⊢S β suposición
10
Cf. [Malitz] página 188.
118 [Cap. 3] EL TEOREMA DE COMPLETUD DE GÖDEL Y SU...
2. Γ, α |= β correctud extendida
3. Γ |= (α → β) propiedades semánticas11
5. γ1 , . . . , γn ⊢S (α → β) completud extendida en S
1. Σ ⊢S α suposición
5. γ1 , . . . , γn |= α propiedad semántica14
Σ |= α si y sólo si Σ ⊢S α
siguiente manera:25 “Puede hacerse una distinción entre dos tipos de teo-
rema de completud que pueden probarse acerca de sistemas lógicos: entre
teoremas de completud débil y fuerte. Un teorema de completud débil
muestra que una fórmula es demostrable si es válida; un teorema fuerte,
que una fórmula es demostrable a partir de un conjunto de fórmulas si es
una consecuencia lógica del conjunto”.
El Teorema de Correctud y Completud Extendido de Gödel asegura la
existencia de un sistema axiomático que satisface tanto la correctud como
la completud extendidas. La primera prueba de este teorema fundamental
fue publicada por Gödel en 1930. Nosotros daremos una prueba semántica
de nuestra primera formulación.
El Teorema de Compacidad por otro lado, es un teorema puramente
semántico, también probado por Gödel en el mismo artı́culo de 1930, que
asegura para cualquier conjunto infinito de fórmulas Σ, que si para cada
subconjunto finito hay un modelo, entonces hay un modelo de todo el con-
junto infinito Σ.26 Recordar que un modelo para un conjunto de fórmulas,
es una interpretación para el lenguaje respecto a la cual todas las fórmulas
del conjunto son verdaderas.
Ejercicios:
1. Probar la equivalencia de las formulaciones 1 y 2 del Teorema de
Correctud-Completud Extendido.
2. Probar las dos formas del Teorema de Compacidad (enunciadas en
la sección 1.1.2 del primer capı́tulo), usando las dos formulaciones
dadas del Teorema de Correctud-Completud Extendido.
Teorema de Skolem
Para cualquier fórmula ϕ:
|= ϕ si y sólo si |=FSV(ϕ)
El Teorema de Herbrand (1a Forma) por otro lado, asegura que una
fórmula existencial pura, con matriz digamos ψ, es lógicamente válida si y
sólo si hay una sucesión de instancias cerradas de ψ tal que la disyunción de
ellas es lógicamente válida34 . Recordar que una instancia de una fórmula
ψ es cerrada si no tiene variables; en otras palabras, si todas las variables
en ψ se sustituyen por términos sin variables.
Teorema de Herbrand
34
Véase el Teorema 3.4 de la sección 3.2 de este capı́tulo.
126 [Cap. 3] EL TEOREMA DE COMPLETUD DE GÖDEL Y SU...
SK: FSV(∀ϕ)/∀ϕ
IU: ∀ϕ/ϕ
1. (ψ1 ∨ . . . ∨ ψn ) Axioma de MA
4. ϕ Regla IU a 3.
El sistema axiomático MA
Definimos ahora con todo rigor el sistema axiomático MA para un len-
guaje de primer orden y con base en todo lo anterior vemos que cumple
lo propuesto. Primero expandimos el lenguaje con un número infinito nu-
merable de nuevas constantes y un número infinito numerable de nuevos
sı́mbolos de función para cada aridad n ≥ 1.
3.5. Prueba semántica del Teo. de Correctud-Completud Extendido 131
i)AXIOMAS DE MA
ii)REGLAS DE INFERENCIA DE MA
FSV(ϕ)/ϕ
∀ϕ/ϕ
α, (α → β)/β
iii)DEFINICIÓN DE DERIVACIÓN EN MA
4. ∃x∀yPxy Hipótesis
5. ∀y∃xPxy MP a 4, 3
S
Demostración: Sea ϕ1 , . . . , ϕn (ϕn = β) una derivación de β a partir de Σ {α}
en MA. Demostraremos por inducción matemática sobre n, que para toda
i ≤ n, se cumple Σ ⊢MA (α → ϕi ).
Para el caso i = n, tendremos el resultado buscado.
Supongamos el resultado para toda j < i ≤ n: Hipótesis Inductiva (HI).
Para ϕi hay siete casos posibles: ϕi es un axioma de MA, ϕi ∈ Σ, ϕi = α,
ϕi es consecuencia por HB, ϕi es consecuencia por MP, ϕi es consecuencia
por IU, ϕi es consecuencia por SK.
Caso 1. Si ϕi es un axioma de MA, entonces ϕi es lógicamente válida.
Entonces también (α → ϕi ) es lógicamente válida y por completud res-
tringida (Lema 3.7) ⊢MA (α → ϕi ) y de aquı́ por la propiedad sintáctica de
monotonı́a tenemos que Σ ⊢MA (α → ϕi ).
Caso 2. Si ϕi ∈ Σ (hipótesis de Σ) entonces la fórmula [ϕi → (α → ϕi )] es
lógicamente válida y por completud restringida (Lema 3.7) ⊢MA [ϕi → (α →
ϕi )]. Ahora como el sistema tiene MP y sabemos que esto es equivalente
al inverso del MTD, entonces se satisface ϕi ⊢MA (α → ϕi ). De aquı́ como
ϕi ∈ Σ, por la propiedad sintáctica de monotonı́a, Σ ⊢MA (α → ϕi ).
Caso 3. Si ϕi = α, entonces (α → α) es lógicamente válida y por
completud restringida (Lema 3.7) ⊢MA (α → α). Pero ϕi = α, entonces
⊢MA (α → ϕi ) y por monotonı́a Σ ⊢MA (α → ϕi ).
Caso 4. Si ϕi es consecuencia por HB de alguna fórmula ϕ j con j < i
entonces ϕi = (∃x1 . . . ∃xk ψ) donde ψ es una fórmula sin cuantificadores,
x1 , . . . , xk son todas las variables de ψ, y ϕ j = (ψ1 ∨ . . . ∨ ψn ) donde cada
ψr (1 ≤ r ≤ n) es una instancia cerrada de sustitución de ψ. Como j < i,
por HI tenemos que Σ ⊢MA (α → ϕ j ), es decir tenemos que Σ ⊢MA (α →
(ψ1 ∨ . . . ∨ ψn )) (#1)
Es un resultado semántico fácil de ver que la fórmula [(ψ1 ∨ . . . ∨
ψn ) → (∃x1 . . . ∃xk ψ)] es lógicamente válida, es decir, |= [(ψ1 ∨ . . . ∨ ψn ) →
134 [Cap. 3] EL TEOREMA DE COMPLETUD DE GÖDEL Y SU...
(A → B) → [(B → C) → (A → C)]
Σ ⊢MA (α → ϕi ) (•)
(α → ∀ϕi ) → [(∀ϕi → ϕi ) → (α → ϕi )]
(A → B) → [(B → C) → (A → C)]
Σ ⊢MA [(∀ϕi → ϕi ) → (α → ϕi )]
Σ ⊢MA (α → ϕi ).
que ⊢MA ϕi y como también ⊢MA [ϕi → (α → ϕi )]41 , por MP tenemos que
⊢MA (α → ϕi ) y por monotonı́a Σ ⊢MA (α → ϕi ).
Esto concluye la prueba por inducción matemática del Metateorema de
la Deducción para el sistema MA. ⋄
Σ ⊢MA ϕ si y sólo si Σ |= ϕ
42
Sin variables libres y sin cuantificadores.
43
Que no es una regla de inferencia “buena” en el sentido definido en la sección 3.3 de
este capı́tulo.
138 [Cap. 3] EL TEOREMA DE COMPLETUD DE GÖDEL Y SU...
Definición
1) El tipo de Σ, τ(Σ) = {s : s es sı́mbolo no lógico de Lρ y s aparece en
alguna fórmula de Σ}
Observación: τ(φ) denota τ({φ}).
2) Σ es de tipo ρ sii τ(Σ) ⊆ ρ.
3) Σ es completo sii para cualquier fórmula α: α ∈ Σ o (¬α) ∈ Σ.
4) Σ es s-consistente sii no hay fórmula β tal que Σ ⊢S β y Σ ⊢S (¬β).
5) Σ es maximal s-consistente sii Σ es s-consistente y para cualquier ∆
conjunto s-consistente de fórmulas, si Σ ⊆ ∆, entonces Σ = ∆.
6) Σ es cerrado bajo testigos sii para toda fórmula (∃xα) ∈ Σ, hay una
constante c ∈ τ(Σ) tal que (α)xc ∈ Σ.
139
140 [Apéndice] PRUEBA SINTÁCTICA DEL TEOREMA DE...
Teorema (versión A)
Hay un sistema formal S tal que:
i) Para todo α, β enunciados, α, (α → β) ⊢S β. (MP en S).
ii) Para todo β, γ enunciados, ⊢S (β → (¬β → γ)). (Contradicción implica
trivialidad, en S).
iii) Para todo α enunciado, ⊢S (¬α → α) → α
iv) Para todo Γ ∪ {α, β} conjunto de enunciados,
Si Γ, α ⊢S β entonces Γ ⊢S (α → β).
(MTD en S).
v) Para cualquier Σ conjunto de enunciados:
Teorema (versión B)
Hay un sistema formal S tal que, para cualquier Γ ∪ {α} conjunto de
enunciados,
Γ |= α ⇔ Γ ⊢S α.
Equivalencia de A y B
Demostración: (A ⇒ B)
Supongamos A. Sea S el sistema formal dado por A. Sea Γ∪{α} un conjunto
de enunciados.
Observación:
Para ⇐), no se usó que el sistema cumpla i), ii), iii), iv).
Demostración: (B ⇒ A)
Supongamos B. Sea S el sistema dado por B. Sea Σ un conjunto de enun-
ciados. Es fácil ver que:
i’) Para todo α, β enunciados, α, (α → β) |= β.
ii’) Para todo β, γ enunciados, |= (β → (¬β → γ)).
iii’) Para todo α enunciado, |= (¬α → α) → α
iv’) Para todo Γ ∪ {α, β} conjunto de enunciados,
Si Γ, α |= β entonces Γ |= (α → β).
Entonces usando B, se tiene inmediatamente que S cumple i), ii), iii), iv).
Observación:
Para i), ii), iii), sólo se usa B⇒). Para iv) se usa B⇔).
α, (α → β) ⊢S β.
Demostración:
1. α . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Hipótesis.
2. (α → β) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Hipótesis.
3. β . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Modus Ponens 1,2.
⊢S (α → α)
A.1 TEOREMA DE CORRECTUD-COMPLETUD PARA Lρ 143
Demostración:
1. (α → ((α → α) → α)) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Ax 1.
2. [(α → ((α → α) → α))] → [(α → (α → α)) → (α → α)] . . . . . . . . . . . . . Ax 2.
3. (α → (α → α)) → (α → α) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . MP 1,2.
4. (α → (α → α)) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Ax 1.
5. (α → α) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . MP 4,3.
Si Γ, α ⊢S β entonces Γ ⊢S (α → β).
Demostración:
Sea φ1 , . . . , φn = β una deducción de β a partir de Γ ∪ {α}. Demostraremos
por inducción sobre n, que para toda i ≤ n, Γ ⊢S (α → φi ) y para el caso i = n
tenemos el resultado. Supongámoslo para todo j < i ≤ n, HI (Hipótesis
Inductiva). Para φi , hay cinco casos:
Caso 1
Si φi ∈ Γ (hipótesis de Γ) entonces:
1. φi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Hip.
2. φi → (α → φi ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Ax1.
3. α → φi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . MP 1,2.
Por lo tanto, Γ ⊢S (α → φi ).
Caso 2
Si φi = α (la hipótesis α) entonces, por el Meteteorema 2 con α = φi :
⊢S (α → φi )
y por lo tanto Γ ⊢S (α → φi ).
Caso 3
Si φi es una axioma, entonces:
1. φi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Axioma.
2. φi → (α → φi ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Ax1.
3. α → φi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . MP 1,2.
Ası́, ⊢S (α → φi ) y Γ ⊢S (α → φi ).
144 [Apéndice] PRUEBA SINTÁCTICA DEL TEOREMA DE...
Caso 4
Si φi es MP de φ j y de φk = (φ j → φi ) con j, k < i, por HI tenemos:
Γ ⊢S (α → φ j ) (∗) y Γ ⊢S (α → (φ j → φi )) (∗∗)
Γ ⊢S (α → φ j ) (∗ ∗ ∗)
∆ ⊢S β y ∆ ⊢S ¬β.
φ1 , . . . , φn ⊢S β.
Observación:
Como veremos en seguida se cumple:
⊢S (β → (¬β → γ)).
(α → β)
(¬β → ¬α).
A.2 PRERREQUISITOS SINTÁCTICOS 147
Si Σ, α ⊢S β, entonces Σ, ¬β ⊢S ¬α.
Demostración:
Suponemos que Σ, α ⊢S β, entonces (por el MTD) se tiene que Σ ⊢S (α → β),
y como ⊢S (α → β) → (¬β → ¬α), entonces (por MP), Σ ⊢S (¬β → ¬α).
Por lo tanto, Σ, ¬β ⊢S ¬α.
b) Sean t1 y t2 términos,
1. (t1 ≈ t2 ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .Hip.
2. ∀x∀y(x ≈ y → (x ≈ x → y ≈ x)) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Ax 7.
3. ∀y(t1 ≈ y → (t1 ≈ t1 → y ≈ t1 )) . . . . . . . . . . . . . . . . . . . . . . . . INST 2 (x/t1 ).
4. (t1 ≈ t2 → (t1 ≈ t1 → t2 ≈ t1 )) . . . . . . . . . . . . . . . . . . . . . . . . . . INST 3 (y/t2 ).
5. (t1 ≈ t1 → t2 ≈ t1 ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . MP 1,4.
6. t1 ≈ t1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . TEO X (a).
7. t2 ≈ t1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . MP 6,5.
Por lo tanto (t1 ≈ t2 ) ⊢S (t2 ≈ t1 ).
c) Sean t1 , t2 , t3 , términos,
1. t1 ≈ t2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Hip.
2. t2 ≈ t3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Hip.
3. ∀x∀y[x ≈ y → (t1 ≈ x → t1 ≈ y)] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Ax 7.
4. ∀y[t2 ≈ y → (t1 ≈ t2 → t1 ≈ y)] . . . . . . . . . . . . . . . . . . . . . . . . INST 3 (x/t2 ).
5. (t2 ≈ t3 ) → ((t1 ≈ t2 ) → (t1 ≈ t3 )) . . . . . . . . . . . . . . . . . . . . . . . INST 4 (y/t3 ).
6. (t1 ≈ t2 ) → (t1 ≈ t3 ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . MP 2,5.
7. (t1 ≈ t3 ). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .MP 1,6.
Por lo tanto (t1 ≈ t2 ), (t2 ≈ t3 ) ⊢S (t1 ≈ t3 ).
XI. Ejercicio: Para todo término t:
⊢S ∃x(x ≈ t).
XII. Ejercicio:
a) ¬(β → γ) ⊢S β
b) ¬(β → γ) ⊢S ¬γ.
A.2 PRERREQUISITOS SINTÁCTICOS 151
a)
1. ¬(β → γ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Hip.
2. (¬β → (β → γ)) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . TEO I’.
3. ¬(β → γ) → (¬β → ¬(β → γ)) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Ax 1.
4. ¬β → ¬(β → γ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . MP 1,3.
5. [¬β → ¬(β → γ)] → [(¬β → (β → γ)) → β] . . . . . . . . . . . . . . . . . . . . Ax 3.
6. (¬β → (β → γ)) → β . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . MP 4,5.
7. β . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . MP 2,6.
b)
1. ¬(β → γ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Hip.
2. ¬(β → γ) → (¬¬γ → ¬(β → γ)) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Ax 1.
3. ¬¬γ → ¬(β → γ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . MP 1,2.
4. γ → (β → γ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Ax 1.
5. ¬¬γ → γ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . TEO III.
6. ¬¬γ → (β → γ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . TRANS 5,4.
7. [¬¬γ → ¬(β → γ)] → [(¬¬γ → (β → γ)) → ¬γ] . . . . . . . . . . . . . . . Ax 3.
8. (¬¬γ → (β → γ)) → ¬γ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . MP 3,7.
9. ¬γ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . MP 6,8.
XIII. Ejercicio: β, ¬γ ⊢S ¬(β → γ)
1. β . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Hip.
2. ¬γ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Hip.
3. (¬¬(β → γ) → ¬γ) → [(¬¬(β → γ) → γ) → ¬(β → γ)] . . . . . . . . Ax 3.
4. ¬γ → (¬¬(β → γ) → ¬γ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Ax 1.
5. ¬¬(β → γ) → ¬γ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . MP 2,4.
6. ¬¬(β → γ) → (β → γ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . TEO III.
7. (β → γ) → (β → γ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . MTEO 2.
8. β → [(β → γ) → γ] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . INT. PREM. 7.
9. (β → γ) → γ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . MP 1,8.
10. ¬¬(β → γ) → γ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . TRANS 6,9.
11. (¬¬(β → γ) → γ) → ¬(β → γ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . MP 5,3.
12. ¬(β → γ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . MP 10,11.
XIV. Ejercicio: Para toda fórmula β, x variable y c constante,
(β)xc ⊢S (∃xβ)
152 [Apéndice] PRUEBA SINTÁCTICA DEL TEOREMA DE...
1. (β)xc . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .Hip.
2. ∀x¬β → (¬β)xc . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Ax 4.
3. ¬¬(β)xc → ¬∀x¬β . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . CONTRAP 2.
4. (β)xc → ¬¬(β)xc . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . TEO V.
5. (β)xc → ¬∀x¬β . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . TRANS 4,3.
6. ¬∀x¬β . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . MP 1,5.
7. ∃xβ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Abreviatura de 6.
Γ ⊢S α ⇒ Γ |= α
Demostración:
Supongamos que Γ ⊢S α. Sea γ1 , . . . , γn = α tal deducción. Demostraremos
por inducción sobre n, que ∀k ≤ n, Γ |= γk . Sea k ≤ n.
Supongamos que: ∀i < k, Γ |= γi (HI). Demostrémoslo para k. Sabemos
que: γk es enunciado de Γ o axioma de S o MP de anteriores o GEN de
anteriores con la restricción.
Si γk es enunciado de Γ (hipótesis), entonces trivialmente Γ |= γk .
Si γk es axioma, entonces ya que todos los axiomas de S son universal-
mente válidos (ejercicio), entonces |= γk de donde Γ |= γk .
Si γk es MP de γ j y γr = (γ j → γk ), con j, r < k, entonces por HI, Γ |= γ j
y Γ |= γr . Entonces es inmediato que Γ |= γk .
A.3 DEMOSTRACIÓN DE LA VERSIÓN A DEL... 153
Σ ⊢S β y Σ ⊢S ¬β.
Σ |= β y Σ |= ¬β,
Observación:
Para la demostración de “⇒” del Teorema de Completud (versión A): para
cualquier Σ, si Σ es s-consistente entonces Σ tiene modelo, necesitaremos
varios Lemas: Lema 0, Lema 1, Lema 2 y Lema 3. Usaremos el Lema de
Zorn para demostrar el Lema 1. El Lema 0 se usará el la demostración
del Lema 1. Usaremos “consistente” en vez de “s-consistente” ya que el
sistema S está fijo.
Σ ∪ {φ} ⊢S ¬φ y Σ ∪ {¬φ} ⊢S φ.
154 [Apéndice] PRUEBA SINTÁCTICA DEL TEOREMA DE...
Por IV:
⊢S (φ → ¬φ) → ¬φ
y por II:
⊢S (¬φ → φ) → φ
entonces por MP,
Σ ⊢S ¬φ y Σ ⊢S φ !
Ası́ pues, si Σ es consistente entonces Σ ∪ {φ} es consistente o Σ ∪ {¬φ} es
consistente.
⋄
Observación:
El inverso del Lema anterior es cierto y fácilmente demostrable a partir de
las definiciones de consistencia y deducción.
Demostración:
a) ⇒ b) Sea Σ completo y consistente. Sea ∆ un conjunto de enunciados tal
que Σ ⊆ ∆. Si Σ , ∆, sea φ ∈ ∆ \ Σ entonces como Σ es completo, ¬φ ∈ Σ.
Por lo tanto {φ, ¬φ} ⊆ ∆ y ∆ es inconsistente pues
∆ ⊢S φ y ∆ ⊢S ¬φ.
y
(∃xα)∗ = (α)xc(∃xα) , (∃xα)
y
(∃xα)∗ = (α)xc(∃xα) ∈ Ωn0 +1 ⊆ Ω
y
c(∃xα) ∈ τ(Ωn0 +1 ) ⊆ τ(Ω).
iii) Supongamos que Σ es infinito. Es decir |Σ| ≥ ℵ0 . Es fácil ver que
∀n ∈ N, |Ωn | = |Σ|, por inducción sobre N pues Ω0 = Σ y si |Ωn | = |Σ|
entonces como Ωn+1 es Ωn unido con un conjunto de cardinal a lo más |Σ|,
entonces |Ωn+1 | ≤ |Σ| + |Σ| = |Σ| y como Σ ⊆ Ωn+1 , entonces |Σ| ≤ |Ωn+1 |. Ası́
pues |Ωn+1 | = |Σ|. Ahora bien,
[
|Ω| = | Ωn | = ℵ0 · |Ωn | = ℵ0 · |Σ| = |Σ|.
n∈N
S
iv) Para ver que Ω = n∈N Ωn es s-consistente, bastará ver que cada uno
de los Ωn es s-consistente, por inducción:
n = 0) Ω0 = Σ es s-consistente por hipótesis.
Supongamos que Ωn es s-consistente (HI).
n + 1) Ωn+1 = Ωn ∪ {σ∗ : σ∗ , σ y σ ∈ Ωn \ m<n Ωm }. Si Ωn+1 es s-
S
inconsistente, hay un ∆ ⊆ Ωn+1 , ∆ finito tal que ∆ es s-inconsistente (Lema
de Finitud), y además es de la forma
entonces:
Σ0 ⊢S β y Σ0 ⊢S ¬β
pues si c1 , . . . , cr no aparecen en β, tampoco aparecen en ¬β. De aquı́, como
Σ0 ⊆ Ωn , Σ0 finito y Σ0 s-inconsistente, entonces Ωn es s-inconsistente!
Ası́ pues, si Ωn es s-consistente, entonces Ωn+1 es s-consistente. Hemos
demostrado
S pues que ∀n ∈ N, Ωn es s-consistente, lo cual implica que
Ω = n∈N Ωn es s-consistente, pues si Ω fuese s-inconsistente, entonces
(por el Lema de Finitud) habrı́a un ∆0 ⊆ Ω, ∆0 finito, s-inconsistente y
entonces habrı́a un n ∈ N tal que ∆0 ⊆ Ωn y tal que Ωn serı́a s-inconsistente
contra lo que acabamos de demostrar. ⋄
variable y, que no aparece en φ, tal que Γ ⊢S ∀y(φ)cy . Más aun, hay una deducción
de ∀y(φ)cy a partir de Γ, en la cual c no aparece.
Demostración:
Sea α1 , . . . , αn una deducción de φ a partir de Γ, en S. Entonces αn = φ. Sea
y la primera variable (según la enumeración de las variables x0 , x1 , x2 , . . .)
tal que no aparece en ninguna de las fórmulas αi .
Afirmamos que: (α1 )cy , . . . , (αn )cy (∗) es una deducción de (φ)cy a partir de
Γ. Obsérvese que (αn )cy = (φ)cy . Debemos verificar que cada (αi )cy cumpla: o
estar en Γ o ser axioma de S o ser MP de anteriores o ser GEN de anterior.
Por casos, sobre las αi :
Caso 1) αi ∈ Γ. Entonces c no aparece en αi (pues c no aparece en Γ). Por lo
tanto, (αi )cy = αi ∈ Γ.
Caso 2) αi es axioma de S. Entonces obsérvese que (αi )cy es también axioma
de S, ya que la nueva variable y no aparece en αi , e introducir una nueva
variable, transforma un axioma en otro axioma, (del mismo esquema). Si
c no aparece en αi entonces (αi )cy = αi .
Caso 3) αi es MP de α j y αk = (α j → αi ) con j, k < i. Entonces (αk )cy =
((α j )cy → (αi )cy ). Por lo tanto, (αi )cy se obtiene por MP de (α j )cy y (αk )cy .
Caso 4) αi es GEN de α j con j < i y αi = (∀xα j ). Entonces (αi )cy = (∀xα j )cy =
∀x(α j )cy es GEN de (α j )cy con la variable x, que claramente es distinta a y,
pues y no aparece en αi . Ahora como x no es libre en fórmulas β ∈ Γ tales
que α j dependa de ellas y (α j )cy depende de las correspondientes (β)cy en las
cuales x no es libre (pues x no libre en esas β y x , y), entonces la restricción
al aplicar GEN se cumple.
Sea ∆ el subconjunto finito de Γ, usado en (∗). Entonces hemos mostrado
que (∗) es una deducción de (φ)cy a partir de ∆ y y no aparece en ∆; ası́
pues, podemos aplicar ahora, GEN con la variable y a la fórmula (φ)cy y
obtenemos que
∆ ⊢S ∀y(φ)cy .
Más aún, esta deducción de ∀y(φ)cy es una deducción en la cual c no aparece
en absoluto. Ahora bien, como ∆ ⊆ Γ, tenemos que
Γ ⊢S ∀y(φ)cy .
⋄
A.3 DEMOSTRACIÓN DE LA VERSIÓN A DEL... 159
Γ, ∃xα ⊢S β.
Demostración:
Como Γ, (α)xc ⊢S β por contraposición (Ejercicio VIII)
Γ, ¬β ⊢S ¬(α)xc ,
Γ, ¬β ⊢S (¬α)xc
Γ, ¬∀x¬α ⊢S ¬¬β
160 [Apéndice] PRUEBA SINTÁCTICA DEL TEOREMA DE...
Observaciones:
1) ∀n ∈ N, Σn ⊆ Σn+1 . Por la propiedad i) de los Lemas 1 y 2 y τ(Σn ) ⊆
τ(Σn+1 ) ⊆ τ(Σ∗ ). Es obvio que:
[
i) Σ = Σ0 ⊆ Σn = Σ ∗
n∈N
|Σ∗ | ≥ max{|Σ|, ℵ0 }.
(t1 , . . . , tn ) ∈ PA ⇔ P(t1 , . . . , tn ) ∈ Σ.
f A (t1 , . . . , tm ) = f (t1 , . . . , tm ).
α ∈ Σ ⇔ A |= α.
A.3 DEMOSTRACIÓN DE LA VERSIÓN A DEL... 163
Sublema 3.2. Para todo t ∈ A, hay c ∈ τ(Σ) tal que t = c (es decir, hay c ∈ τ(Σ)
tal que c ∈ t).
Demostración:
Para todo t ∈ A′ , sucede que (t ≈ t) ∈ Σ por ser Σ completo y s-consistente.
De aquı́ que como ⊢S ∃x(x ≈ t) para todo t (Ejercicio XI) entonces
∃x(x ≈ t) ∈ Σ (de lo contrario, por completud estarı́a la negación y se
deducirı́a una contradicción, contradiciendo la consistencia de Σ).
Ahora, si ∃x(x ≈ t) ∈ Σ, como Σ es cerrado bajo testigos, hay c ∈ τ(Σ)
tal que (c ≈ t) = (x ≈ t)xc ∈ Σ. Luego entonces (c, t) ∈ r y c ∈ t o bien c = t.
⋄
α ∈ Σ ⇔ A |= α.
A |= α ⇔ A |= (t1 ≈ t2 )
⇔ (tA1 = tA2 ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Definición de satisfacción,
⇔ (t1 = t2 ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Sublema 3.1,
⇔ (t1 , t2 ) ∈ r . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Definición de t,
⇔ (t1 ≈ t2 ) ∈ Σ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Definición de r.
ii) α = P(t1 , . . . , tn )
A |= α ⇔ A |= P(t1 , . . . , tn )
⇔ htA1 , . . . , tAn i ∈ PA . . . . . . . . . . . . . . . . . . . . . . . . Definición de satisfacción,
⇔ ht1 , . . . , tn i ∈ PA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Sublema 3.1,
⇔ P(t1 , . . . , tn ) ∈ Σ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Definición de A.
2) α = ¬β
A |= α ⇔ A |= (¬β)
⇔ A 6|= β . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Definición de satisfacción,
⇔ β < Σ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . HI,
⇔ ¬β ∈ Σ . . . . . . . . . . . . . . . . . . ⇒) Porque Σ es completa (por hipótesis)
. . . . . . . . . . . . . . . . . . . . . . . . . ⇐) Porque Σ es s-consistente (por hipótesis).
3) α = (β → γ)
A |= α ⇔ A |= (β → γ)
⇔ A 6|= β o A |= γ . . . . . . . . . . . . . . . . . . . . . . . . . Definición de satisfacción,
⇔ β < Σ o γ ∈ Σ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . HI,
⇔ (β → γ) ∈ Σ.
⇒) Si β < Σ, entonces ¬β ∈ Σ pero ¬(β → γ) ⊢S β (XIIa) y Σ es consistente.
Por lo tanto (β → γ) ∈ Σ que es completo.
Si γ ∈ Σ como ¬(β → γ) ⊢S ¬γ (XII b) y Σ es s-consistente. Por lo tanto
(β → γ) ∈ Σ.
⇐) Si (β → γ) ∈ Σ, como β, ¬γ ⊢S ¬(β → γ) (XIII) y Σ es consistente entoncs
no sucede que β ∈ Σ y ¬γ ∈ Σ. Por lo tanto β < Σ o ¬γ < Σ. Por lo tanto
β < Σ o γ ∈ Σ, ya que Σ es completo.
4) α = (∀xβ)
Antes de demostrar este caso, haremos unas observaciones:
1. A |= ¬α ⇔ A 6|= α . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Def. satisfacción.
A.3 DEMOSTRACIÓN DE LA VERSIÓN A DEL... 165
α ∈ Σ ⇔ A |= α.
Epı́logo
Si Σ es un conjunto de enunciados consistente entonces Σ tiene un modelo
de cardinal ≤ |Σ| + ℵ0 .
Demostración:
Sea Σ un conjunto consistente de enunciados. Por el Corolario de los lemas
1 y 2, hay Σ∗ tal que Σ ⊆ Σ∗ y Σ∗ es consistente, completo y cerrado bajo
testigos y además |Σ∗ | = |Σ| + ℵ0 . Por el Lema 3, Σ∗ tiene un modelo,
digamos A tal que es modelo de Σ ⊆ Σ∗ y el cardinal de su universo
|A| ≤ |Σ∗ | = |Σ| + ℵ0 . Como en general τ(Σ) , τ(Σ∗ ) y τ(Σ) ⊂ τ(Σ∗ ), podemos
tomar de la estructura A de tipo τ(Σ∗ ), el reducto de A a τ(Σ) ⊆ τ(Σ∗ ). Ası́,
A|τ(Σ) es un modelo de Σ, del tipo de Σ y de cardinal menor o igual que
|Σ| + ℵ0 .
⋄
Bibliografı́a
[Bell & Slomson] Models and ultraproducts, John Bell & Alan Slomson,
North Holland, 1971.
167
168 Bibliografı́a
[Boolos] Logic, logic and logic, George Boolos, Harvard University Press,
1998.
[Dawson a] Logical dilemmas, the life and work of Kurt Gödel, John W.
Dawson, A K Peters Ltd, 1997.
[Fagin, Halpern & Vardi] What is an inference rule?, Ronald Fagin, Joseph
Y. Halpern and Moshe Y. Vardi, The Journal of Symbolic Logic, Vol. 57, N.3,
p. 1018-1045, 1992.
[Feferman] Kurt Gödel collected works, Vol. I, Solomon Feferman Ed., Ox-
ford University Press, 1986.