Apuntes Lógica

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 93

TEMA 1

SEMÁNTICA FORMAL PARA LA LÓGICA DE


ENUNCIADOS

Hasta ahora hemos visto en “Introducción a la lógica” el cálculo deductivo, el


cual nos servía para decir si un enunciado se seguía de otro o, dicho de otra forma, si
para un conjunto de premisas verdaderas la conclusión era verdadera. Este cálculo tenía
un problema y es que a veces (si no encontrábamos la conclusión) no podíamos saber si
era verdadera o falsa, pues eso solo indicaba que no habíamos conseguido catalogar la
conclusión como verdadera (o el argumento como válido).

Cuando no encontramos una respuesta por la vía deductiva podemos recurrir a


una segunda vía: la semántica. Es esta otra vía lógica la que nos va a ocupar en este
curso (en su mayoría a través de tablas de verdad).

Como advertencia previa, debemos saber que en el análisis semántico también


hay casos indeterminables, pero esto no nos va a afectar a nosotros ya que usaremos un
método mecánico (las tablas de verdad).

Los conceptos de validez, aunque con similitudes, varían de una vía a otra. Tres tipos de
validez:

1. VALIDEZ SINTÁCTICA

Dado un argumento formal compuesto por fbfs, α1,…,αn, β, este argumento es válido-
en-L si β es derivable de, α1,…,αn, y de los axiomas de L (si los hubiese) mediante
reglas de inferencia.

Importante, ahora hablamos de argumentos válidos-en-L, es decir, un argumento ya


no es válido sin más sino que ahora su validez es relativa al lenguaje en el que se sitúa,
lenguaje que es siempre artificial (formal, creado) y nunca natural (inglés, francés…).

2. VALIDEZ SEMÁNTICA
El argumento α1,…,αn, β, es válido-en-L si β es verdadero para todas las
interpretaciones en que α1,…,αn, son verdaderas.

Ahora nos quitamos los axiomas y las reglas de inferencia para en cierto modo salirnos
del lenguaje. Al salirnos del cálculo deductivo abandonamos las herramientas intra-
lógicas para adoptar otras herramientas extra-lógicas. Con esto podremos empezar a
hablar propiamente de verdad.

3. VALIDEZ SINTÁCTICA Y SEMÁNTICA

Como veremos, hay casos en los que un argumento no es válido (por ejemplo, el
condicional falso), pero centrémonos por ahora en casos en los que el argumento es
válido para ver la diferencia entre un tipo y otro de validez:

 Si un argumento consta sólo de una fbf β (conclusión de 0 premisas) el


argumento será válido siempre.
 Según la validez sintáctica, β es válida-en-L (y, en este caso, un teorema
de L) si β se sigue de los axiomas de L, en caso de que los haya,
mediante las reglas de inferencia de L. Aquí β sería, por ejemplo, el
teorema de Frege [(P -> -(Q->R))->((P->Q) ->(P->R))] o la
contraposición lógica [(P->Q)->(¬Q->¬P)].
 Según la validez semántica, β es válida-en-L (y, en este caso, una verdad
lógica de L) si β es verdadera para toda la interpretación de L (en una
tabla de verdad completa¿?).

Formalización

Si bien la práctica de la formalización se da por sabida en la asignatura previa


(Introducción a la lógica), hay algunas cosas que añadimos este curso a nivel teórico.

Cuando vamos a hacer uso de un lenguaje formal, sea este el que sea, es necesario
establecer y declarar previamente todas las reglas que usaremos en ese lenguaje formal.
Hasta ahora hacíamos una parte de esto al declarar el significado de cada variable, ya
que el resto lo dábamos por definido. Esto no sería todo lo correcto que podría ser, pues
para usar un lenguaje formal debemos instanciar todos y cada uno de sus elementos.
Así, declararemos las categorías variables (a, b, c...), pero también las categorías
invariables o constantes lógicas (->, ^, ˅, ¬…). Ambos tipos de categorías deberán ir
acompañados por su interpretación, esto es, el contenido de sus símbolos (-> significa
condicional, una regla lógica en la que…).

Además, para el análisis semántico, deberemos pasar todas las variables (a, b, c…) por
el denominado proceso de valuación. Este proceso consiste en asignar valores de verdad
a las variables. Nosotros, al menos por ahora, aplicaremos el principio de bivalencia
(más adelante explicado), por lo que solo contaremos con dos valores de verdad:
verdadero o falso.
1. Lo que nos interesa no son los valores de verdad concretos de una u otra
premisa, sino las relaciones argumentales a partir de estas. Por ejemplo, una de
nuestras herramientas más útiles será la del condicional falso. Podemos detectar
que un argumento es falaz (no válido) si tenemos la siguiente estructura:
(A1^A2^...^An)-> β
Verdadero Falso

Esta combinación se da cada vez que un argumento es falso, de modo que si


pasamos por todos los casos y no damos con ella podemos estar 100% seguros
de que el argumento es correcto (cuando estemos ante una tautología).

Una última consideración previa a tener en cuenta es que, cuando creamos un lenguaje
para hacer un cálculo lógico, podemos crear el que queramos modificando los
presupuestos. Podríamos crear auténticas locuras con argumentos válidos para unas
unos presupuestos completamente a-normales e ilógicos (en el sentido más común del
término). Pero de un modo casi pragmático creamos estos lenguajes enfocados a una
semántica concreta que nos sea de utilidad en los objetivos deseados.

Habrá cinco presupuestos para la lógica proposicional. Entonces, ¿a qué presupuestos


respondemos para edificar un cálculo en lógica preposicional? ¿Cuáles son esos
presupuestos que aceptamos por sentido común para edificar un cálculo coherente con
la realidad que nos pueda decir algo del mundo? Respondemos principalmente (y, aquí,
únicamente) a estos 5:

- Principio de Bivalencia
- Teoría de la verdad de Tarski
- Principio de composicionalidad de Frege
- Homomorfismo entre sintaxis y semántica
- Principio de Extensionalidad proposicional

1. PRINCIPIO DE BIBALENCIA
El valor semántico asignado a una fórmula bien formada (fbf.) es la verdad o la
falsedad (pero no ambos). Como comentábamos antes, nuestros valores de verdad solo
pueden ser verdadero o falso. Y, además, no puede ser verdadero y falso a la vez,
quitándose así de encima la paradoja del mentiroso (explicada en el anterior curso). El
evitar esa misma paradoja es también lo que nos lleva al segundo presupuesto: la teoría
de la verdad de Tarski.
2. TEORÍA DE LA VERDAD DE TARSKI
Tarski sería un matemático polaco considerado el equivalente a Frege para la lógica
formal. Para el estallido de la Segunda Guerra Mundial estaría en un congreso en
California, donde se quedaría hasta el final de sus días. Tarski se pregunta
constantemente por el tema de la verdad, lo cual le lleva a grandes ambigüedades
filosóficas. Su objetivo será entonces desarrollar un teoría de la verdad que sea única,
sencilla y de carácter universal que fuera aplicable a las matemáticas. Dentro de las
teorías de la verdad encontramos dos grandes familias: las correspondistas y las
coherentistas.

 Teorías correspondistas: Tienen sentido al margen del lenguaje empleado, pues


la verdad es aquello que hay en el mundo. Mi enunciado será verdadero si se
corresponde con una realidad completamente ajena a que yo la enuncie o la deje
de enunciar. El problema que plantea esta teoría es que no podemos salir del
lenguaje (de la mente) para comprobarlo. La única alternativa parece ser estudiar
la verdad desde dentro del lenguaje.
 Teorías coherentistas: En estas la verdad solo se da dentro de un lenguaje. Esto
la hace muy propicia a idealistas (construimos nuestro propio mundo) y ciertos
lógicos (es más sencillo vaciar de significado), pero no garantiza conocimiento
sobre el mundo en nuestros enunciados.

Partiendo de estas dos teorías y de sus problemas, Tarski enuncia la teoría de la verdad
semántica. Tarski quería una teoría rigurosa y la única hasta el momento era la de
Aristóteles. Así pues, se lanzaría a modernizar esa teoría manteniendo sus herramientas.
Así mismo, Tarski se encuentra también con la paradoja del mentiroso, la cual sólo se
da en lenguajes autorreflexivos (capaces de emitir enunciados sobre el propio lenguaje).

Para solucionar todos estos problemas propone trabajar en dos planos ontológicos con
dos lenguajes distintos. Un primer lenguaje no auto-reflexivo, lo llamaremos L.O
(lenguaje objeto), contendrá todos los enunciados posibles y un segundo lenguaje, al
que llamaremos M.L (meta-lenguaje) contendrá todos los enunciados acerca de los
enunciados del primer lenguaje L.O. De este modo, los enunciados que en L.O aparecen
como uso aparecerán como mención en M.L. En L.O tendremos que las rosas son rojas,
mientras que en ML podremos decir cosas como que “las manzanas son rojas” tiene 4
palabras o que “las manzanas son rojas” es un enunciado verdadero.
Una vez definidos estos dos planos, Tarski puede enunciar su TEORÍA DE LA
VERDAD en torno a la condición de adecuación material, esquema T o “Convención
T”: Una convención T (definición parcial de la verdad) sería:

- Para X = una proposición del lenguaje objeto mencionada, p se corresponde


con X:
- X es verdadero syss p
- “La nieve es blanca” es verdadero syss la nieve es blanca
- Para formar una definición de verdad completa, tenemos que dar todas las
posibles convenciones T con todas las posibles proposiciones y todos los
conectores lógicos. Sería una definición parcial, pues no incluye todos las
oraciones.
-
o “x: el nombre de una oración en el lenguaje objeto, Tarski la entrecomilla”, x
es verdadera.
o “p” está dentro del metalenguaje, es el significado,. La x es verdadera si es lo
que digo que es dentro de mi metalenguaje, ese es el caso, es el significado,
es semántica a la ver que p es el significado de x, no hay correspondencia,
sino relación semántica.
o Si tenemos el nombre, buscamos si se corresponde en otro sistema, si
aplicamos esto tendremos una definición completa sin ambigüedades, ya
tendré modos de aplicar verdadero o falso al lenguaje objeto.
o P (usada) es el uso del lenguaje de x (mencionada)
o Implica una disyunción de todo lo que podemos producir en el lenguaje, se
descompone mediante un razonamiento recursivo para probar su
ambigüedad.
- SUMA LÓGICA DE CONDICIONES Ejemplo de definición de verdad
completa en un lenguaje en el que solo puedo decir “la nieve es blanca” y
“las rosas son rojas”:
- X es verdadera ↔ X = “la nieve es blanca” y la nieve es blanca
- ó X = “las rosas son rojas” y las rosas son rojas
- ó X es “¬p” y es verdadero que no p
- ó X es “p˅q” y p es verdadero o q es verdadero
- ó X es “p^q” y p es verdadero y q es verdadero
- ó X es “p q” y o no p es verdadero o q es verdadero

Así tenemos una definición de verdad para un lenguaje increíblemente restrictivo en


base a una suma de condiciones T. Esta es la definición de verdad más precisa que hay,
pero es poco útil para grandes sistemas. El gran aporte es una posible explicación de
cómo aplicar la palabra verdadero.
3. PRINCIPIO DE COMPOSICIONALIDAD DE FREGE

“El significado de una proposición compleja es una función del significado de sus
partes componentes” De acuerdo con este principio, una proposición compleja como
“[(pq)^r]” será verdadera porque la p, la q y la r tendrán unos valores de verdad que,
al relacionarse según las conectivas, dan verdadero. Este principio nos permite dividir o
fragmentar el trabajo y después sumarlo.

La semántica de la lógica proposicional aceptará estas teorías y será capaz de


decir si nuestro lenguaje es falso o verdadero.

4. HOMOMORFISMO SINTÁXIS SEMÁNTICA

El homomorfismo se da entre dos sistemas A, B tal que: (Al establecer un puente entre
ambos mundos, eso debe encajar, debe haber homología entre los dos sistemas.

A = <A,<fi>,<Rj>>

B = <B,<gi>,<Sj>>

Donde:

- <> indica conjuntos ordenados


- g y f son funciones
- R y S son relaciones
- i es el número de elementos en f y de g
- j es el número de elementos en R y S

Así, cada sistema tiene un dominio de objetos A o B (conjuntos de objetos simples


introducidos en el lenguaje, pueden ser conjuntos de proposiciones), un nº i de
funciones y un nº j de relaciones. El homomorfismo se da entre ellos porque encajan
perfectamente, pues tienen los mismos elementos. Tienen las mismas piezas con las
mismas características en A y B, mismo número de funciones y relaciones respetando la
aridad de estas.

Recordemos el concepto de ARIDAD. La aridad es el nº de argumentos que hay que


dar, por ejemplo, a una función para saturar las variables o el número de objetos de la R.
Si tengo una función f(x,y), la función tiene aridad 2, pues necesito introducir dos
variables (una en la x y otra en la y) para saturarla.

Para nuestra lógica, la sintaxis y la semántica tienen que tener el mismo número de
funciones y relatores, además de cada uno tener un dominio de objetos. Si yo estructuro
los símbolos como A y el mundo como B, hay homomorfismo entre uno y otro, pues los
nombres de una parte tienen su contrapartida en la otra. Esto es lo que hace que pueda
aplicar todo lo demás. Lo importante es que podemos establecer vínculos porque todo
tiene la misma estructura formal.

B es una imagen homórfica de A syss existe una función (p.ej, h) de A en B tal que:

1. Para cada i ∈ I, y para cada x1,…, x2 ∈ A:


h(fi(x1,…,xi)) = gi(h(xi),…,h(xi))
2. Para cada j ∈ J, y para cada x1 ,…, xj ∈ A:
Si <x1,…,xj> ∈ Rj, entonces <h(xi),…,h(xj)> ∈ Sj

5. PRINCIPIO DE EXTENSIONALIDAD PROPOSICIONAL


“Dos fórmulas son intercambiables entre sí en cualquier otra fórmula que aparezca si
tienen los mismos valores de verdad” En otras palabras, estamos en una lógica
puramente extensional y, por ello, podemos saltarnos los principio intensionales. Si V(r)
= V(q), entonces pq = pr.

INTENSIÓN/ EXTENSIÓN. En los contextos intesionales (creencias, deseos) el foco


está en los significados, por lo que no podemos cambiar una por otra. La expresión “the
snow is white” y la expresión “la nieve es blanca” tienen la misma intensión. En los
contextos extensionales esto no tiene importancia. Intensionalmente creer que Superman
es valiente y creer que Clark Klen es valiente son lo mismo, extensionalmente no tiene
por qué, depende de sus valores de verdad (y por sentido común, no son lo mismo).

Estos principios permiten establecer el vínculo semántico entre los símbolos y el


mundo. A partir de estos principios definimos las reglas de la teoría semántica.Con la
semántica lo que hacemos es interpretar (añadimos elementos nuestros para dar sentido
a lo que tenemos y después vamos corrigiendo). Dar sentido para nosotros es aplicar
una función a la que podemos llamar I o V:

I(p) = 1/0
V(p) = 1/0
Donde 1= verdadero y 0 = falso
Ej de Ejercicio: Determine el valor de verdad de la expresión: ¬[(p q)  (qs)]
para V(p)= 1, V(q)=1, V(r) = 0 y V(s)=0: Sol: la expresión es verdadera

¬[(pq)  (qs)]
¬[(11)(10)]
¬[(10)]
¬0
1
Reglas semánticas

Antes de ver las reglas semánticas de la lógica proposicional o de enunciados, tenemos


que saber que la lógica tiene dos enfoques (uno categoremático y otro
sincategoremático) con los que, en esta lógica, vamos a articular una semántica
veritativo-funcional.

- Enfoque sincategoremático: Desde este enfoque acudimos a las expresiones básicas


sin contenido semántico propio cuya utilidad es la de dar contenido semántico a las
expresiones que las contienen siempre del mismo modo, esto es, a las constantes
lógicas.
- Enfoque categoremático: Desde este enfoque acudimos a las expresiones
categoremáticas, aquellas que tienen valores semánticos propios pero variables: las
letras preposicionales.

Con estos dos enfoques y estos dos tipos de expresiones articulamos una semántica
veritativo-funcional, esto es, de funciones veritativas. Aquí usamos la palabra función
en su sentido matemático: una operación que a un valor original del dominio le asocia
otro valor dentro del rango: su imagen.

Esto a su vez introduce un concepto ya conocido: la aridad o el número de argumentos


que hacen falta para satisfacer una función. Por ejemplo, para y=f(x, z) = 3x + 2z+5,
necesitamos dar dos elementos (la x y la z), por lo que esa función es de aridad 2.

La diferencia es que nuestras operaciones funcionales no son aritméticas, sino lógicas.


Así, las funciones veritativas o funciones de verdad asignan valores de verdad (para
nosotros, 1 o 0). Estas funciones de verdad tienen la forma de constantes lógicas (^,
…).

En lógica, desde un enfoque sincategoremático, introducimos argumentos verdaderos o


falsos (1 o 0) y les asignamos, según la constante, otro valor de verdad (1 o 0),
exactamente igual que en las funciones aritméticas. Las constantes lógicas (funciones
veritativas en semántica) carecen de un contenido semántico (no son verdaderas ni
falsas por si mismas), pero son las que fijan el contenido semántico de las expresiones
que las contienen y lo fijan siempre del mismo modo (un condicional siempre funciona
igual, siempre es falso si su antecedente es 1 y su consecuente es 0). Esos valores
semánticos que introducimos en la función son las letras proposicionales que
acompañan a las constantes lógicas. El proceso de la función, la asignación de un valor
a la fórmula, lo llamamos valuación y lo designamos como V(α) o I(β).

LENGUAJE FORMAL DESDE UN ENFOQUE SINCATEGOREMÁTICO

Cuando establecemos las reglas de un lenguaje formal, es necesario establecer las


reglas de formación (gramática formal) y las reglas semánticas (semántica
formal). Poniendo el foco en las funciones de verdad, esto es, en las constantes
lógicas, obtenemos las siguientes gramática y semántica formales.

Gramática formal. Reglas de formación

 RF1: Cada variable proposicional α es una fbf del SDNE


 RF2: Si A es una fbf del SDNE, entonces ¬A también lo es
 RF3: Si A y B son fbfs del SDNE, entonces A˅B, A^B y AB también lo son.
 RF4: No hay secuencia de símbolos que sea una fbf del SDNE y no lo sea en virtud de RF1, RF2
y RF3.

Semántica formal. Reglas semánticas

1. RS1: A cada variable proposicional α le corresponde un valor de verdad 1 o 0 como valor


semántico: V(α) = 1, o bien V(α) = 0.
2. RS2: V(¬A) = 1 syss V(A) = 0.
3. RS3: V(A^B) = 1 syss V(A) = 1 y V(B) = 1.
4. RS4: V(A˅B) = 1 syss V(A) = 1 o V(B) = 1.
5. RS5: V(AB) = 1 syss V(A) = 0 o V(B) = 1.

LENGUAJE FORMAL DESDE UN ENFOQUE CATEGOREMÁTICO

Gramática formal: Reglas de formación

 RF1: Si α es una variable proposicional entonces α es una fbf del SDNE


 RF2: Si A es una fbf del SDNE y © es una conectiva monádica, entonces ©A es una fbf del
SDNE.
 RF3: Si A y B son fbfs del SDNE y ® es una conectiva diádica, entonces A®B es una fbf del
SDNE.
Foco puesto en que tanto si es monaria como si es binaria la expresión es una (1)
fórmula.

Valores semánticos

1. Para las fbfs, el conjunto de valores de verdad es {1,0}


2. Para las conectivas monádicas, el conjunto de funciones tienen como
argumentos y como rango un valor veritativo: {1,0}  {1,0}
3. Para las conectivas diádicas, el conjunto de funciones tienen como argumentos
pares de valores veritativos y como rango un valor veritativo: {1,0}x{1,0} 
{1,0}

Cuadro de valores semánticos

Conjunción ^ Disyunción ˅ Condicional  Negación ¬


<1,1>1 <1,1>1 <1,1>1
10
<1,0>0 <1,0>1 <1,0>0
<0,1>0 <0,1>1 <0,1>1
01
<0,0>0 <0,0>0 <0,0>1

Semántica formal. Reglas semánticas

 RS1: Si A es una fbf, entonces [A] = V(A).


 RS2: Si © es una conectiva monádica y A es una fbf, entonces [©A] = [©]([A]), donde [©]:
{1,0}{1,0}
 RS2.1: [¬(A)] = [¬]([A]). Dado el valor semántico asociada a ¬,
 [¬(A)] = 1 syss [A] = 0 y viceversa
 RS3: Si ® es una conectiva diádica y A y B son fbfs, entonces [(A) ® (B)] = [®](<[A],[B]>),
donde [®]: {1,0}x{1,0}{1,0}
o RS3.1: [(A) ^ (B)] = [^](<[A],[B]>). Dado el valor semántico asociado a ^,
 [(A)^(B)] = 1 syss [A] = 1 y [B] = 1.
o RS3.2: [(A) ˅ (B)] = [˅](<[A],[B]>). Dado el valor semántico asociado a ˅,
 [(A)˅(B)] = 1 syss [A] = 1 o [B] = 1.
o RS3.3: [(A)  (B)] = [](<[A],[B]>). Dado el valor semántico asociado a ,
 [(A)(B)] = 1 syss [A] = 0 o [B] = 1.

ADECUACIÓN
Al igual que definimos estas constantes lógicas, podemos definir otras. Una
particularidad que presenta esta “libertad” es la de poder definir unas constantes lógicas
en base a otras. Por ejemplo (definiciones):
A^B = ¬(¬A ˅ ¬B)

AB = ¬A ˅ ¬B

Lo importante es que al final tengamos un conjunto de completitud funcional, esto es,


un conjunto de conectivas funcionalmente completo. Esto se ha llevado al extremo de
edificar una lógica entera en torno a un único símbolo en dos ocasiones: con la Barra de
Sheffer y con la Función flecha de Peirce.

Barra de Sheffer:

La Barra de Sheffer ( | ) significa “A es incompatible con B”, y el resto de constantes se


definen en torno a ella así:

¬A = A|A A^B = (A|B) | (A|B)

A˅B = (A|A) | (B|B) AB = A | (B|B)

Función flecha de Pierce: ↓

La función flecha de Pierce (↓) significa “ni A ni B”, y el resto de constantes se definen
en torno a ella así:

¬A = A↓A A^B = (A↓A) ↓ (B↓B)

A˅B = (A↓B) ↓ (A↓B) AB = [(A↓A) ↓B] ↓[(A↓A) ↓B]

Tablas de verdad

2n interpretaciones posibles. (¬p˅q)¬[(r^q)↔p]

(¬ p ˅ q)  ¬ [(r ^ q) ↔ p]

0 1 1 1 0 0 1 1 1 1 1
1 0 1 1 1 1 1 1 1 0 0
0 1 0 0 1 1 1 0 0 0 1
1 0 1 0 0 0 1 0 0 1 0
0 1 1 1 1 1 0 0 1 0 1
1 0 1 1 0 0 0 0 1 1 0
0 1 0 0 1 1 0 0 0 0 1
1 0 1 0 0 0 0 0 0 1 0

- Satisfacibilidad: Una fórmula es satisfacible si es verdadera bajo alguna


interpretación, esto es, si en la tabla de verdad tenemos al menos un 1.
o Tautología: La fórmula es verdadera bajo cualquier interpretación, es
decir, en todo mundo posible. En otras palabras, en la tabla de verdad
tenemos todo 1.
o Contingente: La fórmula es verdadera bajo algunas interpretaciones y
falsa bajo otras, esto es, en la tabla de verdad tenemos unos y ceros.
- Contradicción: Una fórmula es contradictoria o insatisfacible si no es verdadera
bajo ninguna interpretación, esto es, falsa en todos los mundos posibles. En otras
palabras, ten la tabla de verdad tenemos todo 0 bajo la conectiva principal.

En lenguaje más técnico:

Un conjunto de fórmulas {α1, …, αn} es satisfacible syss hay una interpretación que
hace verdaderas a la vez dicho conjunto.

{α1, …, αn} es satisfacible si la conjunción α1 ^ … ^ αn lo es

La fórmula α  β es tautológica syss el conjunto {α, ¬β} no es satisfacible.

Consideramos que un argumento es válido si encontramos una tautología en un


condicional. Al encontrar algún caso en el que se incumpla la tautología, esto es, en el
que tengamos un 0 bajo la conectiva principal (el condicional), podemos desechar el
argumento.

Para evitar realizar toda la tabla de verdad empleamos el “método abreviado”. Este
método consiste en asignarle un 0 al condicional/conectiva principal y asignar el resto
de valores conforme a ese 0, empezando por asignar un 1 al antecedente y un 0 al
consecuente. En el momento en el que para lograrlo tenga que variar un valor ya
asignado a una letra proposicional, es una tautología pues no puedo contradecirla.

Ejemplo:

(p  ¬ q)  (q  ¬ p)

0
1 0
1 0 1
1 1
0
0
Al tratar de mantener la coherencia en las constantes, el primer condicional se nos hace
falso, con lo que la conectiva principal volvería a ser verdadera. Al tener que sostener
una contradicción para hacer falsa la expresión, se trata de una tautología y, por lo tanto,
de un argumento válido. Estos mismos ejercicios se pueden hacer al revés para saber si
una fórmula es contradictoria. Asignamos un 1 al condicional/conectiva principal y si
no es posible conseguir la verdad, es contradictoria.
Otras definiciones

 CONSECUENCIA LÓGICA: Una fórmula β es consecuencia lógica de un conjunto


de fórmulas {α1, …, αn} syss para toda I, si I(α1) = 1 y … y I(αn) = 1, entonces I(β) =
1.

Su representación gráfica es:

 Corolario 1: {α1, …, αn} ֍ β syss [(α1 ^ … ^ αn)  β es tautológica syss


{α1, …, αn, ¬β} es insatisfacible].
 Corolario 2: Si {α1, …, αn} es insatisfacible, entonces para todo β, {α1,
…, αn} ֍ β.
 Corolario 3: Si β es tautológica, entonces, para cuales quiera α 1, …, αn,
{α1, …, αn} ֍ β.

 VERDAD LÓGICA: Una fórmula es una verdad lógica syss ∀I, I(α) = 1.

Su representación gráfica es: α =

 Corolario: α syss es tautológica.


 Ejemplo de verdad lógica: Principio de no contradicción (֍ ¬(A^¬A)), ley del
tercio exclusivo, principio de identidad, afirmación del antecedente…

 EQUIVALENCIA LÓGICA: Dos fórmulas α y β son lógicamente equivalentes syss


∀I, I(α) = I(β). Su representación gráfica es: α =
 Corolario 1:α l=l β syss α ↔ β es tautológica.

¿Qué es una relación de equivalencia? Establecemos una relación de equivalencia E en un


conjunto C si y solo si:

1. Todo individuo en C está en relación R consigo mismo.


2. Dados dos individuos x e y, xRy => yRx.
3. Dados tres individuos x, y, z, xRy, yRx => xRz.
 Corolario 2: Para todo α, β, γ, δ: si β es una subfórmula de α, β l=l γ, y δ es el
resultado de sustituir β por γ en α, entonces δ l=l α.
TEMA 2
SEMÁNTICA FORMAL PARA LA LÓGICA DE
PRIMER ORDEN

 PRINCIPIOS DE LA SEMÁNTICA PARA LPO: Algunos principios de la


lógica proposicional se mantienen, como el principio de Bivalencia, el de la
verdad de Tarski, el de Composicionalidad o el de homomorfismo. El quinto, el
principio de extensionalidad proposicional se convierte en el principio de
extensionalidad cuantificacional y, además, se añade el principio semántico de
indiscernibilidad de los idénticos o Principio de Leibniz.
o Principio de Leibniz (o principio semántico de indiscernibilidad de los
idénticos): Si dos constantes individuales denotan la misma entidad,
entonces se pueden intercambiar en las fbfs del lenguaje salva veritate.
 PRINCIPIO DE EXTENSIONALIDAD CUANTIFICACIONAL: Si P y Q
expresan sendas propiedades o relaciones idéntica extensión, pueden ser
intercambiadas en cualquier fbf del lenguaje salva veritate (sin que cambie el
valor veritativo).

Términos, entidades y valuación

1. TÉRMINOS
Antes descomponíamos las proposiciones complejas en simples, asignábamos a cada
proposición simple un único valor de verdad y a través de ellos dábamos un único valor
de verdad a la proposición compleja. Ahora hacemos lo mismo, la proposición compleja
tiene un único valor de verdad definitivo, pero sus componentes últimos no son
proposiciones simples (p, q) sino términos. Según que término aparezca y qué
relaciones se establezcan con otros términos (y con los símbolos lógicos) obtendremos
un valor de verdad para las proposiciones.

Antes:

Ahora:
La verdad es una cuestión ontológica. Ya no estamos ante una semántica veratiativo-
funcional sino ante una semántica modelo-teórica en la que dependemos de modelos
(matemáticos, abstractos) para hacer la valuación. Necesitaremos entonces una teoría de
modelos. Estos modelos serán sistemas de entidades.

2.- SISTEMA DE ENTIDADES


 Entidades básicas (elementos): Números (1,2,3…), objetos (mesa, silla,
papelera…). Cualquier objeto, son los elementos de los que hablaremos.
 Entidades complejas (conjuntos): Conjunto de números {1,2,3}, conjunto de
duplas {<3,8>, <4,2>, <5,9>}m conjunto de n-tuplas… Clases dentro del
dominio.

Con estas entidades podemos construir un sistema (A), un conjunto ordenado de


entidades. Estos sistemas tendrán la forma:

SISTEMA
A = <A, a1,…,am, R1,…,Rn>
A: Dominio de objetos no vacío
a1,…,am: Elementos destacados, objetos con nombre específico, constantes
individuales, reciben un nombre:
R1,…,Rn: Relaciones, incluyendo la definición de clases

Cuando podemos hacer corresponder, las entidades de este sistema A con los términos
(constantes de individuo, variables de individuo, relaciones…) de un lenguaje de primer
orden, podemos evaluar este último.

3.. INTERPRETACIÓN
Antes de interpretar los términos para conocer su valor de verdad, es necesario
diferenciar la posible realización de la función de interpretación y de la función de
interpretación generalizada.

- Posible realización: Hace corresponderá casa relator del lenguaje una relación
determinada. Es un sistema de entidades que nos permite evaluar si un lenguaje
es válido. Nuestro sistema se convierte en tal caso en una posible realización de
ese lenguaje. Si además hace sus proposiciones verdaderas, es un modelo.
- Función de Interpretación: La conexión sistema/lenguaje (posible
realización/fragmento de lenguaje a evaluar) tiene lugar mediante una función de
interpretación. Hay dos tipos:
- Función de interpretación: En las funciones de interpretación (sin más
matices) se hace corresponder:
o Una entidad básica a cada constante de individuo del lenguaje
o Una entidad compleja a cada relator del lenguaje
- Funciones de Interpretación generalizadas:Este tipo de funciones de
interpretación hace corresponder:
o Una entidad básica a cada constante o variable de individuo del lenguaje
o Una entidad compleja a cada relator del lenguaje
o A las fbf valores de verdad.

Si tenemos un sistema A que se conecta a un fragmento del lenguaje por una función de
interpretación, tenemos una posible realización.

A: <A, a1,…,am, R1,…,Rn> Entidades


Equivalentes
A: <A, f>  Función de interpretación

Para saber si los sistemas encajan, tiene que haber un homomorfismo sistema-lenguaje,
esto es, tiene que tener el mismo número de objetos y de relaciones con la misma
aridad. ¿Cómo hacemos esto explícito? Interpretaciones de las constantes (a) e
interpretación de los relatores (predicados en R) lo que irá entre [ ] es que nos
preguntamos por su valor semántico de una clase de objetos.:

[a1]A = a1, [R1]A = R1

EJEMPLO:
- Constantes de individuo: a, b, c, d
- Predicado diádico R = “precede en la escala de dureza a”,
- B: <B, talco, yeso, calcita, fluorita, R> es una posible realización, individuos
destacados
- B = {talco, yeso, calcita, fluorita, Pepe, María, mi coche}
- R = {<talco, yeso>,<yeso, calcita>,<calcita, fluorita>}
Si nos preguntamos por el valor de verdad de Rab, siendo a talco y b yeso, tenemos
R(talco, yeso), esto es, la dupla <talco, yeso>. Dado que la dupla <talco, yeso> está
definida en R, la expresión es verdadera.

VERDAD, ASIGNaIDEA RELACIONADA CON LA FUNCIÓN DE


INTERPRETACIÓN GENERALIZADA: Hasta ahora teníamos proposiciones
complejas a las que asignábamos valores de verdad, ahora nos interesa más a qué
objetos se aplican en términos generales para así asignar valores de verdad a las
proposiciones que se asignan a ellos. Nos hará falta mostrar cómo son los sistemas que
permitan las evaluaciones. Buscaremos o hemos visto como se estructura. Miramos
objetos para ver cual es el valor de verdad de las cosas. Introducimos referencias al
mundo y obtenemos resultado valores de verdad.Si busco un par ordenado <c,d> en un
conjunto R y está, ]Rcd] tiene valor 1, de no estarlo, tiene valor cero. Para el ejemplo
anterior:

- Predicado diádico R = “precede en la escala de dureza de a» . lenguaje


- B = <B, talco, yeso, calcida, fluorita, R> es una posible relación (presentamos
el sistema en sí, afirmo que es una posible realización – que no un sistema) por
que es adeduado, ya que se adecua a las necesidades del fragmento del lenguaje,
hay tantas entitades como constantes no lógicas en el lenguaje ya que hay una
relación basada en parejas.
- B = (talco, yeso, calcita, fluorita, Pepe, María, Mi coche), destaco cuatro
poruqe tenog cuatro letras. Es el dominio o universo, es decir, el conjunto de
individuos que hay dentro.
- Talco, yeso, calcita y fluorita son las entidades individuales destacadas. (al ser
las entidades destacadas, serán las que nombren las constantes de individuos)
- R (única relación) = (<Talco, yeso>, <yeso, calcita>, <calcita, fluorita>. Nos
valdrá para evaluar los predicados, es un conjunto de pares ordenado que me
permite hacer la evaluaciones del tipo de ]Rcd].
- Establecemos valores semánticos, Si ahora B = (B, g)
o g(a) = [a]B = talco
o g(b) = [b]B = yeso
o g(c) = [c]B = calcita
o g(d) = [d]B = fluorita
o g(R) = [R]B = <Talco, yeso>, <yeso, calcita>, <calcita, fluorita>.

Si tenemos una constante de individuo en el lenguaje, siempre ha de tener


asociada una entidad básica de sistema, los predicados monádicos son subconjuntos del
dominio. (si yo tengo un conjunto de objetos un predicado monádico es lo que tomo de
este) Cuando hablamos con determinantes (designamos un objeto con “este, ese, aquel”)
lo que haría falta es un cuantificador, ya que no se a quien me refiero al designar eso. La
x se convierte en un hueco en el que hablo de palicar a algo una propiedad, pero ese x
no se sobre qué cae. Necesito algo que sea como un hueco, para ello uso las variables.
Las variables se refieren a lo que me diga a mi el cuantificador. El cuantificador nos
dirá lo que estoy afirmando claramente. Pero necesito una asignación. Sin embargo el
problema general no son las variables libres, sino a todas las variables debido al
principio de composicionalidad

Vedad, asignación 1 / 0

En el apartado anterior hemos visto las funciones de interpretación, a través de


las cuales asignábamos elementos del sistema a elementos del lenguaje. Así, para un
sistema B = <B, g>
g (a) = [a]B = talco
g (b) = [b]B = yeso
g (R) = [R]B = {<talco, yeso>, …}
Con las funciones de interpretación conseguimos un homomorfismo sistema/lenguaje.
Pero para analizar la veracidad de aquello que decimos en el lenguaje (interpretado
como sistema), es necesario establecer una semántica que asigne valores (1/0) a los
términos.

En lógica proposicional podíamos asignar a cada proposición 1 o 0 en función de si esa


proposición se correspondía con la realidad o no. Esto cambia sustancialmente en la
lógica de primer orden, pues ahora no miramos el mundo sino el sistema construido.

De forma poco técnica, un término Pa (por ejemplo, el triángulo es redondo) será


verdadera si en dentro de P está a. No se trata de que el triángulo sea o no redondo, sino
de tener definido g(P) = P = {circulo, esfera, óvalo}. Dado que el triángulo (a) no se
encuentra dentro de P, Pa es falsa.

En lógica tenemos 3 elementos a los que atender: el mundo, el lenguaje y las reglas.
Estos dos últimos son invariables, el mundo es variable. La lógica de enunciados era
veritativo-funcional: a través de una función miraba el mundo y le asignaba un valor de
verdad. La lógica de primer orden depende de un modelo, del sistema que construímos,
el cual es invariable. Es modelo-teórica, la valuación se hace en base a un modelo y no
en base al mundo.

Para preguntar por el valor semántico introducimos el término entre corchetes y


ponemos como supraíndice el sistema en base al cual lo evaluamos:
[Pa]A = 0

[Rab]B = 1

PECULIARIDADES DE CADA ELEMENTO

- Constantes individuales:Si hay constantes individuales, siempre tienen que


llevar asociadas una entidad básica del sistema, no hay dominios vacíos ni
constantes de individuo que no denoten.
o Problema: se supone que todos los lenguajes naturales pueden
reformularse en LPO, pero la mayor parte de la literatura no refiere a
nada que exista, sino que sus elementos son parte de un discurso, no
objetos. Los dominios en estos casos estarían vacíos.
- Predicados monádicos: Los predicados monádicos son subconjuntos del
dominio.
- Predicados n-ádicos: Los predicados n-ádicos se expresan como el producto
cartesiano de n veces el dominio sobre sí mismo.
- Variables:No es lo mismo decir Pa (la entidad básica denotada por está dentro
del subconjunto del dominio P) que decir ∃xPx (existe al menos un elemento del
dominio que está dentro del subconjunto P). En este caso no estamos denotando
ninguna entidad básica en concreto, no sabemos a qué nos referimos.

Para valuar términos con variables es necesario tener en cuenta que no se


refieren a nada particular, sino a lo que diga de ellas el cuantificador. Así, para
valuar ∃xPx tendremos que mirar si hay algún elemento del dominio, el que sea,
que esté en P.

Si yo digo [Rab]B se que es 0, o se que es 1. [Rxy] B sin embargo no tiene


valor semántico, pues al contener variables hay que evaluar el cuantificador. Así,
yo puedo saber si [∃xyRxy]B es 1 o 0, al igual que puedo saber si [ ∀xyRxy]B es 1
o 0. El verdadero problema viene con las variables libres: [∀xRxy]B presenta una
incertidumbre. Para que sea verdadera necesitamos que todo x presente par con
¿1 elemento de y o con todos?

Pero es que esto ocurre en todas las variables por el principio de


composicionalidad. Para evaluar una relación, uno de sus componentes tiene que
ser la parte si cuantificación (x=a y=a, x=a y=b, x=a y=c,…). Para poder afinar
la veracidad de toda la cuantificación, tengo que afinar la veracidad de todos los
casos en los que se da un par en el domino, agotando todas las combinaciones
posibles. Para poder dar un valor tengo que saber si Rxy es verdadero o falso,
pero no sé a que se refieren x e y. Con lo cual, tanto si tengo cuantificador como
si no, necesito algo que me asigne valores a x e y TEMPORALMENTE. A esto
lo llamamos ASIGNACIÓN.

ASIGNACIÓN TEMPORAL DE VARIABLES


En el apartado anterior hemos visto que las variables presentan, cuantificadas o no, un
gran problema: no sabemos a qué se refieren y, para poder evaluarlas, necesito
asignarles valores temporales. Esta asignación se hace a través de una función
completamente independiente de la función de interpretación y del sistema a la que
vamos a llamar J.

- Sistema (con función de interpretación): A: = <A, f>


- Función de asignación J: VAR  A

La función J asigna un elemento del dominio A a la variable, dándonos una posible


realización (Sistema de entidades que nos permite evaluar si un lenguaje es válido). Si
esta posible realización (que contendría las constantes lógicas, los predicados, los
relatores y la asignación de las variables ¿?). Si la posible realización satisface las
necesidades semánticas*, se convierte en un modelo.

*Tarski diría “si hace verdadera la fórmula o el conjunto de estas”, nosotros diríamos
“si constituye la interpretación adecuada en términos semátnicos”.

Terminología:

- A = <A, f>: Sistema


- A: Dominio de objetos
- f: Función de interpretación generalizada
- f(a) ∈ A/ f(R) ⊆ A: Para cada constante, tengo una función que me dice que tiene
un valor en el universo (dominio A)
- J: VARA. Función transitoria de asignación para variables (no consideramos
los cuantificadores)
- [x]AJ: Función de asignación, no de interpretación
- [∃xPx]BJ [a]BJ
- Ojo: a = elemento, [a] = entidad del sistema
Reglas semánticas

RSF1: Dado un predicado n-ádico cualquiera del lenguaje R, y una sucesión cualquiera
de n términos de individuo del lenguaje, t1,…,tn, se dice que:

[Rt1…tn]AJ = 1 syss <[t1]AJ, [t2]AJ,…, [tn]AJ> ∈ [R]AJ

Si R es monario, entonces: [Rt1]AJ = 1 syss [t1]AJ ∈ [R]AJ

R definido en AJ es: R = {<▲,■>, <○,○>, <○,▲>, <■,■>}

[a]AJ = ○ [b]AJ = ▲ [Rab]AJ <○,▲>  Está en R  [Rab]AJ = 1

RSF2: Si A es una fbf del LPO*, entonces [¬A]AJ = 1 syss [A]AJ = 0

RSF3: Si A y B son fbfs del LPO*, entonces:

[A˅B]AJ = 1 syss [A]AJ = 1 o [B]AJ = 1

[A^B]AJ = 1 syss [A]AJ = 1 y [B]AJ = 1

[AB]AJ = 1 syss [A]AJ = 0 o [B]AJ = 1

RSF4:

Si A es una fbf del LPO*, entonces:

1. [∃xA]AJ = 1 syss para al menos un elemento α (entidad) del dominio A, se


cumple que [A]AJ = 1.
Se escribe aquí “Jxα”, aunque sólo posee la peculiaridad de que, posiblemente,
asigna α a la variable de individuo x. Igual α no, pero β sí vale. Habrá que ver
cada caso hasta dar con el que nos viene bien.
2. [∀xA]AJ = 1 syss para todo elemento α del dominio A se cumple que [A]AJ=1.
J se escribe aquí “Jxα”, aunque sólo posee la peculiaridad de que, posiblemente
asigna α a la variable de individuo x.

NEUTRALIZAR LA ASIGNACIÓN: Para neutralizar la asignación (afirmar que el


resultado obtenido por valuación en base a AJ se mantiene al hacer la valuación sobre
A) tiene que darse una de estas dos condiciones:

- Si A es una fbf del LPO*, entonces [A]A = 1 por definición syss [A]AJ = 1
para toda asignación J.
- Si A es una fbf del LPO*, entonces [A]A = 0 por definición syss [A]AJ = 0
para toda asignación J.

En otras palabras, para neutralizar la asignación necesitamos que la fórmula sea una
sentencia, esto es, que no tenga variables libres.

EJEMPLO
Términos

 Constantes de individuo a, b, c y d
 Predicado monádico S
 Predicado diádico R

Sistema

 B = {talco, yeso, calcita, fluorita, Pepe, María, mi coche}


 La unción de interpretación g opera sobre las constantes de individuo del modo:
o g(a) = [a]B = talco
o g(b) = [b]B = yeso
o g(c) = [c]B = calcita
o g(d) = [d]B = fluorita
 La función de interpretación g opera sobre los predicados S y R del modo:
o g(S) = [S]B = {talco, yeso, calcita}
o g(R) = [R]B = R = {<talco, yeso>, <yeso, calcita>, <calcita, fluorita>}

Asignación (J) inicial: (habrá que modificarla cuando aparezcan cuantificadores)

 x  fluorita
 y  yeso
 z  talco
Ejercicio 1: Evaluamos la cadena de símbolos Sa:

 Sa es una fbf y una sentencia de LPO* (no contiene variables libres)


 Por RSF1, [Sa]BJ = 1 syss [a]BJ ∈ [S]BJ
 En virtud de g, [a]BJ = talco, [S]BJ = {talco, yeso, calcita}
 Dado que talco ∈ {talco, yeso, calcita}, entonces [Sa]BJ = 1
 Puesto que Sa es una sentencia, [Sa]B = 1

Ejercicio 2: Evaluamos la cadena de símbolos ∃xSx:

 ∃xSx es una fbf y es una sentencia de LPO*


 Por RFS4, [∃xSx]BJ = 1 syss al menos un elemento del dominio cumple que
[Sx]BJ = 1
 En virtud de g y J, [Jx1]BJ = talco, [S]BJ = {talco, yeso, calcita}
 Dado que talco ∈ {talco, yeso, calcita}, entonces [∃xSx]BJ = 1
 Puesto que ∃xSx es una sentencia, [∃xSx]BJ = [∃xSx]B = 1

Ejercicio 3: Evaluamos la cadena de símbolos Rax (resumidamente):

 Es una fbf y una función sentencial


 Por RSF1, [Rax]BJ = 1 syss <[a]BJ, [x]BJ> ∈ [R]BJ
 En virtud de g y J, [a]BJ = talco, [x]BJ = fluorita (al no haber cuantificador, solo
puedo usar la inicial), formando el par <talco, fluorita>
 <talco, fluorita> no está en R
 [Rax]BJ = 0
Puesto que Rax es una función sentencial no podemos neutralizar la asignación

Segunda vuelta a la Teoría de la verdad de Tarski

En el primer tema hemos visto la teoría de la verdad de Tarski para una semántica
veritativo-funcional. Ahora veremos su teoría para una semántica modelo-teórica. Dicha
teoría la funda en dos artículos, uno de 1933 llamado “El concepto de verdad en los
lenguajes formalizados”, que es el que vamos a ver, y otro de 1936 llamado “El
concepto de consecuencia lógica” en el que se acerca más a la notación y teoría
actuales. Para fundar su teoría necesita de dos predicados: “verdadero” y “satisfacible”.
Los lenguajes que admiten esta teoría son aquellos compuestos por fbfs y por unas
determinadas reglas de transformación (lo que llamamos un sistema formal). Hay que
tener en cuenta que Tarski aún no ha acuñado el concepto posibles realizaciones.

Lo que Tarski necesita es hacer algo parecido a las convenciones T, algo que le permita
unir 2 sistemas. Para ello toma una expresión bien formada, le da un nombre y una
traducción en el metalenguaje y le asigna a la expresión una instancia de T similar a la
convención T. Así, a la expresión le corresponde la instancia de T “nombre es una
sentencia verdadera syss traducción”

EJEMPLO:

1. ∀x∀y(x⊆y ˅ y⊆x) es una expresión bien formada


2. El nombre de esta sentencia en nuestro metalenguaje es:
3. La traducción en el metalenguaje es: “Para cualesquiera dos conjuntos, el
primero está incluido en el segundo o viceversa”
4. Si aplicamos la convención T, tendremos que a la sentencia del lenguaje objeto
(∀x∀y(x⊆y ˅ y⊆x)) le corresponde la siguiente instancia de T:
“^1^2(i1,2 + i2,1) es una sentencia verdadera syss para cualesquiera dos conjuntos,
el primero está incluido en el segundo o viceversa”

Decir que “la expresión es verdadera syss se da su traducción” es a fin de cuentas lo


mismo que decir “X es verdadero syss p”, ambas dicen “nombre es verdadera syss
traducción”.

Para hacer esto necesitamos establecer un lenguaje objeto con una lista de signos
y expresiones básicas, construir un metalenguaje con sus signos y expresiones y
establecer convencionalmente nombres y traducciones (convenciones T) a través de las
cuales el metalenguaje se pueda relacionar con el lenguaje objeto.

No podemos olvidarnos de dos cosas ya vistas en el anterior tema. La primera es


que para construir el lenguaje completo es necesario hacer todas sus convenciones T. La
segunda es que este concepto de verdad es semántico y absoluto, no relativo.

El problema que tenemos en la LPO* es que el trabajo con funciones


sentenciales, ya que, como hemos visto antes, si hay variables libres necesito dejar la
interpretación en función de una asignación. Es aquí donde aparece el segundo
concepto: satisfacción.
Para entender la idea de satisfacción de Tarski es necesario entender primero las
secuencias infinitas. Si nos enfrentamos a un término con un predicado monario Px, a x
le asignaremos α sin que esto de más problemas. Ahora bien, si el predicado es binario
(Rxy) empezamos a tener más problemas, pues tendremos que asignarle la dupla <α, β>,
con lo que tendremos que pasar todos los objetos de β para todos los objetos de α. Es
para solventar este problema que Tarski usa las secuencias infinitas.

Una secuencia infinita es un conjunto ordenado de infinitos elementos. Por


ejemplo, puedo tener la secuencia infinita <mesa, 1, ▲, ■, coche,…> o la secuencia
infinita <3, 5, 12, 24, …>. Así, cuando tengamos variables libres en una función
sentencial, le asignaremos a la primera variable libre de la función sentencial el primer
objeto de la secuencia infinita, a la segunda variable le asignaremos el segundo objeto, a
la tercera el tercero y así hasta completarlas todas. En el resto de sus apariciones le
asignaremos el mismo objeto asignado. Por ejemplo:

“x es un número primo” (Px)

 <3, 5, 12, 24,…>  “3 es un número primo”  V


 <12, 24, 3, 12, …>  “12 es un número primo”  F (x3, sí lo sería)

Se ve ahora claramente el concepto de satisfacción: una secuencia infinita satisface una


función sentencial cuando la hace verdadera. Así, la primera secuencia infinita satisface
Px, pero la segunda no. Veamos otro caso:

<mesa, 1, ▲, ■, coche,…>

 “x1 es rectangular”  mesa es rectangular  Verdadero


 “x4 es rectangular”  ■ es rectangular  Verdadero

Dado que hay un número infinito de secuencias con un número infinito de objetos y un
número infinito de puestos que pueden ocupar los objetos, hacer verdadera una
sentencia “x518 es rectangular” es tan sencillo como coger la secuencia infinita que tiene
un elemento rectangular en la posición 518. Esto podríamos decirlo como coger un
elemento rectangular y ponerlo en la posición 518, pero no se trata de que podamos
modificar las sentencias sino de que hay una sentencia en la que ese objeto ocupa esa
posición. En caso de que exista una secuencia que satisfaga la expresión, no se trata de
que la construyamos, existe, está.

Pensemos ahora en la función sentencial “x 14 es más alto que x523”. Esta función
sentencial será satisfecha por cualquier secuencia de objetos tal que el objeto nº14 sea
más lato que el objeto nº523. El resto de objetos no importan, de modo que tenemos un
número infinito de secuencias a su vez infinita que satisfacen nuestra función sentencial.
Esto es exactamente lo mismo que las asignaciones individuales, pero complicando todo
un poquito más (es el paso previo).

Paso de satisfacción a verdad

Sea la sentencia ∀x4Fx4 y la secuencia de objetos S:

1) Se debe satisfacer la función sentencial que crearíamos borrando el cuantificador (i.e.:


“Fx4”), de tal forma que sea cual sea el objeto que ocupe el cuarto lugar en S, ese objeto
debe ser F.
2) La misma función sentencial debe ser satisfecha por cualquier otra secuencia idéntica a
S excepto que tiene a un objeto distinto en el cuarto lugar.

Ejemplo:

S: <1,2,3,__, 5,6,…>

Por la cuarta posición desfilan todos los objetos, ya que queremos decir que todos los objetos
del mundo son F (por ejemplo, todos los objetos del universo son materiales, base fundamental
del materialismo) Si la sentencia es ∃x4Fx4, basta con que un objeto que pase por x4 sea F.

Definición técnica de verdad: Verdad es satisfacción (en este caso de la sentencia


universalmente cuantificada) por todas las secuencias. La definición resultante
implicaría a todas las sentencias T correspondientes a cada sentencia del lenguaje
universalmente cuantificado. Una expresión de la forma “∀xkΦ” es satisfecha por una
secuencia S syss Φ es satisfecha por todas las secuencias que difieren de S en, como
máximo, la posición k-ésima.

Así mismo, verdad es satisfacción (en este caso de la sentencia existencialmente


cuantificada) por al menos una secuencia. La definición resultante implicaría a todas las
sentencias T correspondientes a cada sentencia del lenguaje existencialmente
cuantificado. Una expresión de la forma “∃xkΦ” es satisfecha por una secuencia S syss
Φ es satisfecha por alguna secuencia que difiera de S en, como máximo, la posición k-
ésima.

EJEMPLO: Para un lenguaje muy reducido:

- En este leguaje, para el que definiremos “satisfacción”, hay sólo dos


predicados: “es rojo”, “ama”
- No asignaremos nombres de objeto al lenguaje, así que sólo hablaremos de
sentencias (i.e., cuantificando sobre las variables de individuo)
- Sólo manejaremos, además, dos operadores veritativo-funcionales (ctes.
lógicas): “no” y “o”
- Contamos con un conjunto infinito de variables
- A, B y Z (originalmente θ, Φ y ψ) designan sentencias y funciones
sentenciales;
- j y k designan números enteros
- Finalmente, “¬” quiere decir “no”
 Definición de satisfacción y de verdad para este lenguaje
 ∀A[A es satisfecho por una secuencia infinita S
o syss (A = “xk es rojo” para algún k, y el objeto k-ésimo en S es rojo)
o ó (A = “xk ama a xj” para algunos k y j, y el objeto k-ésima en S ama al
objeto j-ésimo en S)
o ó (A = “¬B” y S no satisface B)
o ó (A = “C ó B” y o bien S satisface C o satisface B)
o ó (A = “∀xkB” y toda secuencia que difiere de S en, como máximo, la
posición k satisface B)
o ó (A = “∃xkB” y alguna secuencia que difiere de S en, como máximo, la
posición k satisface B)]

Todo este proceso lo simplifica en 1936 al acuñar las posibles realizaciones. En esta
versión más manejable, en lugar de satisfacción y verdad hablamos de asignación y de
mirar el valor de verdad.

Lógica de Primer Orden extendida, ascendida o con identidad

Hasta ahora las constantes de individuo (a, b, c…) han sustituido en la


formalización tanto a los nombres propios (Pedro) como a las descripciones (El padre
de Juan). Esto en un contexto extensional es válido, pues Pedro y el padre de Juan son el
mismo individuo. Sin embargo en un contexto intensional como es la semántica resulta
insuficiente. Esto lo veremos más en filosofía del lenguaje, pero una descripción no
necesariamente nos da una definición adecuada del nombre. La relación descripción,
nombre, definición, significado supone una problemática que, en este momento, no es
de nuestro interés.

En cualquier caso, es necesario distinguir entre nombre y descripción. Para hacer esto es
necesario incluir tres nuevos elementos: descriptores, functores e identidad.

Descriptores
Para expresiones como “el menor número primo” o “el rey calvo” queremos una
estructura que, sin términos individuales, denote un único individuo. Así, para el rey
calvo podemos emplear dos propiedades como C (ser calvo) y R (ser rey): Cx^Rx Pero
nos falta un signo para “El (único objeto tal que)”. Esto podemos hacerlo de muchas
formas, por ejemplo, a través de una cuantificación numérica que me permita decir hay
exactamente 1 objetos (o 2, o 4 o, o los que sean) tal que Cx^Rx.

Nosotros vamos a emplear la letra iota: “ι”. La letra ι es un descriptor que se refiere a un
único objeto del domino. Así, la formalización de nuestro término individual complejo
“El rey calvo” será:

ιx(Rx^Cx).

Functores
Los functores son también términos individuales complejos que permiten
analizar expresiones como las vistas. Así, si quiero formalizar “la capital de Francia”
puedo dividir la expresión en “Francia” (y denotarla mediante a) y “la capital de”. Esta
segunda parte se suele simbolizar mediante un functor, normalmente una “f”, una “g”,
etc. Así tenemos:

o a = Francia, b = EEUU, c = Perú; f = la capital de.


o fa = la capital de Francia
o fb = la capital de EEUU
o fc = la capital de Perú

Así mismo, podemos construir expresiones como:

 “La madre de Pedro”: fb (functor monario)


 “La madre de la madre de Pedro”: ffb (functor monario)
 “La suma de tres y cinco”: gcd (functor binario)

Y expresiones cuantifiadas como:

“Existen dos números naturales tales que su producto es igual a 5”: ∃x∃y (hxy = e)

Ojo: esta misma expresión podríamos formalizarla como ιxyMxa.

Identidad
Frege, sentido y referencia. La identidad es una constante lógica que, una vez
combinada con dos términos de individuo de LPO, genera una fbf de LPO. Su
construcción varía con respecto al uso de otras variables de predicado, pues no es sólo
una constante lógica, sino que corresponde a una relación determinada. Cuando
contemplamos la identidad como constante lógica que es, se garantiza que su valor
semántico no depende de la función de interpretación que elijamos: la denotación de
“=” es invariante en toda posible realización.

En una lógica extensional ni a=a ni a=b nos dicen nada, no aportan ningún tipo de
información. Sin embargo, en un contexto intensional, a=b nos aporta una gran
información. Decir que a=a no lo hace (supermán es supermán, pos ok). Decir que b=b
tampoco (Clark Kent = Clark Kent, pos ok x2). Sin embargo, decir a=b supone una
nueva información relevante (Supermán = Clark Kent, alerta spoiler).

Posible realización
Las posibles realizaciones requieren denotaciones para las nuevas expresiones
básicas de LPO. Los functores los expresaremos como f1,…,fn. Así, nuestro sistema será

A = <A, a1,…,ak, f1,…fm, R1,…Rn>

A = <A, f>

Así mismo, nuestro fragmento de lenguaje con todas las constantes lógicas, cinco
constantes de individuo (a, b, c, d, e), una variable funcional o functor (f), una variable
predicativa monádica (P) y una variable predicativa diádica (R) quedará de la siguiente
forma:

B = <B, □, ○, ▼, ■, f, P, R>

Semántica estándar para LPO


Dada una posible realización A = <A, f> y una asignación J para LPO donde:

1. Si a es una constante de individuo de LPO, f(a) ∈ A (dominio)

2. Si f es un functor r-ádico de LPO, entonces f(f): Ar A (operación cartesiana


r veces)

3. Si R es un predicado s-ádico de LPO, entonces f(R) ∈ As

4. J: VAR A, donde VAR es el conjunto de variables de individuo del LPO

REGLAS

- R1) Sea a cualquier constante de individuo de LPO, entonces [a]AJ = f(a)

Sea x cualquier variable de individuo de LPO, entonces [x]AJ = J(x)

- R2) Dado un functor r-ádico cualquiera de LPO, f, donde r ≥1, y una


sucesión cualquiera de r términos de individuo del lenguaje, t1,…,tr,

[f(t1,…,tr)]AJ = [f]AJ(<[t1]AJ, [t2]AJ,…, [tr]AJ>)

- R3) Dado un predicado n-ádico cualquiera del lenguaje R, y una sucesión


cualquiera de n términos de individuo del lenguaje, t1,…,tn, se dice que:

[Rt1…tn]AJ = 1 syss <[t1]AJ, [t2]AJ,…, [tn]AJ> ∈ [R]AJ


- R4) Dados dos términos de individuo de LPO, t1 y t2, entonces decimos que:

[t1 = t2]AJ = 1 syss [t1]AJ = [t2]AJ

- R5) Si A es una fbf del LPO*, entonces [¬A]AJ = 1 syss [A]AJ = 0


- R6) Si A y B son fbfs del LPO*, entonces:

[A˅B]AJ = 1 syss [A]AJ = 1 o [B]AJ = 1


[A^B]AJ = 1 syss [A]AJ = 1 y [B]AJ = 1
[AB]AJ = 1 syss [A]AJ = 0 o [B]AJ = 1
- R7) Si A es una fbf del LPO*, entonces:
1. [∃xA]AJ = 1 syss para al menos un elemento α (entidad) del dominio
A, se cumple que [A]AJ = 1.
Se escribe aquí “Jxα”, aunque sólo posee la peculiaridad de que,
posiblemente, asigna α a la variable de individuo x. Igual α no, pero β
sí vale. Habrá que ver cada caso hasta dar con el que nos viene bien.

2. [∀xA]AJ = 1 syss para todo elemento α del dominio A se cumple que


[A]AJ=1.
J se escribe aquí “Jxα”, aunque sólo posee la peculiaridad de que,
posiblemente asigna α a la variable de individuo x.

Definiciones para la evaluación semántica:

- Si A es una fbf del LPO, entonces [A] A = 1 por definición syss [A]AJ = 1 para
toda asignación J.
- Si A es una fbf del LPO, entonces [A] A = 0 por definición syss [A]AJ = 0 para
toda asignación J.

EJEMPLO:

- Lenguaje: B = <B, □, ○, ▼, ■, f, P, R>


- Dominio: B = {□, ○, ▼, ■}
- Valor semántico de las constantes de individuo:
- [a]B = □; [b]B = □; [c]B = ○; [d]B = ▼; [e]B = ■
- Functor f:
- ■ ○ □ ▼ ○■ ▼○
- Predicados:
- [P]B = P = {▼}
- [R]B = R = {<▼, ▼>, <□,▼>, <▼,○>}
- Asignación: J: {<x, ■>, <y, ○>, <z, ○>}

Ejercicio 1: Secuencia de símbolos a evaluar: (∃xyRxy) ^ (x=z)

(1) La secuencia de símbolos es una función sentencial y una fbf de la LPO.


(2) Por la regla de la semántica formal de la conjunción (RSF6.2), [(∃xyRxy) ^
(x=z)]BJ = 1 syss [∃xyRxy]BJ = 1 y [x=z]BJ = 1.
(3) Por la regla de la semántica formal del cuantificador existencial (RSF 7.1),
[∃xyRxy]BJ = 1 syss hay al menos una interpretación para la que [Rxy]BJ = 1.
(4) Por la regla de la semántica formal de los predicados (RSF3), [Rxy] BJ = 1 syss el
par formado por <[x]BJ, [y]BJ> ∈ [R]B.
- Para la interpretación J1: {<x, ▼>, <y, ▼>, <z, ○>}, tenemos Jx1 = ▼, Jy1 =
▼, por lo que el par Rxy es <▼,▼>. Así mismo, [R]B = {<▼, ▼>, <□,▼>,
<▼,○>}
- Dado que el par <▼,▼> ∈ [R]B, [Rxy]BJ = 1, y por lo tanto [∃xyRxy]BJ = 1
5. Por la regla de la semántica formal de la identidad (RSF4) [x=z] BJ = 1 syss
[x]BJ=[z]BJ
- Para la asignación inicial J, [x]BJ = ■, [z]BJ = ○.
- Dado que ■ =! ○, [x]BJ =! [z]BJ y, por lo tanto, [x=z]BJ = 0.
6. Dado que [∃xyRxy]BJ = 1 y [x=z]BJ = 0, [(∃xyRxy) ^ (x=z)]BJ = 0.
7. Puesto que se trata de una función sentencial, no se puede neutralizar la
asignación.

Consecuencia, verdad y equivalencia lógicas

 Definición 1 – CONSECUENCIA LÓGICA:

Una sentencia β es consecuencia lógica de un conjunto {α 1, …, αn} sysssdef para toda


interpretación I, si I(α1) = q y… y I(αn) = 1, entonces I(β) = 1.

Esto nos brinda una excelente herramienta: la prueba de independencia de la conclusión


con respecto de las premisas. De forma general, no podemos demostrar que un
argumento sea válido, pues hay infinitas interpretaciones (más adelante veremos que sí
hay una posibilidad). Lo que sí podemos demostrar es que un argumento no es válido.
Esto lo haremos haciendo falsa la conclusión para unas premisas verdaderas (10).

Demostración de la consecuencia lógica

En algunos casos puede demostrarse que β es consecuencia lógica de las {α1, …, αn}.
1. Suponemos que β no es consecuencia lógica de las α1, …, αn. Es el caso
contrario a la definición: Hay una I, tal que I(αsub1) = ,…, I(αsubn) = 1, e I(β) =
0
2. Se da el caso de que una I como ésta ha de asignar entidades diferentes a, al
menos, uno de los signos involucrados
3. Si esa I es así, entonces no hay interpretación que impida que β sea consecuencia
lógica de {α1, …, αn}

 Definición 2 – VERDAD LÓGICA

Una sentencia α es una verdad lógica syssdef para toda I, I(α) = 1.

Demostración de la verdad lógica

Hacemos una reducción al absurdo.

1. Suponemos que α no es una verdad lógica y que, por lo tanto, una cierta
interpretación, I, la hace falsa.
2. Se da el caso de que, para ello, I debe asignar dos entidades distintas a un mismo
signo.
3. Si I es así, entonces no hay ninguna interpretación que haga falsa la sentencia,
con lo que α es una verdad lógica

 Definición 3 – EQUIVALENCIA LÓGICA

Dos sentencias α y β son lógicamente equivalentes syssdef para toda I, I(α) = I(β).

Demostración de la equivalencia lógica

1. Suponemos que una interpretación hace falsa a la primera y verdadera a la


segunda
2. Al no poder encontrarla, suponemos que una interpretación hace verdadera a la
primera y falsa a la segunda
3. Si tampoco la encontramos, estamos ante una equivalencia lógica

Conjuntos independientes

Ninguna de las proposiciones del conjunto es consecuencia del resto. En este caso,
cada proposición del conjunto aporta una información nueva, son afirmaciones con
un sentido propio.

RECOMENDACIONES PARA LOS EJERCICIOS:


Si recordamos algunos conceptos del tema anterior, vemos que una sentencia o un
conjunto de estas es satisfacible cuando una instancia la hace verdadera, esto es, cuando
al menos una interpretación la satisface. Así mismo, una sentencia o un conjunto de
sentencias es insatisfacible si no hay ninguna interpretación que la haga verdadera.
También hay sentencias o conjuntos de estas que son contingentes, esto es, tanto ellas
como sus negaciones son satisfacibles. Recordar también los conceptos de tautología
(todas las interpretaciones la hacen verdadera) y contradicción (ninguna de las
interpretaciones la hace verdadera).

Universo de discurso: En la lógica de primer orden, a diferencia de en la lógica


proposicional, una misma sentencia puede resultar verdadera o falsa dependiendo de su
universo de discurso.

Veamos un ejemplo: ∀x Rxa

1. Si el dominio (o universo de discurso) fuese los números naturales, R


representase la relación “mayor o igual que” y a refiriera el 0,
diríamos que todo número natural es mayor o igual que 0, lo cual
sería verdadero.
2. Si el dominio (o universo de discurso) fuese el mismo pero la
relación fuese ahora “mayor que” y a siguiera refiriendo el 0,
entonces sería falsa – pues es falso que todo número natural sea
mayor que 0 (el 0 es un número natural y no es mayor que sí mismo)
3. Si la relación R fuese “mayor o igual que” y a fuese el 3, entonces la
sentencia también sería falsa por motivos semejantes a los anteriores.
4. Si las variables de la sentencia tuviesen como dominio {*,#,€}, R
fuera la relación {<*,#>,<#,#>,<€,#>,<#,*>} y a fuese #, entonces
sería verdadera – pues todos los objetos del dominio tienen a su
derecha una #.
5. Si ahora a fuese *, entonces sería falsa, pues sólo un miembro del
dominio formaría una dupla como la reflejada en la relación (y todos
los objetos del universo de discurso deberían formarla).

Ojo: Según el ejercicio, será más conveniente modificar el dominio de discurso, la


relación o las constantes. Además, el dominio no puede estar vacío. La relación sí, pero
el dominio no.

Esto nos plantea un problema, pues no podemos hacer una exploración interpretación a
interpretación como sí nos permitía hacer una tabla de verdad en la lógico
proposicional. Por lo tanto, no podemos decidir en términos absolutos si una fórmula es
verdadera o falsa. Dicho de otra forma, es indecidible, pues no hay un procedimiento
mecánico finito que nos permita decidir si la fórmula es verdadera. Además, si yo no
consigo hacerla verdadera quiere decir que yo no lo he conseguido, no que no pueda ser
verdadera. Este es el problema de las infinitas interpretaciones.

Ejercicios que nos pueden plantear (ejemplos más adelante)

- Averiguar si una fórmula es satisfacible: Establecemos un sistema para el


que la fórmula es satisfacible. Para ello:
1. Definimos un dominio (no puede estar vacío)
2. Definimos las relaciones y los predicados
3. Si los hay, asignamos individuos destacados
- Averiguar si una fórmula es contingente: Establecemos dos sistemas: uno
que haga verdadera la fórmula y otro que la haga falsa.
- Averiguar si una fórmula es insatisfacible: No vale con dar un sistema que la
haga falsa. En este caso, lo hacemos un poco “a ojímetro”. Tratamos de dar
una interpretación que sí la hace verdadera. Si damos con ella la fórmula será
satisfacible y, probablemente, contingente (aunque puede que tautológica).

- Averiguar si un conjunto de fórmulas es satisfacible: Tratamos de establecer


un sistema para el que todas las fórmulas sean satisfacibles a la vez.
- Averiguar si un conjunto de fórmulas es contingente: Establecemos dos
sistemas, uno que haga verdaderas a todas las fórmulas y otro que haga
falsas a todas las fórmulas.
- Hacer que en un conjunto de fórmulas algunas sean verdaderas y otras falsas:
Damos un sistema que cumpla los requisitos. Por aquí es por donde tira en
el examen.
- Averiguar si un sistema es insatisfacible: Hacemos una especie de reducción
al absurdo. Para ello:
1. Asumimos que es satisfacible
2. Para ello, todas las sentencias son verdaderas bajo alguna
interpretación
3. Si llegamos a alguna contradicción, el conjunto no es satisfacible.
- Demostración de una consecuencia lógica: De forma general no podremos
hacerlo, aunque en algunas fórmulas concretas sí.
- Averiguar si estamos ante un argumento válido o demostración de que una
conclusión no es consecuencia de las premisas: Prueba de independencia
(ejercicio más adelante)
- Demostración de que un conjunto está formado por sentencias
independientes (conjuntos independientes): Para resolverlo, se comprueba
que cada sentencia no es conclusión de las otras dos.
- Demostrar que una fórmula es una verdad lógica: Suponemos que no lo es y
llegamos a una contradicción (reducción al absurdo).
- Demostrar que una fórmula no es una verdad lógica: Buscamos un caso en el
que la fórmula no quede satisfecha.
- Probar que dos fórmulas son equivalentes: Por reducción al absurdo,
intentamos dar un caso en el que la primera fórmula sea verdadera y la
segunda falsa. En caso negativo, buscamos un caso en el que la primera sea
falsa y la segunda verdadera. Si no hay ninguno, estamos ante dos fórmulas
equivalentes.

EJERCICIOS
Demostrar que ∀x((Px^¬x=a) ∃yRyx es una fbf contingente

Para demostrar que es contingente, damos dos sistemas, uno que la haga
verdadera y otro que la haga falsa.

Esta fórmula nos dice que todo objeto distinto de a y perteneciente a P ocupa un
lugar a la derecha de y en R.

- Sistema que la hace verdadera:

A = {1,2,3,4,5}
P = {1,3,5}
R = {<1,5>, <2,2>,<3,5>,<4,1>}
a=3
- Sistema que la hace falsa:
A = {1,2,3,4,5}; P = {1,3,5}; R = {<2,2>,<4,1>}; a = 3
Conclusión: la fórmula es contingente, ya que hay una interpretación bajo la
cual es verdadera y otra interpretación bajo la que es falsa.

Demostrar que ∀x(Px¬Px) es insatisfacible


Las interpretaciones más comunes la hacen falsa: un objeto no puede pertenecer y no
pertenecer a P al mismo tiempo. Sin embargo, una interpretación sí la hace verdadera:
aquella que hace que P = ø. Esta interpretación hace falso el antecedente y, por lo tanto,
la hace verdadera: la sentencia es contingente.
Vemos con este ejemplo como el conjunto vacío nos puede echar una mano en muchas
situaciones, aunque el dominio NUNCA puede estar vacío, tan solo relatores y
predicados.

Compruébese si el siguiente conjunto de fórmulas es satisfacible:

∀x(¬x=aPx), ∃x(Px^Rax), ∀x∃yRxy

Interpretaciones informales:

- Todo objeto del dominio, excepto quizás a, es P


- Hay al menos un objeto del dominio que es P y que está a la derecha de a en R
- Para todo objeto del dominio, hay al menos un segundo objeto del dominio que
está a la izquierda de él en R.

Consejo: nos olvidamos de virtuosismos, nos vale con que lo satisfaga.

La siguiente interpretación hace a las tres sentencias verdaderas a la vez:

1. Dominio: A = {1,2,3,4}
2. P = {1,2,3,4}
3. R = {<2,3>,<1,2>, <3,2>, <4,3>,<4,2>}
4. a = 2.

¿Es ∀x(PxQx), Pa, ¬Qa un conjunto insatisfacible?

1. Asumimos que es satisfacible (lo hacemos por reducción al absurdo)


2. Para ello, las tres sentencias son verdaderas bajo alguna interpretación
3. De los dos últimos se sigue que, para un individuo destacado, a, si éste es P,
entonces no es Q.
4. Pero de la primera sentencia se sigue que si algo es P, entonces es Q (no es el
caso que Px ^ ¬Qx
5. No hay interpretación que cumple estas condiciones (a no puede pertenecer y no
pertenecer a Q al mismo tiempo), luego el conjunto no es satisfacible.

 Ejercicios de prueba de independencia

Muéstrese que Pa no es consecuencia lógica de {∀x(Px  Qx), Qa}

Pa no será consecuencia lógica si Pa es falsa mientras ∀x(Px  Qx) y Qa son


verdaderas.

Hay que dar una prueba de la independencia de Pa con respecto a.

A = {1,2,3}; I(a) = 1; I(P) = 2; I (Q) = {1,2}


Muéstrese que ∃x(Px^Rx) no es consecuencia lógica de {∀x(PxQx), ∃x(Qx^Rx)}

A = {1,2,3,4}; I(P) = {1}; I(Q) = {1,2}; I(R) = {2,3}


Ejercicio de conjunto independiente

Muéstrese que el conjunto {∀x(PxRxa), ∀x∃yRxy, ∀xy(RxyRyx)}

Demostración de que ∀xy(RxyRyx) no es consecuencia de ∀x(PxRxa) y ∀x∃yRxy

A = {1,2,3}; I(a) = 1; I(P) = {1,2}; I(R) = {<1,1>, <2,1>,<3,3>}

Demostración de que ∀x∃yRxy no es consecuencia de ∀x(PxRxa) y ∀xy(RxyRyx)

A = {1,2,3}; I(a) = 1; I(P) = {1,2}; I(R) = {<1,1>,<2,1>,<1,2>}

Demostración de que ∀x(PxRxa) no es consecuencia de ∀x∃yRxy y ∀xy(RxyRyx)

A = {1,2,3}; I(a) = 2; I(P) = {1,2}; I(R) = {<1,1>, <2,1>,<1,2>, <3,3>}

Se trata de un conjunto independiente, pues ninguna de sus fórmulas es consecuencia


lógica de las otras.

Ejercicio de verdad lógica

Muéstrese que ∀x(PxRxa) no es una verdad lógica

Para demostrarlo, buscamos un caso en el que no se cumpla, por ejemplo:

A = {1,2,3}; I(a) = 1; I(P) = {1,2}; I(R) = {<1,1>,<2,1>,<1,3>}

Por lo tanto, no es una verdad lógica.

Ejercicio de equivalencia lógica

Muéstrese que ∀x(Px^Qx) es lógicamente equivalente a ∀xPx^∀xQx

1. Supongamos que una interpretación hace falsa la primera y verdadera la


segunda.
2. De la verdad de la segunda se sigue que I(∀xPx) = 1 y I(∀xQx) = 1.
3. De esto se sigue que todo objeto del dominio está en P y en Q a la vez.
4. Esto se opone a que I(∀x(Px^Qx)) = 0, con lo que no es posible la
interpretación que suponíamos en (1).
5. Supongamos que una interpretación hace verdadera la primera y falsa la
segunda.
6. De la falsedad de la segunda se sigue que I(∀xPx) = 0 o I(∀xQx) = 0.
7. Dado que I(∀x(Px^Qx)) = 1, todo objeto del dominio está en P y en Q a la
vez.
8. Así, ni I(∀xPx) = 0 ni I(∀xQx) = 0.
9. Esto se opone a lo que suponíamos en (5)
10. De ello sacamos que siempre que la primera sea verdadera la segunda también lo
será, mientras que siempre que la primera sea falsa la segunda también lo será.
Debido a esto, ambas fórmulas son lógicamente equivalentes.

OTRAS RESOLUCIONES

Demostrar que ∀x((Px^¬x=a) ∃yRyx es una fbf contingente

Para demostrar que es contingente, damos dos sistemas, uno que la haga verdadera y
otro que la haga falsa.

Esta fórmula nos dice que todo objeto distinto de a y perteneciente a P ocupa un lugar a
la derecha de y en R.

- Sistema que la hace verdadera:

A = {Zaragoza, Barcelona, Madrid}

P = {Zaragoza, Barcelona}

R = {<Madrid, Zaragoza>, <Madrid, Barcelona>}

a = Madrid

De acuerdo con este sistema:

5. Para x = Zaragoza: La conjunción es verdadera (Px es verdadera y la no


igualdad también) y existe un elemento de y (Madrid) tal que está a la izquierda
de Zaragoza.
6. Para x = Barcelona: La conjunción es verdadera y existe un elemento de y
(Madrid) tal que está a la izquierda de Zaragoza.
7. Para x = Madrid: La conjunción es falsa, pero también lo es el consecuente.

Por lo tanto, para todo x la fórmula es verdadera.

- Sistema que la hace falsa:

El condicional se hace falso si 10

A = {Zaragoza, Barcelona, Madrid}

P = {Barcelona}

R = {<Zaragoza, Madrid>}

a = Madrid
Para x = Barcelona: hay un objeto en P que es distinto de a y que no tiene a su izquierda
a alguien en R

Conclusión: la fórmula es contingente, ya que hay una interpretación bajo la cual es


verdadera y otra interpretación bajo la que es falsa.

Compruébese si el siguiente conjunto de fórmulas es satisfacible:

∀x(¬x=aPx), ∃x(Px^Rax), ∀x∃yRxy

A = {Zaragoza, Barcelona, Madrid}

a = Madrid

P = {Zaragoza, Barcelona}

R = {<Madrid, Zaragoza>, <Barcelona, Madrid>, <Zaragoza, Barcelona>}

Para el universal, me tengo que asegurar de que los elementos del dominio que no sean
el individuo destacado (que no sea Madrid) estén en P. Para el existencial me tengo que
preocupar de que haya algo en P y de que haya un caso en R en el que el individuo
destacado (Madrid) esté a la izquierda de un objeto que está en P. Para el tercero, todo
objeto del dominio tiene que estar a la izquierda en un par de R (tanto Madrid como
Barcelona como Zaragoza han de estar a la izquierda en un par).

En mi ejemplo, para el primer universal Zaragoza y Barcelona están en P. En el caso de


Madrid, da igual si está en P o no, pues el antecedente ya es falso. No lo he metido, pero
podría estar. En el existencial, se cumple que un objeto de x (Zaragoza) tiene a su
izquierda a Madrid (a). En la última fórmula, todos los objetos del dominio tienen a un
elemento a su derecha en R: Zaragoza tiene a Barcelona; Barcelona tiene a Madrid;
Madrid tiene a Zaragoza. Salvo en el de Zaragoza, por el existencial, podría haber
puesto cualquier objeto a la derecha (por ejemplo, R = {<Zaragoza, Madrid>, <Madrid,
Madrid>, <Barcelona, Madrid>}).

 Ejercicio de prueba de independencia

Muéstrese que Pa no es consecuencia lógica de {∀x(Px  Qx), Qa}

Pa no será consecuencia lógica si Pa es falsa mientras ∀x(Px  Qx) y Qa son


verdaderas.

Para ello: P no incluye a a.

A = {Zaragoza, Barcelona, Madird }

P = {Barcelona, Madrid}

a = Zaragoza
Ahora, hacemos verdadero Qa:

Q = {Zaragoza}

Por último, tratamos de hacer verdadero ∀x(Px  Qx):


Si x es Zaragoza, no está en P y el condicional es verdadero.

Si x es Barcelona, está en P y no está en Q, el condicional es falso. Modifico Q:

Q = {Zaragoza, Barcelona}

Si x es Madrid, está en P y no está en Q, el condicional es falso. Modifico Q:

Q = {Zaragoza, Barcelona, Madrid}

Solución: Para A = {Zaragoza, Barcelona, Madrid}; P = {Barcelona, Madrid}; a =


Zaragoza; Q = {Zaragoza, Barcelona, Madrid}, vemos que la conclusión Pa es falsa
mientras que las premisas ∀x(Px  Qx) y Qa son verdaderas. Dado que el condicional
es 10, es falso y por lo tanto el argumento no es válido (que la consecuencia sea
verdadera puede ser algo casual, algo no derivado de las premisas).

Muéstrese que ∃x(Px^Rx) no es consecuencia lógica de {∀x(PxQx), ∃x(Qx^Rx)}

Necesito:

1. Por conclusión falsa: Ninguno de los objetos de P está en R (y al revés)


2. Por primera premisa: Todo lo que esté en P estará en Q
3. Por segunda premisa: Un objeto que esté en Q y no esté en R

A = {Zaragoza, Barcelona, Madrid}; I(P) = {Zaragoza}; I(Q) = {Zaragoza, Madrid};


I(R) = {Madrid, Barcelona}

La conclusión es falsa, pues Zaragoza (P) no está en R y Madrid y Barcelona (R) no


están en P. La primera premisa es verdadera, pues todos los objetos de P (Zaragoza)
están en Q. La tercera premisa es verdadera, pues existe un elemento que está en Q y en
R (Madrid).

Otra posible solución es:

A = {Zaragoza, Barcelona, Madrid}; I(P) = {}; I(Q) = {Zaragoza}; I(R) = {Zaragoza}


TEMA 3

OTRAS LÓGICAS: UNA INTRODUCCIÓN


Vamos a ver teoría así que a ver que tal. No nos vamos a exceder demasiado con
nuestras pretensiones. También habla de lógica filosófica como término incorrecto, ya
que no se puede aplicar. Lógica como algo semejante a las matemáticas. Hablaremos de
semejanzas con otras disciplinas como la filosofía del lenguaje y la filosofía de las
matemáticas.

La filosofía del lenguaje: después de Frege, que va más allá de Aristóteles, se va


a iniciar una forma de abordar la filosofía eliminando las impurezas (Wittgenstein) Se
trata de eliminar cosas, no se subir. Esto realimenta la lógica, pues no solo los lógicos
desarrollan sistemas, sino que los filósofos tendrán interés en desarrollar la lógica a
través de estas herramientas.

DAVIDSON: se da la mano con los problemas de la filosofía analítica. Los problemas


filosóficos son considerados como pseudoproblemas en muchas ocasiones, lo de
construir sistemas es un modo de complicar la movida. Hay que construir teorías del
significado a las que, hay que reducir todo a problemas lingüísticos. Este es el programa
inicial, pero a partir de los 70 se desvía. ¿Por qué construir una teoría del significado?
Por que así no hace falta construir un sistema. Cuando el programa se agota, la filosofía
de la lógica se convertirá en algo mucho más plural y que tiene recursos que no solo se
adecuan al lenguaje: ciencia cognitiva, etc, etc. El análisis filosófico es algo más amplio
hoy en día. Hoy veremos una muestra de cómo ampliar estos recursos lógicos que
afortunadamente no vamos a aplicar sino solo a pasar por encima :D. Vamos a hablar de
conceptos complejos y abstractos. Kripke y los mundos posibles. Artículos de esto
Sobre la denotación, de Russell y Dos dogmas del empirismo de Quine (recomienda su
lectura). Carnap como influencia de Quine con La superación de la metafísica mediante
en análisis lógico del lenguaje en el que critica a Heidegger. Hay que leer a Russell,
Strawson aunque no estemos de acuerdo, Individuos, la introducción, distinción entre
los dos tipos metafísica: descriptiva y revisionista. No hay buenos historiadores. Al
padre intelectual de Carnap fue Frege, que derribó la lógica aristotélica y construyó el
sistema axiomático. Frege nos lleva a Carnap y en medio de los dos están Russell y
Whitehead, un pavo que sabía mucha geometría y algebra, construyó la filosofía de
procesos. El concepto de naturaleza, como buen libro de metafísica. Leer conferencias
sobre el atomismo lógico de Russell.
Ahora en términos cronológicos pasamos a Quine, que según Mayoral es muy
interesante, Lógica matemática. Dice que la filosofía de la ciencia es suficiente filosofía
y que la epistemología no hace falta. Los lenguajes son holísitocs, no están
fragmentados (Davidson) Dos cosas hay que leer de Quine Dos dogmas del empirismo
(20 pág), Palabra y objeto, define un punto de vista relativista. Gavagai y lo del conejo.

Le gustaría que leyéramos El nombrar y la necesidad de Kripke. Tres


conferencias que dio. El nombrar y la necesidad de Kripke. ¿Cómo definir los términos
teóricos? De no se quien es recomendable pero no pa ahora. De la ideamisma de un
esquema conceptual, lo recomienda también. Verdad y significado y Teorías del
significado. Dadivdson: de la idea misma de no se qué. La lógica siempre parece algo
descolgado de la filosofía. Hay que intentar pasar de la técnica a los argumentos que
vienen a continuación. Rorty y La filosofía y el espejo de la naturaleza, Sobretood leer
susan hack

Donald Davidson

El proyecto de Donald Davidson consiste en desarrollar una teoría del significado


apropiada para el lenguaje natural. Esto lo hará a partir de la teoría de la verdad de
Tarski. Está admiración por Tarski la vemos ya en su artículo "en defensa de la
Convención T" en su obra "de la verdad y de la interpretación".

Un referente para estudiar cualquier tipo de historia de la filosofía analítica es


Hans Johann Glock en su texto "qué es la filosofía analítica".

Davidson se pregunta: ¿cuál es la base de una teoría del significado? ¿Cómo explicamos
el significado? Davidson se encuentra con un problema: Es muy difícil explicar el
significado porque para hacerlo acabamos necesitando usar el propio concepto de
significado. Davidson criticaba una cosa en los distintos filósofos analíticos (o no
analíticos) que trataban explicar el significado: Tratar de explicar algo medianamente
confuso a través de conceptos que desconocemos por completo (explicar el significado a
través de la mente).

El proyecto de Davidson explica el concepto de significado a través de la verdad, siendo


este un proyecto gran potencia lógica al ser menos opaco el concepto de verdad y al
evitar caer en términos metafísicos. ¿Cómo hace esto? Para Davidson la estructura
formal básica que nos permite construir un concepto de significado ya está hecho, pues
Laporta el concepto de verdad (la teoría formal de la verdad de Tarski, teoría
suficientemente conocida y asentada cuando davidson escribe).
El artículo fundamental en el que desarrolla esta teoría es "verdad y significado",
publicado en 1967. En este artículo introduce dos conceptos básicos en los que edificar
la concepción de significado:

1. Concepción holística de la comprensión lingüística

La idea de holismo se extenderá a partir del trabajo de Quine. Tradicionalmente hay


significado porque las proposiciones son comprobables con la realidad, hay un factor
empírico y un factor teórico. Así, tenemos vocabulario observacional y vocabulario
teórico. El teórico designaría conceptos cómo campo de electrones, electrón, protón o
gravedad, mientras que el observacional designaría las distintas cualidades observables.
Si partimos de un enunciado teórico compuesto únicamente por términos teóricos, es
necesario asociarme un enunciado observacional con cualidades observacionales.

p(t1,...,tn)q(o1,...,on)

Quine (1951) nos dice que no podemos distinguir entre lo observacional y lo teórico,
pues en el lenguaje natural (nuestro objetivo) no se da así. Los lenguajes son holísticos,
lo más habitual es que hagamos enunciados o afirmaciones con contenido observacional
y teórico. Además, dice Quine: Los enunciados no se apoyan como la teoría de la
verificación, donde unos enunciados apoyan a otros pero no al revés, sino que todo el
lenguaje apoya un enunciado suelto. Así, no hay tipos de términos, no hay una parte
puramente teórica y una parte puramente observacional, sino que todos los términos son
iguales.

Definición de holismo:

“El holismo es una posición metodológica y epistemológica según la


cual el organismo debe ser estudiado no como la suma de las partes
sino como una totalidad organizada, de modo que es el "todo" lo que
permite distinguir y comprender sus "partes", y no al contrario. Las
partes no tiene entidad ni significado alguno al margen del todo, por lo
que difícilmente se puede aceptar que el todo sea la "suma" de tales
partes.”

Una teoría davidosoniana defiende una perspectiva holística, pues explica el significado
por alusión a todo el conjunto de lenguaje, esto es, por recurso a la interconexión que se
da entre las expresiones que hay dentro del lenguaje. Esto lo vemos muy claro en el
diccionario dónde, al definir una palabra con otras, tenemos una estructura del lenguaje
cerrada y circular.

Esto está aquí no lo contempla, pues por fechas no se contempla cuando escribe, pero
Davidson lo incorporará en su teoría.
2. Composicionalidad

El lenguaje se encuentra dividido en partes independientes que forman una red holística
(acudiendo de nuevo a la metáfora del diccionario).

¿Cómo construimos una teoría del significado para Davidson? Necesitamos generar una
teoría que ofrezca teoremas de traducción. En la teoría de la verdad de Tarski solo
podemos construir una teoría de la verdad que se aplique a otro lenguaje. Así, lo que
necesito no son teoremas de verdad sino teoremas de traducción. Estos teoremas de
traducción dirán qué significa una oración de mi lenguaje en el lenguaje que estoy
diseñando. Un ejemplo será:

"snow it's white" significa la nieve es blanca

La oración que yo quiero comprender se presenta como un nombre, igual que en Tarski,
pero eliminando el bicondicional y el término verdad introduciendo en su lugar lo que
verdaderamente nos interesa: el significado.

El proyecto consiste en ofrecer un esquema teórico para el significado que se base en


teoremas de traducción.

Con esto estamos intentando huir de los extra-lógico y lo extra-lingüistico, pues estamos
buscando una definición mínima y básica. Para ello tenemos que decir qué significa
"significa", pero huyendo de la idea de qué significado es una unidad concreta. Quiere
explicar el significado en términos del propio lenguaje, enfrentándonos así a términos
de lenguajes discretos.

Se hace relevante ahora la distinción entre una oración (material), un enunciado


(afirmación) y una proposición (abstracto, contiene el enunciado sin ser el enunciado).

Tenemos oraciones que se corresponden proposiciones. La "oración" se entrecomilla,


pero la proposición no se cita, está ahí detrás. "the snow is white" y "la nieve es blanca"
son dos oraciones, pero proposición hay una. La proposición sería algo así como el
contenido semántico, estudiándose a través de los términos que la componen (< nieve,
blanca, la,ser>).

Quine y Davidson se enfrentan a la idea de que detrás de las oraciones y los enunciados
hay algo abstracto: Una proposición. Así, desechan que para cada termino haya un
concepto abstracto y para cada oración o enunciado una proposición, pues la intención
de la proposición y el concepto nos llevan a un compromiso metafísico. Si hacemos
lógica proposicional nos comprometemos con la existencia de unas entidades llamadas
proposiciones, esto es, nos comprometemos con entidades abstractas.
Con esto Quine y Davidson empiezan a tener una visión anti-platónica anti-fregueana en
torno a los conceptos y ante las proposiciones, ya que estás contaminan el lenguaje con
presupuestos metafísicos que no aportan nada. Dicho de otra forma, defienden un
nominalismo, nominalistas, oponiéndose así al realismo. Si bien este debate entre
nominalistas y realistas tiene articularse en torno a la existencia de las entidades cómo
"lo rojo" o la abstracción de propiedades comunes y clases, en este caso hablan de las
entidades que respaldan los elementos del lenguaje (proposiciones en los enunciados o
conceptos en los términos).

Otra posibilidad sería que cuando hablamos de conceptos estamos en realidad hablando
de estados mentales identificables con las creencias, pero también a esto se oponen
Quine y Davidson, ya que los enunciados son oraciones y los términos son partes de los
enunciados que tienen un significado.

Con esto hemos desprovisto el lenguaje de todo lo que lo explicaba. Entonces, ¿Cómo
es posible que los términos encierren significados y los enunciados sean verdaderos?
Habrá que explicarlo sin conceptos o proposiciones, es decir, necesitaremos una teoría
de corte nominalista, de corte deflacionaria (sin más contenidos que los estrictamente
necesarios). Para ello la construiremos estableciendo relaciones entre dos grupos de
oraciones, cada uno de un lenguaje.

Davidson se centra especialmente en la relación entre lenguaje objeto y metalenguaje,


incorporando así los teoremas de traducción anteriormente vistos. El problema dar un
concepto de significado sin términos discretos, una idea que significado sin la noción de
proposición o de concepto. Es aquí dónde acude a Tarski.

Lo que forja Davidson una comprensión veritativo-condicional del significado, esto es,
lo que nos aportan las condiciones de significado son condiciones de verdad. ¿En qué
condiciones "snow is white" es verdadero? En aquellas en las que la nieve es blanca.
Esto es para Davidson comprender una proposición del lenguaje: saber manejar una
oración, lo cual solo es posible a través de su teorema de traducción. Así, "snow is
white" significa, esto es, es verdadero en los mismos contextos que, la nieve es blanca.
Dos oraciones significan lo mismo si usaríamos la primera en los contextos en los que
usaríamos la segunda (la proposición del metalenguaje) para firmar que eso (la nieve es
blanca) es verdadero.

Esto, como decíamos antes, supone una modificación de la Convención T, pues


pasábamos de decir "a es verdadera syss b" a decir "a significa b". Ahora, al reducir el
significado a la verdad, volvemos a modificar el teorema de traducción, sustituyendo el
"significa" por un "es verdadero syss", reduciendo en última instancia el teorema de
traducción a una convención T. Davidson, al apoyar la semántica en la verdad, le ha
dado la vuelta a Tarski (que apoya la verdad en la semántica) para construir una teoría
del significado veritativo-condicional sin compromisos metafísicos, y por lo tanto,
mucho más adecuada a la realidad.

Esto plantea un desafío: la indeterminación de la referencia (Gavagai). Esto ya lo


descubre Quine. El problema no se da con los lenguajes que ya conocemos (de los que
ya conocemos algo) si no con los lenguajes completamente ajenos. ¿Cómo sabemos que
Gavagai tiene una referencia y no otra? Por ejemplo, hay términos que refieren a una
cosa en un lenguaje y que no tienen una traducción en otro. Asimismo, hay lenguajes
inconmensurables en los que las estructuras son completamente distintas (Gavagai
podría significar conejo o podría ser el instante en el que un objeto entra en el campo de
visión). Frente a esto tenemos dos soluciones: modificar nuestro propio lenguaje o usar
glosas (dar largas explicaciones). Esto nos pasa por ejemplo a leer a Aristóteles, pues
necesitamos dar largas explicaciones sobre su contexto y su cultura para poder
entenderlo. En cualquier caso, ¿Cómo nos enfrentamos a los huecos terminológicos,
teóricos y de praxis? El problema sigue abierto.

Esto se plasma, de un modo más sistemático, en dos cuestiones:

1. ¿Qué constituye un teorema de traducción y qué no? De entrada nos basta


con dar dos oraciones cualquiera y relacionarlas. Esto es muy útil cuando ya
tengo el lenguaje diseñado, ¿pero como excluyó el teorema de traducción
televisión "'snow is white' significa las rosas son rojas"?
Ambas son verdaderas, pero ¿cómo puedo equipararlas y acceder a las
condiciones del lenguaje sin matices intensionales, sin establecer un vínculo
intensional y sin conocer el otro lenguaje? ¿Cómo puedo decir que son
equivalentes? Esto lo resuelve aludiendo a que el lenguaje es holístico y, por lo
tanto, si apela todo el tiempo a todos los términos. Una vez construidos esos
teoremas de traducción habrá momentos en los que podamos modificar, corregir
o eliminar ciertos teoremas.

2. Solo vale, de entrada, para la parte afirmativa de la verdad (esta habitación es


cuadrada, hoy hace frío). Pero, ¿Qué pasa con exclamaciones, interrogaciones,
adverbios que modifican la intención, órdenes, etc.? Una teoría qué pretende
hablar y explicar los lenguajes naturales tiene que contemplarlos en su totalidad
y está teoría solo estudia los enunciados afirmativos. Davidson lo salvará en la
parte "aplicaciones" de su libro a través de una lógica un poco más sofisticada.

Ahora que los lenguajes necesitan adverbios modales y matices de muchos tipos,
necesitaremos lenguajes formales más complejos que nos permitan enfrentarnos a las
necesidades de nuestros lenguajes.
Lógica clásica

Se desarrolla a partir de los trabajos de George Boole, Peirce y Schröder (base


alegbraica en el s.XIX). Repasando la parte histórica del año pasado, toman la lógica de
Aristóteles y la modifican para que sea relacional. En ese proceso, Frege le da una
forma axiomática.

Quienes construyen la lógica final a partir de todo eso (la de Frege es inconsistente,
tiene paradojas que resuelve la teoría de los tipos de Russell) son Russell y Whitehead
en los Principia Mathematica.

A parte de estos padres fundadores, tiene una serie de características: ese trata una
lógica apofántica, bivalente, asertórica y extensional

- Apofántica: significa que tiene un valor de verdad definido. De esta lógica


quedan excluidos los enunciados que no son candidatos para esta distinción
entre verdadero y falso (por ejemplo, los enunciados acerca del futuro o los
objetos de cantidades (a partir de cuantos granos es un montón de arena, 4
granos es un montón de arena, necesitamos otras lógicas, las lógicas
polivalentes).
- Bivalente: solo hay dos valores (podría haber tres definidos, cuatro definidos…).
- Asertórica: no hay modalidades de verdad. No hay matices, las cosas son o
verdaderas o falsas punto final. Hay una lógica que si permite diferenciar entre
verdadero, necesariamente verdadero o posiblemente verdadera, pero nuestra
lógica es asertórica, las cosas son verdaderas o falsas.
- Extensional: nos basamos únicamente en su valor de verdad, no establecemos
vínculos intensionales entre enunciados, solo decimos si algo es verdadero o es
falso. En una lógica clásica p es verdadero o es falso, no hay S cree que p en la
que da igual p.

Esta lógica es muy reducida y sirve únicamente para las matemáticas (y a veces
tampoco, porque hay matices intensionales, de verdad…), pero podría salvarse
modificando la segunda característica, esto es, metiendo otros valores de verdad.

Lógica polivalente

Introduciendo nuevos valores de verdad, esto es, pasando de una lógica bivalente
a una polivalente, solucionamos algunas dificultades como:

- Los montones de grano: 3 granos es un montón de grano, ¿verdadero o falso?


Difícil de definir.
- «Mañana habrá una batalla naval»: Esto es un hecho contingente, pues es
constatable, puede ser o no ser, pero lo será mañana. Debe tener un valor
definido hoy, pero:
1. Si es verdadero, el hecho es necesario
2. Si es falso, el hecho es imposible
El enunciado tiene, hoy, un valor indefinido. Esto se soluciona con un tercer
valor de verdad que lo defina.

Así, una lógica polivalente puede tener 3 valores de verdad (trivalente), 4 valores de
verdad (tetravalente), 5 valores de verdad (pentavalente), etc. Estas serán lógicas
finitamente polivalentes. Pero también puede haber lógicas infinitamente polivalentes
con infinitos valores de verdad. De esta distinción habla Lukasiewicz.

Una lógica trivalente, por ejemplo, puede tener estos tres valores de verdad:

Verdadero: 1 Falso: 0 Indeterminado: ½

Así, la tabla de negación quedaría constituida como:

p 1 ½ 0
¬p 0 ½ 1

Tabla de verdad con una lógica trivalente: 3n = 32 = 9

p q p^q pvq pq


1 1 1 1 1
1 ½ ½ 1 ½
1 0 0 1 0
½ 1 ½ 1 0
½ ½ ½ ½ 1
½ 0 0 ½ ½
0 1 0 1 1
0 ½ 0 ½ 1
0 0 0 0 1
En la conjunción nos quedamos con el peor de los dos valores: 1^½ ½; ½^00

En la disyunción nos quedamos con el mejor de los dos valores: 1v½1; ½^0½

En el condicional: 1½ es ½ (si 10 es 0, si 11 es 1)

½1 es 1 (si 11 es 1 si 01 es 1)

½½ es 1

½0 es ½ (podría ser 10)


0½ es 1

Así mismo, podríamos definir otras lógicas polivalentes:

Lógica tetravalente Lógica pentavalente

- Enunciados verdaderos - Enunciados verdaderos


- Enunciados más verdaderos que - Enunciados más verdaderos que
falsos falsos
- Enunciados más falsos que - Enunciados indeterminados
verdaderos - Enunciados más falsos que
- Enunciados falsos verdaderos
- Enunciados falsos

En estas lógicas se mantienen algunas tautologías [(p^q)(p˅q) sigue siendo una


tautología en lógica trivlanete] pero desaparecen otras [el modus tollens
((pq)^¬q)¬p) no se mantiene] Esto es porque desparece al eliminarse p˅¬p, por ser
no bivalentes, desparece el tercio excluso.

Esta lógica sólo se salta la bivalencia, mientras que mantiene otras propiedades como,
por ejemplo, la extensionalidad. Las lógicas modales juegan con más factores.

Lógicas modales
La lógica clásica resulta a veces demasiado limitada, mientras que nuestro
lenguaje tiene más matices. Esto lleva al desarrollo de lógicas alternativas que den
respuesta a estas necesidades. Algunos ejemplos son la lógica borrosa, la lógica cuántica
o la lógica con modalidades aléticas (necesidad), epistémicas (verificado/refutado),
deónticas (obligatorio/permitido), etc.

La lógica clásica no diferencia entre verdades necesarias y contingentes, tan solo trata
con verdades de hecho. Pero las verdades necesarias tienen una fuerza modal que
debemos recoger. Esto se hace estableciendo 4 modalidades aléticas:

- Necesario
- Posible
- Imposible
- Contingente

Para trabajar esta lógica incorporamos dos nuevos símbolos:

□ = es necesario ◊ = es posible

Así, podemos formalizar ciertos enunciados del siguiente modo:


Es necesario que p: □p o ¬◊¬p

Es necesario que ¬p: □¬p

No es necesario que ¬p: ¬□¬p o ◊p

Es posible que p: ◊p

Es imposible que p: ¬◊p

Vemos también algunas leyes:

□p = ¬◊¬p ◊p= ¬□¬p p◊p □pp

Quine diría que esto ya no es lógica, que no son necesarios los modales, pues esto es
más filosófico que lógica. Hay que tener en cuenta que él busca que no haya matices de
significado, por lo que todo esto sería extra-lógico. Estaríamos introduciendo en la
lógica entidades que no necesitamos, pues la lógica debe, para Quine, limitarse a lo que
escribimos sobre el papel

En cualquier caso, la lógica modal nos dice cosas interesantes pues, por ejemplo, nos
permite hablar de las inferencias como verdades necesarias:

□[((pq)^p)q)]

C.I.Lewis y C.H.Langford cuando fundan la lógica modal (en Symbolic Logic) hablan
de la relación de necesidad en los condicionales, llegando incluso a definir dos símbolos
distintos:
Tema 4: Metalógica
4.1 Kurt Gödel (introducción bibliográfica en los lógicos de Mosterín o en
Goldstein)
Gödel llega en un momento en el que se pretende reducir la matemática a la lógica, el
momento del famoso programa reduccionista (Principia Mathemática – Russell), y
llega para decir que esto no es así pues siempre hay proposiciones o afirmaciones que
son verdaderas y que no se pueden extraer de la lógica, además de cosas que no
deberían estar ahí. Lo interesante es que estas incongruencias las prueba
matemáticamente.

Generalmente cuando hacemos una inferencia matemática pensamos que algo queda
probado para la eternidad por el respaldo de la lógica, pero el trabajo de Gödel rompe
completa y absolutamente con esto: ahora la matemática es opinable.

Gödel era matemático, era un amigo de Einstein, desarrolló un sistema cosmológico


alternativo… era la viva figura del genio excéntrico y un poco loco (y de hecho
desarrolló paranoias con su trabajo y con la comida).

¿Por qué esta introducción a Gödel? Porque es un autor complejo y lo que vamos a ver
es en principio una introducción a las herramientas que nos permitirán entenderlo. Una
buena introducción a Gödel la encontramos en un texto de Guillermo Martínez llamado
“Gödel ∀” (Gödel para todos).

4.2 ¿Qué estudia la metalógica?


Según Haack estudia las propiedades formales de los sistemas lógicos (consistencia,
completud, decidibilidad…). Hasta ahora hemos usado la lógica formal, pero no la
hemos explorado pues no conocemos sus propiedades.

Es importante diferenciar entre metalógica y filosofía de la lógica. La primera estudia


las propiedades de un sistema lógico, mientras que la filosofía de la lógica se encarga de
otras cuestiones como la conexión entre lenguaje formal y lenguaje natural, los
cuantificadores (qué son, por qué solo dos), los nombres propios (qué son, qué función
cumplen, por qué destacarlos) o la verdad (qué es, relación verdad lógica-verdad
cotidiana). La metalógica mira hacia dentro del lenguaje formal, la filosofía de la lógica
hacia fuera.

En cualquier caso, la metalógica clasifica sistemas lógicos como un botánico clasifica


sus plantas. Para ello usa un lenguaje y unos métodos que ya no son lógicos sino
matemáticos (La metalógica en Logic for Philosophers – T.Sider, p.4). Los objetos de la
lógica son ahora considerados objetos matemáticos de los que probar hechos.
4.3 Definiciones
La metalógica precisa de buenas definiciones de los términos empleados. Por ejemplo,
si nos enfrentamos a un enunciado de metalógica que deseamos demostrar como “toda
fórmula que se puede probar en el sistema X es una tautología” necesitamos
definiciones precisas de “fórmula”, “prueba” y “tautología”. Para ello los introducimos
como objetos de estudio matemático y no de lenguaje formal.

4.3.1 Consecuencia lógica y deducibilidad


En lógica encontramos dos planos: el del cálculo lógico y el de la semántica formal. En
el cálculo lógico encontramos nociones como deducibilidad, teoremas lógicos o
interdeducibilidad, mientras que en la semántica formal encontraríamos cosas como la
consecuencia lógica, las verdades lógicas o la equivalencia lógica.

Sin embargo, hay coincidencia entre los resultados obtenidos por deducción y mediante
un enfoque semántico. Por lo tanto, quizá las nociones de consecuencia lógica y
deducibilidad se relacionan, al igual que verdad lógica con teorema lógico o
equivalencia con interdeducibilidad.

4.3.2 Consistencia
Como sabemos, un conjunto inconsistente, o contradictorio, es aquel del que se
deriva una contradicción. Dado que de un conjunto contradictorio se sigue cualquier
fórmula, un conjunto será consistente si hay algo que no se deduce de él.

Así un conjunto como la lógica clásica será consistente si no se pueden derivar de él


contradicciones, teniendo entonces que no toda fórmula es un teorema lógico, pues no
todo es deducible.

Un cálculo es consistente si no permite derivar contradicciones, i.e, cuando el conjunto


de sus teoremas lógicas sea consistente. Esto equivale a decir que no toda fórmula es
un teorema lógico.
4.3.3 Consistencia máxima
Esta es deseable para algunos conjuntos de fórmulas, pero no lo es siempre para un
cálculo. Su idea básica es que los conjuntos consistentes se pueden ampliar y, pese a
todo, conservar su consistencia. Habrá un punto en el que el conjunto consistente no
admita más fórmulas sin generar inconsistencia. El conjunto es, en ese punto
máximamente consistente. Se trata así de buscar el lenguaje más amplio posible.

4.3.4 Corrección
Cabe preguntarse si la deducibilidad es correcta de acuerdo con una perspectiva
semántica. En la medida en que consideramos que la semántica y sus nociones son más
fundamentales que las del cálculo, consideramos la corrección semántica a exigir del
cálculo. Si algo es deducible, tiene que tener su reflejo en la semántica. Si yo deduzco
algo, tiene que aparecer en las consecuencias lógicas formales.

Con ese criterio sólo nos quedaremos con aquellos conjuntos de reglas que definen
(deriven, devinen, derinen??) lo que es una consecuencia lógica (ya se sabe, una noción
semántica).

Si, como es frecuente, proponemos primero un cálculo lógico y después proponemos


una semántica para una lógica (clásica, modal, multivaluada, tempora…) rápidamente
tendremos que estudiar si el cálculo es correcto.

Una consecuencia de ello es que, en un cálculo correcto, todo teorema lógico (i.e,
fórmulas que se pueden probar sin premisas precisas) es una verdad lógica.

4.3.5 Completud/Completitud
En los cálculos completos obtenemos todo aquello que, a su vez, extraemos de la
semántica formal. En otras palabras, el cálculo C de un lenguaje L es semánticamente
completo syssdef para todo conjunto de fórmulas Ʃ |= ˻β, entonces Ʃ |- ˻β.

Como corolario, si el cálculo es semánticamente completo, entonces si una fórmula es


una verdad lógica, es también un teorema lógico.

4.3.6 Corrección y completud


La corrección semántica salvaguarda el cálculo de producir algo inadmisible en
semántica. La completud semántica garantiza la contrario: si obtenemos un resultado en
semántica, este aparecerá también por medio del cálculo.

La semántica y el cálculo trabajan de la mano, en dos planos distintos, pero al unísono.


Cuando hablamos de que algo es completo o correcto lo hacemos en sentidos distintos
al coloquial. Ambos son referentes a los sistemas, características de un sistema.
4.3.7 Decidibilidad
Si un cálculo es decidible, entonces hay un método finito, general, que nos permite
decidir si una fórmula, sea cual sea, es o no teorema lógico o deducible de otras.

4.4 Metateoremas o (teoremas de la metalógica) de la lógica


proposicional y de la lógica de primer orden
Tenemos varias propiedades: consistencia, consistencia máxima (deseable o no),
corrección, completud, decidibilidad. Estas propiedades no se definen lógicamente sino
meta-lógicamente. A partir de estas propiedades podemos hacer metalógica y teoremas
(por ejemplo, el de Gödel).

Para la lógica proposicional:

1. Corrección: El cálculo de LP es semánticamente correcto


2. Completud: El cálculo de LP es semánticamente completo
3. Decidibilidad: El cálculo de LP es decidible
4. Consistencia: El cálculo de LP es consistente
5. Consistencia máxima: El conjunto de los teoremas de LP no es máximamente
consistente (lo podemos ampliar sin generar contradicciones).

Para la lógica de primer orden:

1) El cálculo de LPO no es decidible: hay que hacer matices, pero no tenemos un


método general para toda la LPO. Si hay algunos casos en los que se puede saber
si es decidible como aquellos con cuantificadores (funciona como LP), aquellos
con dominio finito (donde podemos hacer tablas de verdad), los predicados
monádicos (con las 4 fórmulas de Aristóteles) o los poliádicos si los
transformamos en formas pre-nexas. Lo que no tenemos es algo tan genérico y
potente como la tabla de verdad para la LPO.
2) Se mantienen metateoremas: En la LPO se mantienen los metateoremas
(equivalentes) 1, 2, 4 y 5 (corrección, completud, consistencia y consistencia
máxima) de LP.
3) LPO es semánticamente correcto, completo y consistente, pero no es
máximamente consistente

4.4.1 Corrección y completud en LPO


En LP:

Si consideramos que la LP es correcta y completa, decimos que semántica y cálculo


producen lo mismo.
Como corolario de esto, podemos extraer que, dados el conjunto de fórmulas Ʃ y la
fórmula β, β se deduce de Ʃ syssdef β es consecuencia lógica de Ʃ.

Así, en LPO:

Corrección: el resultado debe traspasarse a la lógica cuantificacional con identidad


(LPO)

Completud: lo mismo. Probado por Gödel en 1930 y por Henkin en 1949 (una prueba
muy comleja).

Vemos por lo tanto que se aplica lo mismo que hemos visto para LP. La dualidad nos
permite exportar cosas del cálculo a la semántica y viceversa. Si no saco una deducción
por cálculo lógico, puedo usar una tabla de verdad para saber que una es consecuencia
lógica.

4.4.2 Consistencia en LPO


Usando el teorema de corrección:

1. Si el cálculo de LP es inconsistente, entonces alguna fórmula α y su negación


son teoremas lógicos.
2. Como el cálculo de LP es correcto, entonces α y su negación son verdades
lógicas
3. Pero esto no es posibe, porque, en semántica, α es una verdad lógica syss ¬α no
lo es
4. Lo mismo se aplica a LPO

4.4.3 Consistencia máxima


Los teoremas de LP no forman un conjunto máximo consistente. Nueva prueba:

 Ni p ni ¬p son verdades lógicas


 Por lo tanto (dado el teorema de corrección), no son teoremas lógicos
 Así pues, hay al menos una fórmula tal que ni ella ni su negación son teoremas
lógicos
 Por lo tanto, podríamos aumentar el conjunto de teoremas con una de esas
fórmulas sin crear inconsistencia
 Por lo tanto, el conjunto de teoremas de LP no es máximamente consistente

Con LPO procedemos de manera parecida, solo que aludiendo a Pa y a ¬Pa.

4.4.4 Decidibilidad
Como hemos visto, LP es decidible y LPO no lo es. Debido a ello, el cálculo no permite
determinar si una fórmula se sigue de otras, esto es, no permite determinar si una
fórmula es o no un teorema lógico. Es cierto que, una vez hallada una deducción,
podemos ofrecer una respuesta afirmativa a esa cuestión. Pero, si no damos con una
deducción, no podemos ofrecer una respuesta negativa (i.e., no podemos afirmar que la
fórmula no es un teorema lógico).

Así, en LPO tenemos una curiosa situación:

- Su cálculo permite decir si es un teorema lógico, en tanto encontramos una


deducción de la misma sin premisas; pero no nos permite decir que no lo es.
- Su semántica, sin embargo, nos permite decir cuándo una fbf no es una verdad
lógica (i.e., si hay una interpretación que la hace falsa).

Estas dos posibilidades no suman, sin embargo, un procedimiento de decisión: (como sí


hacía en la Lógica proposicional).

- Sabemos cuándo α es un teorema lógico, pero no cuándo no lo es


- Sabemos cuándo α no es una verdad lógica, pero no cuándo lo es

Capítulo 5 de Díez

Tema 5: Proposiciones y conectivas: nociones de filosofía de la


lógica
5.1 Introducción a la filosofía de la lógica: autores y textos
El programa analítico se orienta en un principio a una teoría del significado con la cual
serían capaces de resolver los problemas del lenguaje. Se suele decir que la filosofía
continental está dedicada a la construcción mientras que la analítica se orienta a una
destrucción. En cualquier caso, una teoría del significado exitosa no resolverá
problemas filosóficos, sino que evitará que estos se creen.

Más adelante se convierte en algo mucho más plural, probablemente por su relación con
la filosofía de la mente, la psicología y la filosofía de la ciencia. Una corriente
importante es la lógica metafísica, según la cual autores como David K. Lewis o Saul
Kripke hablan de metafísica a través de la lógica.

Un primer autor, si es que queremos hacer un estudio histórico, es Frege, de quien


podemos recordar las lecciones del curso anterior. Se dice que en sus clases había tres
personas: Frege, Carnap y otro que no se sabe quien es. Pese a ello, es el padre de toda
la lógica moderna. Esta línea nos lleva a Carnap, aunque entre medias conviene hablar
de Bertrand Russel y de A.N. Whitehead.

B. Russell: De Russell también hablamos el año pasado. Un lógico muy potente y muy
reconocido. Si hubiera que seleccionar algunos textos brillantes suyos especialmente
enfocados a la lógica serían: Sobre la notación y Conferencias sobre el atomismo
lógico (este último es una iniciación a la lógica).
A. N. Whitehead: Whitehead, el de la famosa frase “toda la filosofía es una nota a pie
de página de Platón”, era un matemático especialista en geometría y álgebra. Al final de
su vida trató de desarrollar un modelo astronómico alternativo, pero nuestro interés está
en sus trabajos centrales: la filosofía de procesos. Es complejo y al final necesita a Dios,
pero un buen libro de metafísica lógica (por más que acabemos donde empezamos) es el
concepto de naturaleza.

De Carnap (positivista lógico, circulo de Viena) hablamos también el año pasado. Era
físico y es un positivista típico. Aprende de Tarski, de Russell y de Husserl. Tras el
llegamos a Quine.

Quine: Genio y gran lógico. Se enfoca especialmente en dos/tres asuntos: teoría de


conjuntos y tautologías/verdades empíricas. Sobre la teoría de conjuntos escribe dos
libros: lógica matemática y método de la lógica. Sobre las tautologías y las verdades
empíricas será quien postule que no se alejan, que las afirmaciones observacionales
tienen referencias al mundo y que no podemos separar la observación del análisis. Así
mismo hablará de los lenguajes holísiticos y de la determinación de la indiferencia
(Gavagai). Dos textos particularmente interesantes son 2 dogmas del empirismo y
palabra y objeto.

Kripke: Esta línea histórica nos lleva a Kripke, quien desplazaría el objetivo de la
lógica de la teoría del significado a una alternativa teoría de la referencia, pasando de
una terminología lógica a una terminología lingüística. Su obra clave: el nombrar y la
necesidad.

David Lewis: Es un autor complejo, pero podemos leer como definir los términos
teóricos.

Donald Davidson: De este autor y de su teoría del significado pasada por Tarski ya
hablamos en la introducción a otras lógicas. Tres textos clave son: de la misma idea de
un esquema conceptual, Verdad y significado y teoría del significado y lenguajes
aprendibles.

Rorty: A este autor lo vimos en epistemología de las ciencias humanas, pero podemos
leer un texto clave: La filosofía y el espejo de la naturaleza.

Susan Haack: En su texto filosofía de las lógicas (en las 100 primeras páginas) nos
vamos a basar para esta última parte de la asignatura.

5.2 Oraciones, enunciados y proposiciones


Cuando decimos de algo que es verdadero, cuando decimos que p es verdadera, ese
algo, esa p, ¿qué es? ¿se trata de una oración, de un enunciado o de una proposición?
Respecto a estos tres elementos cabe preguntarse dos cosas: ¿qué son? y ¿cómo se
relacionan?

5.2.1 ¿Qué son esas entidades? ¿Qué condiciones de identidad se


establecen entre ellas?
Para definirlas trabajamos en 3 planos:

- Sintaxis: ¿a qué son análogas en el discurso informal las letras (p, q…)?
Algunos autores dirán que p es análoga a las oraciones, otros que a los
enunciados y otros que a las proposiciones.

- Semántica: ¿qué es susceptible de ser verdadero?


Cuál de esos objetos es susceptible de ser verdadero.

- Pragmática: ¿qué es objeto de creencia, conocimiento, etc.?


Cuando tengo una creencia sobre algo, la tengo sobre una proposición, a cerca
de un enunciado…

Generalmente hablamos de actitudes proposicionales (S cree que p, S sabe que p, S


desea que p…), pudiendo ser estas actitudes verdaderas aunque aquello a lo que haga
referencia (proposición, enunciado u oración) sea falsa. Por ejemplo: yo creo que quien
ganó las elecciones es un demócrata. Da igual que quien haya ganado las elecciones sea
o no un demócrata, pues el hecho de que yo lo creo es verdadero.

Además, existen contextos opacos en los que se esfume el objeto referencial. Por
ejemplo, Superman y Clark Ken remiten, bajo dos nombres distintos, a un mismo
objeto. Sin embargo, no es lo mismo decir Superman es valiente que Clark ken es
valiente.

¿Qué es lo que metemos en p? Para saber si p responde a una oración, a un enunciado o


a una proposición será necesario saber qué es cada una de ellas y qué relaciones de
identidad se dan entre ellas.

Oraciones

Tanesini (2007: 108) define una oración del siguiente modo:

“Expresión lingüística compleja normalmente constituida por, al menos, un término


singular y un predicado o expresión cuantificada y un verbo. Es la unidad mínima de
habla […]”

La oración es entonces una cadena de pequeñas expresiones dentro del discurso


informal. Además, solemos buscar en ella una cierta corrección gramatical.
Es necesario distinguir aquí entre dos manifestaciones de las oraciones: como instancia
y como tipo (en inglés: Type/Token; en español: tipo/instancia-manifestación
específica). La instancia es una manifestación física en forma de unas manchas en un
papel, de un sonido o de una determinada gesticulación. Los tipos son modelos o clases
de instancias. Así, un conjunto de instancias que tienen un cierto grado de similitud
entre ellas pueden constituir un modelo.

Una clasificación un poco más amplia se da entre oraciones declarativas, interrogativas


e imperativas. La filosofía del lenguaje se ha centrado siempre en las declarativas,
aquellas en las que se hace un informe de cosas, ya que son las que pueden ser
verdaderas y falsas. Davidson nos dice que el lenguaje es algo mucho más amplio que lo
que cae en la teoría de la verdad de Tarski, aunque generalmente nos centremos en lo
demostrativo.

Lo que nos interesa es saber con qué criterios podemos construir esas clases de
instancias a las que llamamos tipos, qué es lo que hace que una determinada serie de
signos y unos determinados sonidos se correspondan.

Necesitaremos marcar un criterio de identidad. Uno de los más manejados es el


concepto de significado, de modo que el contenido de una cierta unidad a esas dos
oraciones en principio diferentes. La oración parece llevarnos así a una definición de
tipos por significado como criterio de identidad.

Si bien algunos filósofos creen que el concepto de significado es algo mental y que por
ello debemos prescindir de él (nos lleva a compromisos con entidades abstractas), es
necesario investigar en este tipo con un significado y, por lo tanto, en el enunciado.

Enunciados

Tanesini (2007: 153) define el enunciado así:

“Noción […] ambigua. A veces, ‘enunciado’ significa lo que es expresado o afirmado,


típicamente un contenido proposicional expresado por una oración indicativa. En otras
ocasiones, ‘enunciado’ se emplea para referirse al propio acto de habla. Así, cuando dos
personas dicen lo mismo, han construido el mismo enunciado en el primer sentido del
término, pero tenemos dos enunciados diferentes con el mismo contenido en el segundo
sentido del término”

Nosotros nos vamos a quedar con el primer sentido, siendo el enunciado aquello que se
expresa o afirma, el contenido. Se establece con ello una relación entre el enunciado y la
oración.

Para algunos filósofos esto no está tan claro. Para Strawson por ejemplo no hay
enunciados en una obra de teatro, pues no puede haber veracidad o falsedad. De acuerdo
con Strawson, cuando hablamos de entidades que no denotan (unicornio, pegaso, don
Quijote, Sherlock Holmes…) no estamos emitiendo algo que de cómo resultado un
enunciado.

Dejando esta objeción a un lado, el enunciado así definido da respuesta a la identidad


entre oraciones: cuando dos oraciones nos dicen la misma cosa, cuando afirman lo
mismo, se corresponden a un mismo enunciado. Pero con esto volvemos a lo mismo,
¿qué permite establecer que son lo mismo? ¿Dónde reside la sinonimia?

Proposiciones

Las proposiciones son entidades complejas que no cuentan con una única definición
consensuada. Por lo pronto podemos esbozarlas diciendo que estas entidades no se
ofrecen, sino que respaldan lo ofrecido. El escrito “the snow is white” y “la nieve es
blanca” son la misma proposición. Pero, ¿qué es esa entidad con la que no tenemos
contacto causal o directo?

McGrath (2014) las define de muchas formas, ya que cada filósofo se queda con una o
varias de ellas:

 Portadores de verdad
 Objetos de creencia (cf. Actitudes proposicionales) (aquello acerca de lo cual despliego
mi creencia o mi actitud proposicional)
 Referentes de cláusulas “que-“ (yo creo que…, las “cláusulas que” no siempre son
actitudes proposicionales, aunque las actitudes proposicionales si son cláusulas qué).
 Significados de oraciones (no tienen un idioma concreto)

Tanesini (2007: 124-125) también ofrece varias definiciones de proposición:

a) “Las proposiciones son lo que las oraciones expresan. La misma oración puede expresar
diferentes proposiciones en diferentes contextos.”

b) E.g., Tengo hambre es una proposición diferente en función de quien la pronuncie.


(El relativista epistémico o alético dice que reescribimos nuestras proposiciones, las
cuales son más extensas. El epistémico dirá que “esto es verdadero” o “esto” en realidad
es “esto es verdadero de acuerdo con este marco”. Lo mismo con los morales. Sin
comillas, no se cita, es el significado.)

c) “Las proposiciones se consideran portadores de verdad y de falsedad. Las oraciones


serían verdaderas o falsas solo en el sentido derivado de expresar una proposición
verdadera o falsa.”

David Lewis dice en On the Plurality of Worlds (1986: 54)que:


“La concepción que asociamos con la palabra ‘proposición’ puede ser un batiburrillo de
desiderata [deseos] en conflicto”.

Entonces, ¿qué es una proposición? Quizás sea útil enfrentar dos concepciones distintas
de proposición: la de Frege y la de Russell.

Proposiciones fregeanas

De acuerdo con McGrath (2014), Russell en “Sobre sentido y referencia” establece la


siguiente distinción entre sentido y referencia:

 Sentido de una expresión = modo de presentación (valor cognitivo) de un referente.


 Las expresiones expresan el sentido (el modo en que se expresa, el cual tiene un valor
cognitivo y es una forma de pensamiento, es lo que llamamos el sentido de una
expresión)
 Referente: valor de verdad.
 Sentido: pensamiento (es un contenido que se comparte).
 La proposición es un complejo de sentidos o entidades abstractas.
 Concepción platónica: el contenido está inactivo hasta que un pensador actúa sobre él
(no lo crea, lo descubre). Otro platónico es Gödel. El punto de vista platónico o neo-
platónico afecta a muchos pensadores, sobretodo cercanos a las matemáticas como es el
caso de Kepler.
 La proposición es verdadera o falsa aunque no sea captada por un pensador.

Proposiciones russellianas

De acuerdo con McGrath (2014), la concepción de proposición de Russell va por el


complejo de objetos concretos ordinarios, ya que revisa este concepto.

En cualquier caso, las proposiciones nos sirven para establecer un concepto de


sinonimia. En un enfoque más amplio ponemos el foco no solo en la proposición sino
también en el conjunto de mundos posibles en que es verdadera. Así, una verdad lógica
es algo que es posible en cualquier mundo posible. La proposición Donald Trump es el
presidente de EEUU equivale al conjunto de mundos posibles en que de hecho Donald
Trum es presidente de EEUU.

Nosotros especulamos, por lo general, en nuestro mundo, pero Kripke (desplazamiento


del significado a la referencia) especula respecto a mundos posibles. Así, propone un
mundo en el que Aristóteles no es alumno de Platón, un mundo en el que hay una
variación que nos permite especular respecto a contradicciones contra-fácticas. En estos
mundos posibles se describe algo acerca de un determinado sujeto, siendo ese algo a lo
que llamará proposición.

De acuerdo con Kripke, serán proposiciones entidades como Todo triángulo tiene tres
lados o Todo cuadrado tiene cuatro lados, pues son tautologías y toda tautología
expresaría la misma proposición en otro mundo posible, precisamente por ser verdades
en todos los mundos posibles.

Queda por ver una última cuestión: las Proposiciones estructuradas. Talesini (2007:
155):

“[…] las proposiciones [estructuradas] son entidades complejas que tienen partes. Los
que defienden esta perspectiva remontan su linaje a Russell. […] las partes de una
proposición estructurada son los valores semánticos de las palabras o frases que
aparecen en la oración que expresa la proposición”

Un ejemplo sería el estudio de la siguiente proposición estructurada:

Juan estrecha la mano a Pedro

Para estudiar esta proposición, extraemos sus partes (Juan, Pedro, mano, estrechar) y
vemos como se relacionan. Esto supone un perfecto contraejemplo a la idea de los
mundos posibles:

Todo triángulo tiene tres lados

Todo cuadrado tiene cuatro lados

Estas proposiciones son lógicamente equivalentes, pero son diferentes debido a la


diversidad de sus componentes (cuadrado es distinto de triángulo y cuatro es distinto de
tres).

5.2.2 ¿Cómo se relacionan las entidades?


Entonces, ¿cuál es el ámbito de la verdad? ¿qué diferencias hay entre comprometerse
con oraciones o con proposiciones?

Si nos preguntamos por las letras proposicionales, vemos que son más problemáticas de
lo que parecen. Según las reglas de la lógica, (ppvq) vale para todas las instancias de
p y de q. Pero en esta inferencia, ¿p y q son letras esquemáticas o variables genuinas?
Para Quine, “p v ¬p” es un esquema basado en letras proposicionales, rechazando la
opción de las variables.

Esta pregunta es importante resolverla, pues dependiendo de nuestra respuesta nos


situaremos en las proposiciones o en las oraciones. Si entendemos que p es una variable,
nos situaremos en el dominio de las oraciones.

Surge aquí un problema: el de la cuantificación y el dominio. Supongamos el caso de la


disyunción p v ¬p. Para Quine, toda disyunción es un esquema que precisa de un
dominio para los dos significados. Si empleamos el concepto de variable, tendremos que
remitir a unos objetos externos al lenguaje que constituyen nuestro dominio. Si nos
decantamos por la proposición, estaremos obligados a afirmar que estas existen
independientemente del mundo (¿y del sujeto?).

Vemos entonces que podemos tener una interpretación objetual o una interpretación
proposicional. Quine, para quien solo existe el plano del lenguaje, no quiere
comprometerse con entidades mentales, de modo que prefiere utilizar oraciones y
decantarse por la interpretación objetual.

Esto nos lleva a la pregunta fundamental que planteábamos al inicio del tema: qué es
susceptible de ser verdadero o falso: ¿la oración, el enunciado o la proposición?

Hay ciertas oraciones gramaticalmente correctas que no son ni verdaderas i falsas como
las imperativas o las interrogativas que carecen de sentido. No podemos pedirle
entonces a la oración un sentido o un significado. Parece entonces que es su proposición
correspondiente la que puede ser verdadera o falsa. Se presenta así la proposición como
portadora de verdad.

Pero esto tiene un problema, y es que las oraciones sobre, por ejemplo, futuros
contingentes (o directamente cualquier oración vaga) no son ni verdaderas ni falsas. Lo
mismo sucederá entonces con sus proposiciones correspondientes. Además, hay ciertas
oraciones o proposiciones que tienen una particularidad: su valor de verdad es sensible
al contexto. Ejemplos de esto son “tengo hambre” o “Carlos I está muerto”. En estos
casos su valor de verdad cambia en función de quién, dónde y cuándo se pronuncien.
Este tema lo trabaja Davidson.

Por dar nombres, Peter Strawson y Hilary Putnam (un matemático) estarían a favor de
que las oraciones no se entiendan como portadores de verdad. Además, Karl Popper
defiende el papel de las proposiciones. Quine estaría en contra de esta idea, defendiendo
que existen “oraciones eternas” (por ejemplo, las oraciones que especifican por
completo los tiempos, lugares, etc. y los teoremas de la matemática o las leyes
naturales). Una tercera opinión sería la del primer Witrgenstein o la de Tarski, para
quienes la verdad se basa en la estructura gramatical, siendo las oraciones los portadores
de verdad (y el resto material extralingüístico).

5.3 Conectivas lógicas


5.3.1 Las conectivas
A la hora de enfrentarnos al problema de las conectivas lógicas, podemos adoptar dos
posiciones: la invariantista o la inferencialista.

Teorías invariantistas: En estas teorías se especifica el concepto de constante lógica en


términos de su invarianza sea cual sea el dominio (o universo del discurso especificado)
y bajo cualquier operación funcional que se realice en él. Autores centrales de esta
teoría son Tarski y Mostowski.

Teorías inferencialistas: en esas teorías se especifica el concepto de constante lógica en


términos de las reglas de inferencia que fijan su comportamiento semántico-formal.
Autores centrales serían W. Kneale o Ian Hacking.

Un conjunto de conectivas es adecuado cuando puede expresar todas las funciones de


verdad (que en el aso de las funciones de verdad bivalentes de dos argumentos son 16
funciones de verdad). Así, un sistema es funcionalmente completo si posee un conjunto
adecuado de conectivas. A esta idea la denominamos completitud funcional de los
elementos.

Una conectiva, en general, no posee contenido propio, categórico. Son, en cierto modo,
insustanciales (de ahí que en el medievo se las considerase “sincategoremáticas” por
oposición a las que sí poseen dicho contenido (las categoremáticas). Su papel es, para
Quine, estructural: forman parte de la “gramática sistemática” de un lenguaje
(Macfarlane). Son entonces las piezas clave de las funciones de verdad. De esto habla J.
Buridán.

Veamos que propone Davison respecto de las conectivas. Para él las conectivas son la
función central en la especificación de la teoría del significado para un lenguaje. De
acuerdo con esto, y siguiendo una teoría tarskiana, podríamos tener el siguiente
esquema de razonamiento:

“… significa …”

S significa que p

S es verdadera syss p

“Snow is white” es verdadera syss la nieve es blanca

“Snow is white” es verdadera syss la hierba es verda

Los axiomas de la teoría del significado implican dos tipos de cláusulas: las básicas y
las recursivas (en función de si especifican las condiciones de satisfacción para
componentes de oraciones básicas o si implican conectivas lógicas). Así, las constantes
lógicas se pueden identificar como aquellos rasgos iterativos del lenguaje que requieren
una cláusula recursiva en la caracterización de la verdad o de la satisfacción.

Matrices
Una Matriz característica podemos verla como un conjunto de tablas de verdad. La
matriz M es característica de un sistema S syss todos y solamente los teoremas de S
están designados en M y todas y solamente las inferencias válidas en S conservan la
designación en M.

Significados de las conectivas lógicas


Nivel de sintaxis: axioma y reglas de inferencia

Semántica pura: interpretación formal (matrices)

Lecturas en el lenguaje ordinario de los axiomas y reglas de inferencia (la relación entre
“v” y “o”)

Semántica depravada: explicación informal de la interpretación formal (matrices)

A.N.Prior: Tonk
Defenderá que las constantes lógicas tienen contenido intuitivo y se inventará el
concepto de Tonk (Tonk the object non noum).

Reglas de introducción y de eliminación:

R1. De A se infiere A tonk B

R2. De A tonk B se infiere B

Estas reglas nos permiten establecer una deducción como la siguiente:

1. A supuesto

2. A tonk B 1, R1

3. B 2, R2

Esta idea del tonk es ilógica (rompe con la lógica tradicional). De ello se saca una
conclusión: la lógica debe estar respaldado por intuiciones extra lógicas.

Equivalencias informales de las conectivas


Podemos tener una conectiva para “y”, ¿podemos tener la conectiva “porque”? La
primera sería “A y B”, la segunda “A porque B”. El problema es que, en el segundo
caso uso, no solo dependemos de los valores de verdad, sino también de que B sea una
razón o causa de A. Incluso en “A pero B”, que normalmente se formaliza con una
conjunción, parece que B no encaja con A.

Sobre esto D. Lewis se pregunta: ¿cómo formalizar los enunciados contrafácticos como
“si fuese el caso que A, sería el caso que B”? Su respuesta, excesivamente vaga, es decir
que “En todos los mundos posibles que sean más similares al actual, pero en los que A,
B”
P.F.Strawson (siguiendo al segundo Wittgenstein): crítica a las
conectivas y a sus lecturas habituales
Negación: habla coloquial. A veces una doble negación no es algo tan sencillo como
una afirmación. Además, a veces implica énfasis.

Conjunción: habla coloquial. A veces conlleva sucesión temporal (le suspendí y


entonces me pegó).

Disyunción: habla coloquial. ¿tiene sentido decir “Juan tiene el libro o María tiene el
libro a partir de Juan tiene el libro? Esta idea está desarrollada a partir de H.P.Grice en
la implicatura conversacional: ES (el hablante) hace creer que él cree que B para S (el
oyente) si afirmar A establece como consecuencia de A que B. Si yo dogo A v B cuando
sólo quiero decir A, estoy implicando una cierta incertidumbre, no algo que es
materialmente equivalente a la segundo afirmación.

Condicional: Es engañoso decir que AB a partir de ¬A v B.

5.3.2 Validez y consecuencia lógica


Sagüello – Akal; Gómez Torrente Forma y modalidad. Una introducción al concepto de
consecuencia lógica)

Al tratar este tema podemos adoptar un punto de vista informacional o modal. La


relación de consecuencia lógica posee dos propiedades básicas: es una relación que
podemos entender en términos formales y es una relación que podemos entender en
términos modales.

Relación formal

Si p es consecuencia lógica de un conjunto de oraciones A (compuesto, e.g, por p 1, p2,


…,pn), entonces, un argumento con la misma forma lógica (e.g., q como conclusión y q,
12,…,1n como premisas) será un argumento en que la conclusión es consecuencia
lógica de las premisas.

Relación modal

La relación que se da entre una conclusión p y el conjunto de oraciones A (compuesto,


e.g., por p1,p2,…,pn), de los que p es consecuencia lógica es una relación de
implicación necesaria: la conclusión se sigue necesariamente de las premisas.

Dicen lo mismo, que la relación modal es de implicación necesaria. Utilizan otros


términos y hablan desde otro punto de vista, pero dicen lo mismo.

Implicaciones
Como apunta Gómez-Torrente (2000: 16), que se dé una implicación lógica entre
proposiciones (premisas y conclusión), es condición suficiente, aunque no necesaria,
para que se den otras clases de implicación, e.g., metafísica o física.

Esto se prueba con dos ejemplos:

Si Juan no aprueba lógica, su padre se enfada

Juan no aprueba lógica

Su padre se enfada

Es lógicamente necesaria; también lo es físicamente (materialmente, en el terreno de las


condiciones puramente materiales).

En cambio, véase la siguiente inferencia:

Juan es un hombre

Ergo, Juan es un animal

No es lógicamente necesaria, pero sí lo es físicamente. La implicación no se da por


necesidad lógica (tal cual está escrito falta el proceso para pasar de una cosa a otra).

Ideas intuitivas

Hasta ahora hemos visto dos argumentos, ahora vamos a ver tres concepciones o ideas
que se suelen usar para la consecuencia lógica.

- Concepción informacional: Un conjunto de proposiciones A implican


lógicamente una proposición p syss la información de p está contenida en la
información de A. (Sagüillo: 59)

Decimos que la información contenida en la conclusión no puede exceder la


contenida en las premisas. Esto nos ofrece una forma de estudiar las buenas
argumentaciones sin necesidad de comprometerse con la verdad, lo extralógico,
lo metafísico… En vez de mirar el agua en un momento dado, miramos el
principio y el final de la cañería y tiene que llegar el agua exactamente igual.
Diferencia inductivo/deductivo.

- Concepción de la necesidad: Un conjunto de proposiciones A implican


lógicamente una proposición p syss es lógicamente necesario que p sea
verdadera si las proposiciones de A lo son. (Sagüillo 2007: 60)
- Concepción de la imposibilidad: Un conjunto de proposiciones A implican
lógicamente una proposición p syss es lógicamente imposible que p sea falsa si
las proposiciones de A son verdaderas.

Las tres concepciones son co-extensionales, pues hablamos todo el rato de la misma
concepción (dicen lo mismo).

Información y necesidad

La información es un concepto más relacionado con autores lógico-positivistas (como


Carnap (1937, 1947), por ejemplo), puesto que para ellos:

1. Las tautologías son proposiciones desprovistas de información


2. En un razonamiento tautológico no se concluye con más información en la
conclusión de la ya presenta en las premisas (Ibid, p.61).

Necesidad y posibilidad (a través de los mundos posibles):

a) A implica lógicamente p syss p es verdadera en todo mundo posible en el que las


proposiciones de A son verdaderas.
b) A implica lógicamente p syss p no hay mundo posible en el que las
proposiciones de A son verdaderas y p es falsa. (Ibid)

Todo esto son perspectivas modales. En la informacional no hablamos de verdad.

Inducción y deducción

Por norma general, los argumentos inductivos no se consideran válidos. Hay quien dice
que sí lo son, pero no en el mismo grado. En cualquier caso, sólo los deductivos son
completamente válidos. Pero, ¿qué es un argumento inductivo?

Aristóteles decía que un argumento inductivo nos hace pasar de lo particular a lo


general. Esto no parece hacernos entender lo inductivo pues hay muchos ejemplos que
parecen contradecir esta norma.

“Sócrates es filósofo. Por lo tanto, alguien es filósofo”

Esto va de lo particular a lo general, pero es deductivo (Fa  ∃xFx)

“3 es la suma de dos números primos. 5 también. 7 también. 9 también. 11


también. … 4817 también. Por lo tanto, 4819 es la suma de dos números
primos”

Aquí pasamos de lo particular a lo particular, y sin embargo es un argumento inductivo.


“3 es la suma de dos números primos. 5 también. 7 también. 9 también. 11
también. … 4817 también. Por lo tanto, todo impar mayor que 1 es la suma de
dos números primos”

Aquí se cumple la regla de Aristóteles, pues pasamos de lo particular a lo general y es


inductivo. También parece que cuando pasamos de un argumento general a uno
particular es deductivo, pero esto tampoco es cierto.

“Todos los presidentes del gobierno desde 1975 han sido varones. Por lo tanto,
el próximo presidente del gobierno será varón”

Esto es inductivo y va de lo general a lo particular.

Todos los cuervos observados son negros. Por lo tanto, todos los cuervos son
negros”

Este último ejemplo va de lo general a lo general y sin embargo es inductivo.

Vemos entonces que el criterio de los enunciados particulares y generales no es válido.


Un posible buen criterio es el de la información. Según este criterio, un argumento
deductivo es aquel en el que no hay más información en la conclusión que en las
premisas, mientras que uno inductivo es aquel que solo tiene probabilidad de certeza.
Además, contamos con argumentos abductivos que, pese a incluirse en los inductivos,
son distintos (no hay solamente un muestreo estadístico, hay además un argumento que
avala la veracidad de la conclusión), pero esto es más complejo.

En base a este criterio podemos decir que el deductivo tiene un valor de certeza 1,
mientras que el inductivo se mueve entre 0 y 1. A estos últimos se les suele llamar
argumentos ampliativos pues, aunque no todos, suelen ampliar la información.

Tampoco este argumento es 100% reconocido. Haack nos muestra con un ejemplo muy
claro como hay argumentos deductivos que amplían información:

A^B. Por lo tanto A 😊

A. Por lo tanto AvB ☹

Este último argumento se basa en que ‘AvB está “implícitamente” en A’, lo cual
depende de afirmar que ‘AvB se sigue deductivamente de A’, y sin embargo aparece
en la conclusión más información que en la premisa.

En un intento de escapar a estos problemas, Brian Skyrims sostiene que no hay


argumentos deductivos o inductivos, sino que podemos adoptar un punto de vista
probabilístico, llamando deductivo a aquello que tiene un 100% de probabilidad,
mientras que lo inductivo podría ser un 80%, asignando al probabilista el término
inducción.

En cualquier caso, los lógicos se han permitido la licencia de formalizar únicamente


los argumentos deductivos y excluir los inductivos, sean estos lo que sea. La lógica
inductiva sigue dando muchos problemas.

Validez (revisión)

Podemos dar una explicación de Validez sintáctica del modo siguiente:

Dado un argumento formal compuesto por fbfs, α 1, …, αn, β, este argumento es


Válido-en-L si β es derivable de α1, …, αn y de los axiomas de L (si los hubiese)
mediante reglas de inferencia.

Al tiempo, la Validez semántica se puede presentar del modo siguiente:

El argumento α1, …, αn, β es Válido-en-L si β es verdadero para todas las


interpretaciones en que α1, …, αn son verdaderas.

Al final con esto lo que hacemos es hacer corresponder al concepto de verdad sintáctica
la deducibilidad y al de verdad semántica la consecuencia lógica.

Nótese que es posible que un argumento conste sólo de una fbf, β por ejemplo, en cuyo
caso estamos ante argumentos que se denominan “conclusiones de cero premisas”.

Aplicando las ideas de validez antes vistas a este caso, decimos que:

β es Válida-en-L (y, en este caso, es un teorema de L) si β se sigue de los


axiomas de L, en caso de que los haya, mediante las reglas de inferencia de L

Asimismo:

β es Válida-en-L (y, en este caso, es una verdad lógica de L) si β es verdadera


para toda interpretación de L.

5.3.3 Consecuencia lógica: enfoques cuantificacionales


Todo argumento de la forma <A, p> es lógicamente válido syss todo (otro) argumento
<A*, p*>, que hemos obtenido transformando uniformemente las partes no lógicas del
primero de forma lógicamente adecuada, es materialmente adecuado.

Toda acción sobre la forma lógica en el primer argumento puede ser válida o inválida en
función de si ejerce alguna alteración en la adecuación material. (Sagüillo 2007: 69-70)

A esto se le suele decir reduccionista, pues dependemos de algo más sencillo y más
básico para explicarlo (la adecuación material). Esto no es un enfoque informacional, en
todo caso sería modal, pero sobre todo es reduccionista y se le suele llamar enfoque
cuantificacional.

En un enfoque reduccionista lo que ocurre es que estudiamos la naturaleza lógica en


función de sus parecidos a los términos materiales. Esto nos permite establecer
distinciones entre forma y contenido, entre lo lógico y lo no-lógico. Con un enfoque
cuantificacional, tenemos limitaciones epistémicas, pues dependemos de lo material.

Esta dependencia se traduce en la necesidad de un conocimiento previo de


consideraciones sobre lo que es variable y lo que no en el lenguaje al que nos referimos,
i.e, hay un “problema de indeterminación” referente a lo que cambiamos en un
argumento (Sagüillo 2007: 71).

Veamos un ejemplo de argumentación:

“El pulgar es un dedo articulado”


“El índice es un dedo articulado”
“El medio es un dedo articulado”
“El anular es un dedo articulado”
“El meñique es un dedo articulado”
“Todos los dedos son articulados”
Bajo un enfoque Aristotélico, es un argumento inductivo y falaz, pues pasamos de lo
particular a lo universal. Bajo un enfoque informacional es también un argumento
inductivo, pues hay más información en la conclusión que en las premisas (¿?), no todo
supuesto necesario para llegar a la conclusión está en las premisas (el total de los dedos
son pulgar, índice, medio, anular y meñique). Para afirmar que esta argumentación es
correcta, como intuitivamente parece, dependemos de un conocimiento previo (por aquí
vemos por donde va lo cuantificacional).

Un segundo problema es la ausencia de suficientes contraejemplos en nuestro lenguaje


que nos permitan superar las barreras del mismo para alcanzar un cierto nivel de
generalidad. Junto al argumento de los dedos podemos poner quizás el de los océanos
salados (Sagüillo 2007: 72), pero no disponemos de material para contraargumentar
adecuadamente. Sabemos que materialmente el argumento es válido, pero no podemos
darle suficiente nivel de generalidad. Esto se puede extrapolar a otros lenguajes más
amplios, pero siempre van a tener una capacidad expresiva finita.

Un tercer problema es que dependemos del dominio considerado. Nuestro argumento


sobre los dedos es válido si consideramos una posible realización con el universo de
discurso que incluye a los referentes de dedo habituales en nuestro lenguaje. Pero
supongamos (Sagüillo 2007: 73) que esos nombres propios de los dedos refieren a los
cinco primeros números pares (0,2,4,6,8) de un dominio distinto: los números naturales.
Si “articulado” denota los números pares, entonces la conclusión sería falsa, por más
que las premisas sean verdaderas.

5.3.4 La consecuencia lógica para Quine y Tarski


Tarski nos muestra una noción de consecuencia lógica (o de validez) en la que:

P se sigue de A syss todo modelo de A es modelo de p

(cf, Tarski 1936: 417; Sagüillo 2007: 75)

Si hacemos memoria, la noción de MODELO en Tarski se refería a una secuencia capaz


de satisfacer un cierto conjunto de funciones sentenciales. Es importante observar que
esta noción no depende de manera específica del tipo de lenguaje al que nos referimos.

Quine en cambio:

 Se centra en LPO como la lógica


 Las sustituciones léxicas no alteran la validez.
 La definición se aplica al dominio correspondiente a la interpretación del
lenguaje (sin restricciones ni expansiones)
 Las interpretaciones de los términos con contenido son fijas
 Así, su concepto de verdad lógica es inmanente, pues su enfoque es
intralingüístico.

5.3.5 Validez extra-sistemática


La idea intuitiva de que un argumento válido es una afirmación que no puede ser falsa
es una verdad necesaria. Esto conlleva una noción informal de tautología (que podemos
denominar verdad trivial). Pero, ¿es más amplia la noción (intuitiva) de verdad
necesaria que la (formal) de verdad lógica?

De acuerdo con los lógicos medievales, retomados por Peirce, podemos distinguir dos
tipos de lógica: la LÓGICA UTENS (juicio irreflexivo sobre la validez de argumentos
informales) y la LÓGICA DOCENS (juicio riguroso a través de su representación
formal). Nosotros nos hemos manejado en la segundo, la validez-en-L. Nuestro lenguaje
formal específico, nuestra idea de consecuencia lógica… todo lo hemos definido en
lógica formal.

El concepto de “Válido-en-L” también depende de la identificación e individualización


de cada sistema formal. Hay dos clases de diferencias: las notacionales o de vocabulario
y las inferenciales, de reglas de inferencia o de axiomas.

Diferencias notacionales

Negación: -p; ~p; Np


Disyunción: p v q; Apq

Conjunción p&q; p^q; Kpq

Implicación material: pq; p q; Cpq

Equivalencia material: p (igual con triple barra); p ↔ q; Epq

Cuant. Universal: (x); (∀)c; (una especie de pi mayúscula)x

Cuantificador existencial: (∃)x; Ex; (Σ)x

Diferencias axiomáticas

Todo sistema axiomático posee una o más reglas de inferencia, junto a los axiomas del
sistema. Un sistema basado en la deducción natural se basa en las reglas de inferencia
(incluso podemos empezar sin axiomas si asumimos una regla de supuestos). En
cualquier caso generamos los mismos argumentos.

Los axiomas son unas bases que nos permiten definir a partir de ellas todo el sistema.
Hemos aprendido un sistema lógico de modo mecánico, pero hemos obviado el tema
axiomas. No nos hemos parado a pensar que hay unas proposiciones más básicas que
otras.

Lo que distingue a un sistema lógico de otros es que haya más o menos axiomas y más o
menos reglas de inferencia. En principio no tiene porque haber diferencias entre un
sistema planteado desde axiomas o un sistema basado en la deducción natural.
Generamos el mismo sistema, en el de los axiomas y teoremas es mucho más lento, pero
al final es el mismo sistema.

El esquema axiomático podría ser algo similar a lo siguiente:

(A  B)  ((B  C)  (A C))

Mientras que un esquema inferencial tendría el siguiente aspecto:

(p  q)  ((q  r)  (p r))

Hasta ahora el paso de uno a otro lo hemos hecho de modo automático y natural, sin
plantearnos los posibles problemas que pueda o no traer.

Para empezar, ¿cuándo decimos que estamos ante el mismo sistema? Hay dos sentidos
de esta expresión:

(1) Sentido restringido: L1 y L2 son formulaciones alternativas del mismo sistema


si tienen los mismos axiomas y/o reglas de inferencia. Hemos de asumir cambios
notacionales (e.g., que se pueda reemplazar “&” por “^”) y de constantes
primitivas (e.g., que se pueda reemplazar “p^q” por ¬(¬pv¬q))
(2) Sentido amplio: L1 y L2 son formulaciones alternativas del mismo sistema si
tienen los mismos teoremas e inferencias válidas (una vez establecida la
tolerancia para las diferencias entre oraciones y constantes primitivas, al igual
que en el caso anterior).

Parece que al final todo es una cuestión de cómo representar un sistema, una cuestión de
formalización1. Probemos a formalizar lo siguiente:

“Todo número natural es igual o mayor que cero y todo número natural es par o impar.
Por lo tanto, todo número natural es igual o mayor que cero y par o impar”

Si tenemos que representar esto, podemos hacerlo de muchas formas. La lógica formal
lo formalizaría así: p  q (se puede hacer más fino, pero Haack lo formaliza así). Esto
no permite una buena representación, así que nos vamos a otro plano.

La lógica de primer orden (lógica de términos) lo formalizarías así:

∀x Fx ^ ∀x Gx  ∀x (Fx^Gx)

Se puede hilar más fino:

∀x (Fx v Gx) ^∀x (Hx v Ix)  ∀x ((Fx v Gx) ^(Hx v Ix))

Sobre esto Haack dice lo siguiente:

“es preferible pensar que la representación formal óptima es aquella que revela la
mínima estructura coherente para proporcionar un argumento formal que es válido en el
sistema si el argumento informal se considera extrasistemáticamente válido. Ésta es la
máxima del análisis de superficie de Quine (1960 [Palabra y objeto], p.160): ‘donde no
te pique, no te rasques’”. (Haack: 45/6).

Por coloquial que suene, donde no te pique no te rasques. ¿Hasta qué punto hay que
hilar? ¿Cuándo podemos dar por válida una formalización? pq queda pobre, pero la
tercera formalización parece excesiva. ¿dónde paramos?

Davidson en “The Logical Form of Action Sentences” (1968) propone el siguiente


ejemplo:

“El presidente firmó el acuerdo con una pluma azul. Por lo tanto, el presidente firmó el
acuerdo”.

Una posible formalización de esto es: Fa  Ga.

De acuerdo con Quine y Haack habría que hacerlo de un modo algo más complicado.
Sin formalismos:
1
Parece que hay un hilo, pero realmente son como cuestiones que va introduciendo una detrás de otra
∃x (x era una firma del acuerdo por el presidente y x estaba hecha con una pluma azul)

∃x (x era una firma del acuerdo por el presidente)

La cuestión continúa abierta.

5.5 Cuantificadores
Abandonando un poco el terreno de la filosofía de la lógica y entrando en el de la
filosofía del lenguaje, aparece la pregunta por los cuantificadores. ¿Qué es un
cuantificador? Aparentemente es algo que modifica las expresiones hasta el punto de
tener cantidades. Así en “Cinco hombres jóvenes” el cuantificador es 5 y nos dice que
hay 5 elementos del dominio que comparten esas dos propiedades.

En lógica normalmente hablamos de dos cuantificadores: todo y al menos un. Esto es un


poco arbitrario. De algunas cuantificaciones puedo hablar fácilmente (no más de 6,
como máximo 80…), pero de otras no tanto. Muchos no es todos, tampoco es al menos
uno… habitualmente lo que decimos es más de la mitad. Unos cuantos también es
problemático. Los matices del contexto suelen satisfacerlo, pero la lógica… ¿cómo se
enfrenta a ello? Veamos algunos casos.

“Hay al menos un individuo que es F y G” ∃x(Fx^Gx). Así es como siempre hemos


usado el existencial. Normalmente no decimos esto. Decimos uno, unos cuantos, unos
pocos…

“Hay como máximo un individuo que es F” ∀x∀y((Fx^Fy)x=y). Tampoco es muy


común en el contexto conversacional, pero es más preciso.

“Hay un solo individuo que es F” ∃x(Fx^∀y(Fyx=y) ó ∃x∀y(Fy ↔ x=y))

“Hay sólo dos individuos que son D” ∃x∃y(Fx^Fy^x ≠y^∀z(Fzz=xvz=y))

“Al menos dos individuos son F y G” ∃x∃y(x ≠y^Fx^Fy^Gx^Gy)

La capacidad expresiva del lenguaje formal es bastante buena/decente. Podemos


combinar cuantificadores para poder expresar los cuantificadores naturales. El problema
es que no todo lo que queremos expresar en lenguaje común aparece en lenguaje
cuantificacional. Por ejemplo: muchos.

Muchos como más de la mitad: M = más de la mitad.

A ver si con esta adición de un cuantificador nuevo podemos enfrentarnos al asunto.

1) Mx (Vx  Hx) (Muchas vacas comen hierba).


Lo que decimos es que MxΦ es verdadero solo si en el dominio hay más objeto que
satisfacen Φ que los que no lo hacen. Expresado así, sii hubiese menos objetos en M
que fuera también se cumpliría.

2) Mx (Vx ^ Hx)

M tiene los males del cuantificador universal y del existencial. Con esto decimos que
más de la mitad de los objetos son vacas y además comen hierba. Esto no es lo que
queremos decir.

Parece que nuestro cuantificador M no se adecúa a nuestro lenguaje natural y que


nuestro lenguaje natural (tan desordenado y desastroso como dice Frege) tiene una gran
capacidad expresiva que los lenguajes formales no tienen. Llegan más lejos.

Teoría de cuantificadores generalizados – A. Mostowski (1957) y P. Lindsröm (1966). Adaptada a


lenguajes naturales por Richard Montague (1974)

Cuantificadores n-arios

Un cuantificador n-ario pone en relación n clases y un dominio:

Cuantificadores unarios:

∀xΦ: el conjunto de los individuos que satisfacen Φ es el dominio

∃xΦ: la unión del dominio con la clase de los individuos que satisfacen la propiedad no
es un conjunto vacío.

Con esto nos hemos salido de la idea de que solo se cuantifican los nombres propios,
pues también podemos cuantificar clases respecto del dominio.

5.5.1 Descripciones definidas


La descripción definida denota un objeto que satisface una cierta descripción. Ejemplos:

El actual rey de Francia

La cama
El primer perro que nació en el mar

Es como “hay exactamente un objeto que…”. Se suele definir con el uso del “El”. Más
concretamente “El x que…”.

Normalmente no son nombres propios y dependen del contexto de aplicación. Cuando


hablamos de un nombre propio necesitamos especificar un poco más. No sé quién es
Pedro, a menos que me digas este Pedro. Las descripciones definidas dan un poco más
de información, pero siguen teniendo un factor contextual.

El actual rey de Francia no remite a nada. ¿Puede ser verdadero? ¿El actual rey de
Francia es calvo es falso? ¿O directamente no tiene sentido? Es una oración, pero para
Frege carece de sentido y no es una proposición. Para Russell tiene sentido, lo podemos
formular, pero es falsa.

Russell considera que las descripciones no son términos propios. Entonces, ¿qué ocurre
con las descripciones? ¿Cómo lo manejamos respecto a la cuantificación? Tenemos una
notación, pero son términos individuales complejos. ¿Cómo podemos simplificarlo?
Uno de los objetivos de la lógica es concentrar la variación de elementos del lenguaje
cuantificacional dentro del carril.

Empezamos por las expresiones que emplean el término iota (ι), cuantificador definido.
Pueden representarse de forma general como “El Φ”. La descripción definida puede
sustituir a un nombre o pronombre:

Juan Pegó a Pedro  Juan pegó al hijo de Antonio

María y Esther se fueron a nadar  María y la prima de Luis se fueron a nadar

Cervantes era manco  El autor del Quijote era manco

¿Cómo formalizamos todo esto? Por ejemplo “El perro que acabas de oír es mío”
podemos formularlo de distintas formas:

LPO: ∃ (Px^∀y(Pyy=x)^Qx) (existe un perro y todo lo que acabas de oír es ese perro
y ese perro es mío)

Con iota: QιxPx (El perro que acabas de oír es mío)

También hay descripciones indefinidas. Definida: el perro que acabas de oír. Indefinida:
uno de los perros que acabas de oír.

Esto nos permite establecer vínculos más claros entre descripciones definidas y la teoría
más amplia de cuantificadores generalizados.

5.5.2 Descripciones definidas y cuantificadores generalizados


Los hombres golpearon a Pedro  Dos hombres golpearon a Pedro
Los individuos de la fila se quejaron  Todos los individuos de la fila se quejaron

Todo viajero ama alguna ciudad  Todo viajero ama la ciudad.

Si esto es así, necesitamos reglas semánticas para la idea de la cuantificación:

[[Elα (Φ, Ψ)]]AJ es verdadero syss:

a) Para un único elemento del dominio A se cumple que [[Φ]] AJ’ es verdadero, para
una asignación J’ que es igual en todo a J excepto en el valor que posiblemente
asigna a α
b) Para un único elemento del dominio A se cumple que [[Φ] AJ’ es verdadero y
[[Ψ]]AJ’ es verdadero, para una asignación J’ que es igual en todo a J excepto en
el valor que posiblemente asigna a α.

Consecuencias: esa proposición tiene sentido, pero es falsa. Lo único que hace es
comprometerse de entrada con algo que es verdadero si se introduce algo que lo cumpla.
Frege diría que no tiene sentido afirmar sobre algo que no existe, pero aquí lo que
sucede es que no hay un objeto que satisfaga mi afirmación (el actual rey de Francia es
calvo). Lo único que tenemos que hacer es poner en relación afirmaciones bien
formadas con el dominio, es muy empirista por parte de Russell.

**El “el” lo que hace es establecer una clase de un objeto y relacionarlo con otra clase.

El concepto de cuantificación aparece en Frege, pero lo trabaja C.S.Peirce. Frege no


distingue entre la lógica de primer y segundo orden. Lógica de primer orden: ∃xPx. En
lógica de segundo orden diría que ∃x∃P Px. Decimos que existe la propiedad de ser
rojo. Esto es muy medieval. Hay grandes oposiciones pues parece decir que las
propiedades existen al margen de los individuos, existe el rojo, existe la calvicie.
Quienes no dan este paso dicen que no creen en las propiedades sino en las formas de
ordenar los objetos en base a ciertas percepciones de ellas. Un lógico dirá que tengo
contacto con el cristal, no con la esfericidad de la bola de cristal. Otro dirá que no da
problemas ontológicos. La lógica de segundo orden va un paso más allá de donde
estamos perfectamente legitimados y por eso hay que tener cuidad con ella.

Frege no las distingue, pero Peirce distingue la de primer orden y la de segundo orden.
En estas lógicas la distinción fundamental es entre función y argumento. En la lógica
aristotélica y en la de los cuantificadores generalizados nos deslizamos a la distinción
entre sujeto y predicado (se predica algo de un nombre propio). Pero con Peirce y con
Frege no, Peirce y Frege juegan en la liga de la función y el argumento con los dos
cuantificadores usuales. Montague y los otros de hoy se basan en otra cosa. Al final
pueden encontrarse, pero con ciertas dificultades.
5.5.3 Dos enfoques sobre la cuantificación y el compromiso ontológico
Dejando a un lado los cuantificadores nuevos, esto es, reduciendo los cuantificadores a
universales y existenciales, tenemos dos enfoques de la cuantificación, dependiendo de
si nos comprometemos o no con los objetos.

Desde un punto de vista lógico, Frege se compromete con entidades existentes como el
número o la clase, como si existiera la propiedad de ser rojo. Los compromisos
ontológicos, en general, son problemáticos, pues, ¿podemos comprometernos con la
existencia del unicornio? No, pero sin embargo es un objeto de la lógica.

A este problema nos podemos enfrentar desde dos perspectivas distintas: la


interpretación objetual de Quine, que desplaza el compromiso a los cuantificadores, y la
interpretación sustitucional, que renuncia a cualquier tipo de compromiso.

Interpretación objetual (Quine)


Quine sostiene que establecemos un compromiso con entidades al margen del lenguaje.
A diferencia de los sustitucionalistas (de los que hablaremos más adelante), hay en
Quine una confesión de que la ontología de base es importante. En el discurso
cuantificacional lo que hacemos es establecer medidas o límites a cerca del dominio de
entidades sobre el que trabajamos, por lo que hay entidades al margen del lenguaje. La
pregunta, para Quine, no es si hay entidades, sino qué entidades hay, con qué
necesitamos comprometernos para construir oraciones verdaderas. Su objetivo no es
negar el compromiso, tan solo bajar el límite de este compromiso, no comprometerse
con la rojez, evitar exuberancias en este compromiso.

Así, opone a la idea de ontología la “ideología”, pero una ideología entendida como el
estudio de unas ideas que no son entidades que existan al margen sino que nos ayudan a
pensar las entidades “reales”. Con su noción de ideología le pasa, pese a intentar
evitarlo, como a Frege: considera que los discursos matemático y científico son más
fiables, interesantes y elevados. Esto le lleva a problematizar el nombre propio, pues es
un elemento que no se encuentra en las matemáticas.

Es precisamente el nombre propio el que da respuesta a la pregunta ontológica: ¿Dentro


de un lenguaje, con qué individuos o entidades nos comprometemos? Con aquellas que
tienen un nombre propio. ¿Por qué? Porque los nombres propios denotan individuos.

Ante esta problemática que no aparece en las matemáticas (no hay un equivalente a
Pedro y María en la matemática), Quine se decanta por evitar estos compromisos,
situando el compromiso ontológico en los cuantificadores. La interpretación tradicional
diría que en una clase de 3 individuos (a, b y c), a, b y c son los nombres propios, los
cuales denotan las entidades de la clase. Quine sostiene que, en un discurso matemático
y ordenado, yo diría “∀xPx”, “Para todos los objetos x en el dominio Px”, sabiendo que
la x representa a los tres individuos, a los tres objetos. Así, el compromiso no está en
que un nombre propio denote una entidad sino en los cuantificadores que afirman su
existencia o inexistencia (su efectiva pertenencia a la clase o no).

La primera pega que podemos hacerlo a Quine es que al expresarlo de esta forma
introducimos la P, cuando nosotros no hablamos así de los objetos. Nosotros no
denotamos a nuestros objetos a través de cuantificadores y relatores, nosotros usamos
nombres propios o descriptores. No decimos un Pedro o un objeto llamado Pedro,
simplemente decimos Pedro. Al proponer esta teoría, Quine tensa el lenguaje más allá
de donde podemos llevarlo.

Para analizar esto de modo más detallado, A.Meinong y, siguiéndole, Russell ponen el
ojo en el problema de los existenciales negativos, pues son aquellos que no denotan.
Pongamos el siguiente ejemplo:

Pegaso no existe

Esto es, si trabajamos en el dominio de cosas reales, verdadero. Pero para expresarlo al
modo de Quine le añadimos un existencial:

Existe algo que no existe

En términos lógicos el argumento es correcto: existe un x tal que x no existe. Ese x es


Pegaso. Y sin embargo la conclusión es claramente falsa, siendo la premisa claramente
verdadera. Aquí hay una posible solución: la premisa no es verdadera, directamente
carece de sentido hablar de algo que no denota. Pero se nos antoja verdadera. Otra
forma de salir de esta situación es formalizar así:

∃x (x no existe)

De acuerdo con esta formalización, hay dos formas distintas de “existe”: como concepto
(x no existe) y como concepto de conceptos (∃). Así, la particularidad del objeto que
existe es no existir. Para asimilar esto, tendríamos que poblar el dominio con al menos
un objeto que no existe. En cualquier caso, el problema ontológico queda relegado a los
cuantificadores.

A Quine le parece mejor esta otra formalización:

¬∃xPx

Esto también tiene un problema, porque de esto no se sigue que Pegaso no exista. Y sin
embargo, esta es la teoría que mejor parece encajar.
El problema de ambas formalizaciones es que interpretan el nombre propio como una
clase. Esto se puede solucionar diciendo que P no es “ser Pegaso” sino “pegasear”, no
es Sócrates, es “el que socratea”. Esto es completamente contraintuitivo, pero a fin de
cuentas es una clase rara de propiedades.

Esta transformación diría algo así:

- “Sócrates”= a. Así: ιx Sx (“El x que socratea”)


- VιxSx
- ∃(Sx^∀y(Syx=y)^Vx)

Es decir:

“Sócrates tomó veneno” (Aplicamos el término de propiedad V a “El x que se


Socratea”)

“El x que socratea tomó veneno”

“Hay exactamente un x que socratea y ese x tomó veneno”

El comrpomiso está ahora en la, no en la a. (“A cerca de lo que hay”, p.38-47”)

“Todo lo que puede decirse con la ayuda de nombres puede decirse también en
un lenguaje que no los tenga. Ser asumido como entidad significa pura y
simplemente en ser asumido como valor de una variable” – p.39

A raíz de esto a Quine se le asigna el siguiente lema: ser es ser el valor de una variable.

Al final Quine lo que quiere es simplificar el lenguaje formal, eliminar de la lógica y de


su filosofía todas las entidades innecesarias, todo lo superfluo. Otros no, otros lo
pueblan todo, hasta crean otros mundos. En este sentido, la filosofía de Quine es una
navaja de Ockham, de hecho Ockham diría que no existe lo rojo, solo los objetos con la
propiedad de ser rojo. A esto Quine añade: el objeto no solo es rojo, suave o frágil sino
que además socratea o pegasea. Con esto soluciona el problema de “Pegaso no existe”.
Puedo decir que un perro es blanco sin comprometerme con la existencia de la blancura
o la perreidad. Tiene que existir algún perro blanco, pero no la perreidad o la blancura.

Esto es lo que lleva a las siguientes identidades:

Realismo = Logicismo: ambos proponen que las ideas son universales y no están
producidas por la mente, sino que se descubren. Autres serían Frege, Russell, Carnap o
Charles.

Conceptualismo = intuicionismo: ambos proponen que las ideas son universales, pero
están producidas pro al mente, se inventan. Es el idealismo conceptualista. El autor
fundamental es Brovwer, pero también hay otros como Poincaré o Weyl.
Nominalistas = formalistas: ambos se niegan a admitir entidades abstractas. Las ideas
no son ni descubiertas ni generadas por la mente. Simplemente no hay entidades. Como
autor encontramos a David Hilbert, quien formalizón la geometría euclidiana original.

En resumen, para le interpretación objetual (Quine con base en Russell) nuestros


compromisos ontológicos se revelan en el modo en que cuantificamos nuestras
variables. Para nosotros ser es ser el valor de una variable.

Interpretación sustitucional
La salida a Quine nos la dan Ruth Barcan Marcus y Benson Mates, para quienes no
hacen falta compromisos de corte ontológico sino únicamente hallar los compromisos
adecuados. No les preocupa cómo las flechas remiten a los individuos, cómo el objeto
es un objeto real. No consideran esto una pregunta lógica sino una pregunta ontológica.
Lo que quieren saber es a qué términos sustituyen las variables. Las variables no
remiten a objetos, remiten a términos. Lo que nos preocupa aquí es qué tipo de términos
están en el lenguaje y de qué manera estos términos reemplazan a las variables.

Como muestra A.Díez en su Introducción a la filosofía de la lógica, ∀xFx es verdadera,


según esta interpretación, siempre que sea verdad que Pa^Pb^Pc^…^Pn (y una
disyunción de las mismas proposiciones atómicas para el caso de ∃x Fx). Lo importante
es que un término que no refiera es aceptable en esta interpretación.

El problema que planteábamos viene con los objetos que tienen un nombre que denotan
pero que no son válidos, por ejemplo, Sherlock Holmes y Pegaso. Tienen
características, pero no existen. La interpretación objetual del enunciado “Pegaso no
existe” generaba grandes problemas, bien por postular la disponibilidad de objetos no
existentes para la evaluación, bien porque debíamos convertir los nombres propios en
(artificiales) propiedades predicables de una variable cuantificada.
Para la interpretación sustitucional de dicho enunciado no necesitamos tales recursos. “x
no existe” puede ser verdadera, pues basta que haya una instancia de sustitución que la
haga verdadero. Así “Pegaso no existe” podemos traducirlo por:

¬(a existe)

Si le añadimos el cuantificador existencial sustitucional (más adelante) tenemos que:

Σx¬(x existe) [introducción de Σ]

Este argumento sí es válido (Cd. MacFarlane).

Para la interpretación sustitucional es necesario introducir dos nuevos cuantificadores: Σ


(existencial sustitucional) y Π (universal sustitucional). Así: dados los dos
cuantificadores sustitcionales acostumbrados, Π y Σ, las nuevas reglas semánticas que
nos interesan son las siguientes:

De un modo más técnico, ∀x Fx y ∃x Fx significan, respectivamente, que:

(1) Todo término de L que sea una instancia de sustitución de x produce una oración
verdadera al ser sustituido por x.
(2) Hay al menos un término de L que es una instancia de sustitución de x y que al
ser sustituido por x genera una oración verdadera.

(Frápolli 2007, p.171) (Filosofía de la lógica en la bibliografía del curso).

O bien, según Haack:


(3) “∀x Fx” se interpreta como “Todas las instancias de sustitución de ‘D…? son
verdaderas”.
(4) “∃x Fx” se interpreta como “Al menos una instancia de sustitución de ‘F…’ es
verdadera”.

5.6 Términos singulares


3 LECTURAS: “Sobre sentido y referencia” (Frege), “Sobre la denotación” (Russell) y
“El nombrar y la necesidad” (Kripke). Tb escriben Strawson, Wittgenstein y otros.

La pregunta aquí es cuál es la esencia del significado potencial de los nombres propios.
Para ello vamos a trabajar con el denominado “puzle de Frege”:

Varias constantes pueden denotar al mismo individuo. Por ejemplo: [a] A= x,


[b]A=x. Frege lo dice con Héspero y Fósforo, siendo ambos Venus (uno al
amanecer y otro al anochecer), nosotros podemos dar un ejemplo más pop:
Superman y Clark Kent. En cualquier caso, cuando dos constantes a y b remiten
al mismo individuo x yo puedo hacer afirmaciones como a=a o como a=b, y
ambas son verdaderas pues extensionalmente es una identidad de un objeto
consigo mismo. Sin embargo desde un punto de vista intensional son muy
distintas, pues no es lo mismo decir Superman = Superman que Superman=Clark
Kent. La primera es una verdad analítica, una tautología, La primera aporta
información. Dicho de otra forma: no necesito saber historia de Roma para saber
que Tulio=Tulio, pero sí para saber que Tulio=Cicerón.

Frege intenta resolver este puzle diciendo que los nombres no solo tienen referencia
sino que también tienen sentido, esto es, que no solo denotan objetos, también connotan
algo.

En realidad encontramos dos grandes escuelas en respuesta a este problema:

(5) Teoría descriptivista del significado: Además de tener referencia, los nombres
propios connotan algún tipo de significado. Así, cuando digo “Platón” estoy
diciendo también “maestro de Aristóteles”, “Autor de la República”, etc. A su
vez encontramos dos grupos de descriptivistas:
a. Conjunción: las distintas descripciones asociadas al nombre propio (que
le dan sentido) se unen mediante conjunciones.
b. Disyunción: En vez de con conjunciones se unen con diyunciones.
Autores de esta corriente serían Frege, Russell, Strawson o Wittgenstein.

(6) Teoría designativa o denotativa: para estos autores el nombre propio solo tiene
referencia y esa referencia agota su significado. Esto nace con John Stuart Mill,
pero “el jefe” es Kripke.
Para Frege con el nombre propio no solo asignamos una etiqueta, también asignamos
una descripción (el significado que tenemos en nuestra mente), siendo estas
descripciones distintas para cada persona (el primo de Pepe y el profesor de Derecho
son la misma persona, Juan). Para solucionar el puzle de Frege necesitamos saber todas
sus descripciones (descriptivistas de conjunción), alguna de ellas (descriptivstas de la
disyunción) o, como diría Kripke, tener esa individuo.

Veamos todo esto con un poco más de detalle. El problema planteado es el de los
términos singulares (constantes de individuo), concretamente nos preguntamos cuál es
su equivalente. La respuesta que estamos dando es que se corresponden a los nombres
propios, pero a su vez hay otro elemento: los descriptores. ¿Cómo se relacionan? Los
descriptivistas, como veremos ahora con profundidad, sostienen que un nombre propio
es la conjunción o la disyunción de todas las descripciones posibles; otros filósofos
dirán que no, que nombres y descripciones son designadores que agotan su significado
en la referencia. Además, veíamos en el apartado anterior a Quine, para quien no tendría
sentido esta discusión, pues el compromiso está en el cuantificador que indica la
existencia o no de un objeto que “socratea”.

Lo que está claro es que es un problema complejo que nos plantea preguntas como el
puzle de Frege (a=x=b), la reutilización de etiquetas (dos Pedros, dos Marías… no hay
una relación biunívoca) o el de los nombres que no denotan (y con ello las lógicas
modales y la especulación sobre necesidad y posibilidad).

5.6.1 Frege
De acuerdo con Frege, hay tres tesis que no pueden ser sostenidas a la vez:

1. El significado de una expresión referencial genuina (término singular, nombre


propio, descripción) es su referente

2. Una expresión referencial genuina es o bien un término singular o bien es una


descripción definida

3. El significado de una sentencia (S) es una función de dos cosas: su estructura


gramatical y los significados de sus partes (principio de composicionalidad).

Frege elimina la primera de ellas: se opone a que el significado de un nombre propio


quede agotado por su referencia, es decir, al usar un término no solo denotamos:
también connotamos. Cuando eliminamos la primera tesis, lo que decimos es que hay
una cierta densidad de cosas con las que no habíamos contado al principio. El texto en
el que trata todo esto es “Sobre sentido y referencia”.

De acuerdo con esto Wittgenstein no es sólo Wittgenstein, es el autor de ciertos tratados


de filosofía. Pero, ¿hasta qué punto una descripción es sinónima de un nombre propio?
¿Cuántas descripciones hacen falta para tener a Shakespeare? ¿Basta con decir que es el
autor de Hamlet? ¿Hay que decir todas sus obras? ¿Hay que decir también de quién era
hijo? ¿Y de quién era amigo? Si yo pongo Shakespeare = … ¿Cuántas cosas tengo que
poner al otro lado para que sea una expresión analítica? ¿Cuándo puedo decir que sé lo
que es Frege?

5.6.2 Significado y referencia: Teorías descriptivistas


Frege nos lleva inevitablemente a una concepción descriptivista del significado en la
que un término singular denota y connota aquello que pensamos. Russell, en ensayos
como “Misticismo y lógica”, “Conocimiento y lógica” y “sobre la noción de causa”,
introduce los nombres lógicamente propios que serían “esto”, “eso” e incluso “yo” (él
excluye el yo y el ego de su filosofía, y además cambia de opinión sobre ellos a lo largo
de su trayectoria, así que el tema del yo es confuso). Estos nombres lógicamente propios
no los asociamos a ninguna descripción, mientras que el resto sí necesitan de al menos
una. En cualquier caso, surge un gran problema: si cada uno tenemos una cosa en la
cabeza, si Juan para mí es “el primo de Pepe” y para otro es “el profesor de Derecho”,
tenemos un problema de significado.

Frege y Russell son pioneros en esto, pero a otros autores como Wittgenstein y Searle
les tocará resolver este problema. Para ello Wittgenstein (el segundo) propone los
juegos del lenguaje, en los cuales conocemos un término cuando lo usamos según sus
reglas de uso. Por ejemplo, la palabra juego se puede usar en muchos sentidos: en la oca
gana alguien, en la pata coja no; si juego con un niño me da igual perder, si es un
partido de fútbol no. Son cosas que no siempre se parecen (tienen parecido de familia,
según Wittgenstein), pero que sabemos usar y reconocer. No es que el término tenga un
significado y después lo aplique, sino que yo, por familiaridad, sé usar el término.

Wittgenstein corrige la carencia de explicación en el significado de los términos del


resto de los filósofos de esta corriente y da solución al problema de la comunicación:
Todos sabemos quién es Moisés. Uno lo sabrá porque fue a un colegio religioso, otro lo
sabrá porque vio la peli y otro por un videojuego. Cada uno tiene sus descripciones,
tenemos subconjuntos distintos, pero tenemos algo en común: Moisés es un personaje
bíblico que dirige el éxodo. Nos situamos con facilidad en la teoría del cúmulo de
descripciones, frente a la cual podemos acumularlas con conjunciones (hace falta tener
todas las perspectivas de la casa para tener la casa) o con disyunciones (con tener una
descripción ya tenemos a Moisés). El cúmulo disyuntivo lo trabajaría Searl, quien
sostiene que el vínculo entre un nombre y una descripción no es analítico pero que el
vínculo entre un nombre y una disyunción de descripciones sí lo es. Si nos vamos a la
comunidad de hablantes de Wittgenstein, ¿qué disyunción tenemos? Un promedio de
todas las disyunciones que toda la comunidad conoce (en términos de Kripke, de una
cadena causal). En cualquier caso, el sentido lo proporcionan las descripciones.
5.6.3 Significado agotado por la referencia: Kripke, teoría causal de la
referencia.
En esta perspectiva tenemos autores como J.S.Mill, P. Ziff y, sobretodo, Saul Kripke.
La idea original (de Mill) es que los nombres propios no tienen significados sino que
únicamente refieren individuos u objetos, pero Kripke va más allá al no asumir la visión
epistémica de que cuando usamos un nombre propio algo se incluye en nuestras
conciencia, esto es, al quitar de en medio al sujeto y establecer la relación directamente
entre la etiqueta y el objeto. Esto hace de su teoría, expuesta en “el nombrar y la
necesidad”, una teoría causal de la referencia en la que el individuo es lo que hace que
mi sistema sea adecuado o no.

Para ello Kripke formula los mundos posibles, los cuales son como el mundo “actual”
pero con una variación en una descripción. Así, yo puedo crear un mundo posible en el
que Aristóteles no sea alumno de Platón, pero no un mundo posible donde Aristóteles
no sea Aristóteles. Los nombres propios son designadores rígidos que nos permiten
designar un individuo ajeno al resto del mundo. Estos mundos posibles son
especulativos, cuantitativos y contrafácticos, por lo que las etiquetas que designan en el
mundo actual no pueden variarse.

Parece que quiere llegar a que gracias al nombre propio podemos comunicarnos: refiere
a este individuo sea quien sea el que lo dice. Pero yo puedo conocer a una persona por
su apellido y otra persona puede conocerle con otra variación de su nombre. Es más,
esto pasa habitualmente. Qué pasa con los motes. Tulio = Cicerón. Modificaciones
cualitativas a priori. Etiqueta que designa EN EL MUNDO ACTUAL (todos son mundos
reales??. No tiempo.). Sobre todo el tema a priori a posteriori. Hasta entonces no se le
había hecho casito a lo posteriori, solo a lo constitutivo (priori), de modo que la
metafísica depende de la epistemología. Le da la vuelta. Dependemos de lo metafísico.
¿Deflacionismo? Conocimiento por relación causal con ello, conozco cosas sin saber
que las conozco por tener una relación de intimidad causal. Aplicación epistemológica.
Especulativos, cuantitativos y contrafácticos (lo que cambio es una cosa del palo la luz
de la farola en vez de ser blanca es roja).

Esto se debe a que hay dos tipos de necesidades que no podemos variar: las
lógicas/epistémicas y las metafísicas.

(7) Necesidades lógicas o “de dicto”: se caracterizan porque no podemos negarlas


sin incurrir en una contradicción
(8) Necesidades metafísicas o “de re”: algo es de una determinada manera y no
podría dejar de serlo en ninguna circunstancia. Este es el tipo de necesidad del
nombre propio. Podemos preguntarnos qué tiene que perder un tigre para dejar
de ser un tigre y responder a través del ADN, pero nos iríamos a teorías
esencialistas.

Las necesidades de re determinan necesidades esenciales del objeto, entre ellas disfrutar
de una etiqueta llamada nombre propio que es el designador rígido y que posee la
misma referencia en todos los mundos posibles. Las necesidades de dicto son
enunciados puramente analíticos, verdades triviales como Tulio=Tulio, mientras que las
metafísicas o de re son más complicadas, pues nos permiten modificar algunas cosas.
Identidades como Tulio = Cicerón entrarían dentro de las necesidades metafísicas.
Veamos un ejemplo para aclarar la cuestión:

Partimos del enunciado:

1. “Para todo cuerpo celeste x hay un cuerpo celeste y tal que x=y”

Y lo convertimos en:

2. “Necesariamente para todo cuerpo celeste x hay un cuerpo celeste y tal que x=y”

Esto lo hacemos a través de:

3. “Para todo cuerpo celeste x hay un cuerpo celeste y tal que necesariamente x=y”

A esto se le llama cuantificar en contextos modales (Quanitfying in) y es algo que, si


bien la lógica lo permite, no se debe hacer (al menos para Quine). ¿Por qué? Porque
podríamos expresar todo esto como:

4. “Hay un cuerpo celesta y tal que y es necesariamente idéntico a la estrella de la


mañana”

Para que esto sea verdadero, tiene que cumplirse que:

5. “necesariamente y es idéntico a la estrella de la mañana”

Esto es un problema, pues lo que en principio tendría que ser una necesidad lógica no
parece una verdad analítica. Solo en un escenario de dicto en el que efectivamente y sea
la estrella de la mañana lo sería, pero si en vez de la estrella de la mañana pusiera la de
la tarde, esto sería contingentemente verdadero, sólo en nuestro mundo eso es verdad.
Por eso Quine nos advertía sobre cuantificar en contextos modales.

Kripke responde a todo esto con su necesidad metafísica o de re diciendo que hay un
modo en el cual, refiriendo al objeto, podemos decir que es verdad. ¿Qué ocurre? No
todo el mundo está preparado para que haya una “necesidad a posteriori”, pues todos
asumimos que las necesidades se dan a priori y las contingencias a posteriori. Este es el
gran aporte de Kripke (o al menos uno de ellos), revelar que necesidad/contingencia y a
priori/a posteriori son categorías distintas y que podemos tener necesidades a posteriori
y contingencias a priori. Con esto se deshace de este prejuicio al que nos hemos
acostumbrado filosóficamente.

En los mundos posibles podemos variar los aprioris, mientras que lo que no podemos
cambiar de ninguna forma es la necesidad de re que solo puedo conocer a posteriori.
Con esto Kripke le da la vuelta a todas nuestras asociaciones de categorías (igual a todas
no). Mientras Quine dice que hay que quitar todo esto de en medio, Kripke dice que no
hace falta, que hay una necesidad que no es lógica.

¿Cómo reconcoemos una necesidad metafísica? Por qué esto es una necesidad
metafísica y esto otro no? Al final apuntamos al sentido común?

Desde este punto de vista, el nombre propio no tiene un significado, es un designador


rígido. Un modo de determinar el individuo al que refiere o designa el nombre propio,
es el descriptor. ¿Quién es Julio César? Es un determinado emperador de Roma. Ah,
vale, ya sé quién es.

Pero, ¿cómo sabes que Julio César designa rígidamente a un objeto? Con una cadena de
comunicación. Alguien nace, hay un acto bautismal en el que a un determinado sujeto se
le aplica un nombre permanentemente. Aquí es donde entra la parte pragmática o social:
dependemos de formar parte de una comunidad de hablantes que maneja el término de
manera más o menos continua. Necesitamos una comunidad de hablantes que respalde
los usos designativos de un individuo concreto. Luego hay casos.

5.7 Teorías de la verdad


Familias de teorías (Cd. S. Haack, Filosofía de las lógicas):

(9) Teorías de la coherencia: Son aplicables con bastante facilidad y probablemente


sean las más adecuadas, pero nos producen rechazo al sostener que la verdad es
algo interno a nuestro sistema de creencias.

(10) Teorías de la correspondencia: Las más intuitivas y las que más


dificultades tienen. Un ejemplo es la dificultad de establecer una
correspondencia entre el mundo y el lenguaje, pues se tiene que hacer desde
fuera.

(11) Teorías pragmatistas: Sostienen que afirmar que algo es verdadero


conlleva un uso distinto de las creencias en las siguientes frases.

(12) Teorías semánticas: Tarski.


(13) Teorías de la redundancia: “Es verdadero que p” = “p”. La palabra
verdadero es redundante y por ende eliminable.

Teóricos de la coherencia:

(3) F.H.Bradley (1914): idealista británico, heredero de Hegel antes de Russell y sus
revueltas en contra del idealismo. En conocimiento: primera reforma del
coherentismo para evitar el alejamiento del mundo.

(4) Oto Neurath (1932): Positivista. Anticipa el holismo de Quine a través de la


metáfora de un barco según la cual estamos inmersos en nuestro sistema de
lenguaje y sólo podemos conocer el mar desde nuestro propio barco. Rompe con
la distinción entre lenguaje observacional y teórico, sosteniendo en su lugar que
no hay un conjunto privilegiado de enunciados.

(5) N. Rescher (1973): Tiene tantos elementos pragmatistas como coherentistas.

Teóricos de la correspondencia:

(6) Russell (1918)

(7) Wittgenstein (1922): Isomorfismo estructural

(8) Austin (1950, “truth”): Adopta una perspectiva distinta y aporta cosas muy
nuevas como que los elementos sensoriales son los que permiten establecer la
correspondencia entre mundo y lenguaje. Habla, entre otras cosas, de relaciones
entre las palabras particulares y las “oraciones tipo” o de que el mundo cumple
un papel importante.

Teóricos pragmatistas:

(9) Peirce (1877, “la fijación de la creencia”): habla de la verdad como un estado a
largo plazo. Para llegar a él resolvemos una duda, un estado incómodo o de
inquietud que tratamos de suprimir por completo. Al final las teorías
pragmáticas lo que buscan es resolver problemas de nuestro modo de vida,
siendo el objetivo un estado cómodo en el que no tengamos preocupación por
los errores. Resulta interesante esta idea del objetivo, la meta, el fin último.

(10) Dewey (1901): trabaja la asertabilidad o aseverabilidad garantizada. Para


ello equipara la verdad con la justificación de una creencia y propone una teoría
epistémica de la verdad en la que la verdad se reduce a tener razones suficientes
para poder adoptar esa creencia.

(11) William James (1909): el psicólogo del grupo. Para él las creencias
verdaderas son una guía para la experiencia. Esto responde a la máxima
pragmática de Peirce: el uso de lo que teoricemos tiene que traer algún tipo de
mejora, de cambio para nuestras vidas. Un análisis pragmático no es un “nos
quedamos con lo que nos conviene” sino un no quedarnos con dicotomías que
no nos aportan nada (somos parte integrante del mundo, no distinguir sujeto y
mundo…)

(12) ¿Dummet? (1959, “truth” también): analiza la verdad desde un punto de


vista verificacionista y pragmatista, pero no enriquece la teoría.

Teóricos semánticos:

(13) Tarski (1922)

(14) Cd. Popper (seguidor a ultranza de Tarski que aplica la teoría al lenguaje
natural), Cf. H.Field (“Tarski’s Theory of Truth, 1972, inspirado en Popper), Cf.
S. Kripke (“Outline of a Theory Truth”, 1975).

(15) Relación entre lenguajes. Complejas por ser fundamentalmente lógicas.

Teóricos redundantes o de la redundancia:

(16) Ramsey (1927)

(17) Cf. Strawson, Prior, Mackie

(18) Ramsey era el único al que Wittgenstein hacía caso. Le critica el


Tractatus y le hace volver a la filosofía. Vivió poco, pero dejó muchos artículos
muy potentes como “Fundamentación de las matemáticas” e ideas interesantes
como las sentencias Ramsey (que trabajaremos en el curso siguiente).

También podría gustarte