Lógica Básica.: Una Introducción Al Arte Del Razonamiento

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 456

lógica básica.

una introducción al arte del razonamiento

Carlos Romero

(versión parcial de 29 de abril de 2023.)


ii
Índice

I Fundamentos del Análisis Lógico del Discurso

1 Para qué lógica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3


La importancia de la argumentación: sus fines y aplicaciones 4
La argumentación en la vida cotidiana 5 • La argumentación y las matemáticas 5 • La argumentación
en las ciencias 6 • La argumentación en la filosofía 6
La argumentación y el pensamiento crítico 7
La prudencia y «ser una persona lógica» 8 • El principio de caridad 9 • Las máximas de Grice para la
comunicación 9
La argumentación y otras maneras de convencer 10
La argumentación y la comunicación: Los usos del lenguaje y los actos de habla
12
Usos del lenguaje 13 • Los tipos de actos de habla 16

2 Conceptos fundamentales del análisis con lógica formal . . . . . . . . . 23


¿Qué es una proposición? 24
El concepto de concepto * 27
¿Qué es un argumento? 28
Premisas y conclusiones: implícitas y explícitas 29 • Marcadores argumentales 32 • ¿Más de una con-
clusión o argumentos encadenados? 35
No los confundas: argumentos, condicionales, aclaraciones, causas, explicaciones
36
Condicionales 37 • Aclaraciones 38 • Causas 39 • Explicaciones 40 • Lenguaje puramente descriptivo
41 • Sobre distintos nombres para premisas y conclusiones * 42
Individuando al argumento: la forma estándar 43
Individuando al argumento 43 • La necesidad de la paráfrasis 46 • La forma estándar 49
Tipos de argumentos 49
Argumentos deductivos 50 • Concepto de validez 50 • Argumentos probabilísticos 54 • ¿Argumentos
conductivos? * 56

3 Lógica: filosofía, matemática, modelo y arte . . . . . . . . . . . . . . . . . . . . . . . . .59


Los orígenes filosóficos y matemáticos de la lógica 60
La lógica como modelo 61
La lógica como arte: Argumentación en contexto 63

iii
Los componentes de un sistema lógico 64
LC0 y las lógicas no-clásicas * 65

II Lógica Clásica de Orden Cero

4 El lenguaje de LC0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
Alfabeto de LC0 74
Variables proposicionales 74 • Concepto de constante o conectiva lógica 75 • La negación 78 • La
conjunción 81 • La disyunción inclusiva 83 • El condicional material 85 • El bicondicional material
89
Sistemas de notación 91
Las fórmulas de LC0 93
Explicación de las reglas 95 • Atómicas y moleculares 96 • Subfórmulas 96 • La conectiva principal de
una fórmula y convenciones 97
Notación polaca 100
¿Cómo saber que algo es una fórmula? 101

5 La interpretación de LC0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107


Ejemplo: Movimiento rectilíneo uniforme 108
Del lenguaje formal al natural: interpretación 109
Del lenguaje natural al formal: formalización 112

6 Definición semántica por tablas de verdad . . . . . . . . . . . . . . . . . . . . . . . . . 117


Concepto de función 118
Veritativo-funcionalidad y tablas de verdad 120
Presupuestos clasicistas en las tablas de verdad 122
Las tablas de verdad de las conectivas 122
La tabla de verdad de la negación 123 • La tabla de verdad de la conjunción 123 • La tabla de verdad
de la disyunción inclusiva 123 • La tabla de verdad de la equivalencia material 124 • La tabla de
verdad de la implicación material 124
Asignación de valores 124
Tablas para fórmulas con varias conectivas 125
Clasificación semántica de las fórmulas 129
Los «principios lógicos» 130 • Las «paradojas» de la implicación material * 131
Equivalencia e implicación lógica: Semántica 133
Equivalencia e implicación lógica: Notación 134 • Algunas consecuencias de las definiciones anteriores
134

7 Métodos semánticos para comprobar validez e invalidez . . . . . . . . . . 139


Método del condicional asociado 140
Limitaciones del método del condicional asociado 143

iv
Método de asignación de valores 143
Limitaciones del método de asignación de valores 149 • Asignaciones para argumentos con varias posi-
bilidades 150

8 Métodos demostrativos para comprobar validez . . . . . . . . . . . . . . . . . . . 155


Los diferentes métodos demostrativos 156
Axiomática * 156 • Cálculo de secuentes * 157 • Deducción natural 159
Noción de regla de transformación 159
Deducción Natural para LC0 160
La estructura de una demostración 160 • Sustitución uniforme 160 • Reglas de equivalencia y de in-
ferencia 162 • Reglas de introducción y eliminación 165 • Reglas básicas y reglas derivadas 185 •
Propiedades algebraicas 186 • Definiciones entre conectivas 190 • Interacción entre conectivas 191
Equivalencia e implicación lógica: Demostrativa 195
Equivalencia e implicación lógica: Notación 196

III Lógica Clásica de Primer Orden con Identidad

9 Aspectos elementales de la cuantificación . . . . . . . . . . . . . . . . . . . . . . . . . 201


La lógica de orden cero como modelo de la validez 202
Limitaciones de LC0 como modelo de la validez 203
Predicación y referencia 204
Limitaciones expresivas de LC0 204 • Referencia a objetos individuales 205 • Predicación 205 • Formalizando
predicación y referencia 208 • Estructura proposicional 211
Cuantificación y variables 214
Variables 214 • Los cuantificadores 215 • El cuantificador universal 216 • El cuantificador existencial
217 • Alcance de un cuantificador, variables libres y ligadas 218
Modelos 220

10 El lenguaje de LC1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 227


La gramática de LC1 228
El alfabeto 228 • Las fórmulas 229 • Notaciones alternativas 230
La importancia del orden 230
Restringiendo los cuantificadores 233
Generalidad múltiple 239
Cuantificadores independientes 239 • Cuantificadores en el alcance de otros cuantificadores 239 •
Generalidad múltiple y varias restricciones 244

11 Reglas para los cuantificadores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 249


La heurística para demostrar validez con reglas 250
Reglas proposicionales y sustitución uniforme 251
La forma proposicional de una fórmula cuantificacional 252

v
Cuadrados de oposición 255
Cuadrado clásico de oposición 257 • Cuadrado moderno de oposición 263
Reglas de eliminación e introducción 268
Demostraciones con generalidad múltiple 282
Reglas derivadas de interacción * 282
Cambios de variable 283 • Distribuciones y contracciones 284 • Distribuciones y contracciones, condi-
cionadas 287 • Permutaciones 288

12 La identidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 291
La constante de identidad 293
Conectivas definibles y primitivas 293 • El símbolo de identidad 294 • Oraciones con identidad 294
Las reglas de la identidad 296
Reglas básicas 296 • Reglas derivadas 298
«Hay a lo más n» y «Hay al menos n» * 302
«Hay al menos n» 302 • «Hay a lo más n» 304
Cuantificadores exactos y descripciones definidas * 306
Resumen del capítulo 312

13 Teoría de las relaciones * . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 315


Propiedades lógicas de las relaciones 316
Transitividad, no transitividad y anti-transitividad 316 • Simetría, Asimetría, y Antisimetría 320 •
Reflexividad, Irreflexividad y Antireflexividad 321 • Relaciones de equivalencia y clases de equivalencia
322 • Relaciones triviales, totales, conexas y seriales 325
Relaciones, entimemas, postulados de significado 328
Introducción a la teoría de los órdenes 330
Preorden 330 • Orden parcial 331 • Órdenes estrictos y no estrictos 333 • Orden total o lineal 333 •
Orden inverso 334 • Maximales, máximos, cotas, supremos 335 • Orden bien fundado 338 • Buen orden
338 • Orden denso 338

14 Teoría básica de los conjuntos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 341


Elemento y extensionalidad 343
Notación de infijo 343
Representación extensional, intensional y gráfica 344
El conjunto vacío 345
Subconjunto —impropio y propio 346
Cardinalidad 347
Los cardinales infinitos * 347
Conjunto potencia 349
Operaciones básicas entre conjuntos 350
Unión 350 • Intersección 351 • Diferencia de conjuntos 352 • Diferencia simétrica 353 • Complemento
relativo 353 • Utilizando LC1= para razonar con conjuntos 354

vi
Productos cartesianos, secuencias y relaciones 359
Par ordenado 359 • Producto cartesiano 360 • Listas de dos o más elementos: n-secuencias o «n-tuplas»
361 • Relaciones entre conjuntos 363 • Productos cartesianos y operaciones básicas 364
Particiones 365

15 Teoría de modelos básica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 367


Funciones 368
Definición del lenguaje de LC1= 372
Modelos, otra vez 375
Asignaciones de variables 375 • Constantes con gorrito y ficticias 377
Verdad en un modelo para LC1= 379
Verdad en un modelo bajo una asignación 379 • Una manera más simple 382 • Verdad en un modelo
383 • Verdad lógica en LC1= 384 • Consecuencia lógica en LC1= 384 • Equivalencia lógica en LC1=
385

IV Lógica informal y probabilística

16 Probabilidad y argumentos probabilísticos . . . . . . . . . . . . . . . . . . . . . . . . 393


Probabilidad 395
La definición de la probabilidad 395 • La interpretación de la probabilidad * 396
Inducción y estadística 398
Las dos ramas de la estadística 398 • Estadística descriptiva 399 • Muestras: representativas y sesgadas
404 • Variables aleatorias 406 • Algunas distribuciones de probabilidad 409 • Significancia estadística
409 • Inducción simple o enumerativa 412 • Utilidad esperada 412 • Inferencia Bayesiana 412
Correlación y causalidad 412
Conceptos básicos 413 • El coeficiente de Pearson 413 • Correlación no implica causalidad 417 •
Condiciones necesarias para la causalidad 418 • Causalidad: Mecanismos y manipulabilidad 421 •
Los métodos de Mill para aislar factores causales 423

Apéndices

Lista de símbolos introducidos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .429

Lista de definiciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 431

Soluciones de algunos ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 433

Formulario de LC0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 435

Formulario de LC1= . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 437

Índice analítico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 438

vii
Bibliografía . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 439

Esta obra está bajo una licencia Creative Commons


«Reconocimiento-NoCommercial-CompartirIgual 4.0 Inter-
nacional».

viii
Prefacio

Como este no es el prefacio final (el cual escribiré cuando tenga la versión final del libro),
aquí me gustaría describir el proyecto del libro: las ideas guía y las características que
—¡espero!— lo distinguen: las que hacen que valga la pena —o, todavía mejor: que
justifican— tener otro libro de texto de lógica.

Ideas guía

Mi impresión es que la mayoría de los libros de texto de lógica cae en uno de dos extre-
mos: o bien, está hecho para lectores con sofisticación matemática, o bien, está hecho
para lectores con muy poco entrenamiento matemático. Cada uno de estos extremos
tiene sus propios problemas.

Libros que presuponen sofisticación El problema más obvio es que son difíciles para
quien apenas se está introduciendo al tema. Pero tampoco son muy adeptos a contar
las motivaciones filosóficas para adoptar tal o cual formalismo, ni sus limitaciones ex-
presivas, o las perplejidades conceptuales que tienen; ambos problemas tratados en la
filosofía y la lógica matemática contemporáneas. A veces nos dejan con la impresión de
que la lógica se hubiera desarrollado con total independencia de la filosofía, y hoy fue-
ra un monolito independiente de toda crítica, expansión, o aplicación. Ello está bien si
sólo quisiéramos aprender mecánicamente el formalismo. Pero para un entendimiento
más profundo, es importante conocer sus motivaciones y limitaciones.

Libros dirigidos a un público no matemático El problema con estos libros es que no


logran mostrar el contexto matemático más amplio en el que se desenvuelve la lógica
contemporánea, ni ayudan a adquirir las herramientas básicas del pensamiento mate-
mático. Pero estas herramientas son muy útiles, y han sido aplicadas, en una enorme
cantidad de áreas: no sólo en otras ciencias formales como las ciencias de la compu-
tación, o en las ciencias empíricas, de la física a la sociología, sino también a disciplinas
humanísticas como la filosofía. En todas ellas existen desarrollos matemáticos que su-
ponen al menos familiaridad con aspectos matemáticos como la noción de demostración.
Al escribir este libro, mi ideal regulador, por decirlo así, ha sido intentar un balance
entre ambos enfoques. No intento esto mediante capítulos técnicos o demasiado profun-
dos; más bien, intento explicar en términos llanos algunas motivaciones sistemáticas, y

ix
algo del contexto teórico de la lógica en las áreas más amplias de la filosofía y la lógica
matemática.

Aspectos innovadores

Después de revisar varios libros de texto de lógica y matemáticas, me he hecho una


idea de qué me gustaría que tuviera un libro de texto.

«Amigabilidad» Un libro fácil de navegar: una estructura clara, que también nos permita
ver la progresión natural de los capítulos: cómo uno lleva al siguiente y cómo este
presupone lo aprendido en el anterior. También un texto limpio, bien organizado, que
no tema usar simbolismo matemático cuando se requiera, pero que no se exceda en este
cuando no es necesario. El balance perfecto requiere ayudas visuales para distinguir
distintos apartados, pero que no esté cargado de gráficos que distraen la atención.

Ejemplos esclarecedores Ejemplos de la teoría desarrollada en el libro que sirvan para


entender tanto el concepto introducido, como la importancia de este en el contexto del
capítulo y de la lógica en general.

Características

Algunas características de este libro que, espero, contribuyen a lograr los objetivos
mencionados arriba, son las siguientes.

Contenidos del capítulo y objetivos de aprendizaje Esto nos servirá para tener mayor
claridad acerca de lo que se estudiará en el capítulo, y de lo que se espera que apren-
damos en él. Están al inicio de cada capítulo. Varios todavía no los escribo; todos los
revisaré a fondo al tener una primera versión completa del libro.

Definiciones distinguibles Las definiciones se formulan en cajas azules para resaltarlas


y poder regresar a ellas fácilmente. Estas se ven así:
Definición: Concepto definido

Este es un ejemplo de una definición. Estas van numeradas y me refiero


a ellas a lo largo del texto.
Uso una fuente sans-serif porque creo que lo hace más atractivo visual-
mente, y ayuda a evitar la monotonía en el libro.

Ejemplos distinguibles Los ejemplos se formulan en cajas naranjas, que se ven así:

x
¡Aquí pongo un ejemplo!
ejemplo
Uso una fuente sans-serif porque creo que lo hace más atractivo visualmente, y
ayuda a evitar la monotonía en el libro.
La caja tiene que tener una cierta altura mínima, para que el cintillo lateral muestre
el título completo.

Ejercicios distinguibles Los ejercicios se formulan en cajas naranjas, con una numera-
ción que hace fácil llevar la cuenta, y se ven así:
Ejercicio #
Este es un ejercicio. Uso una fuente sans-serif porque creo que lo hace más atractivo
visualmente, y ayuda a evitar la monotonía en el libro.

Resúmenes Al final de cada capítulo, resumiré los conceptos y tesis principales, de


manera que el estudiante pueda regresar y leer de nuevo si piensa que no los ha com-
prendido bien. Me falta escribir casi todos los resúmenes, aunque ya están algunos
:)

Proyectos de fin de capítulo Aunque me falta diseñar casi todos los proyectos, mi plan
es que estos consistan en ejercicios más complejos y demandantes que los ejercicios en
el texto principal:
• Pienso brindar un contexto o antecedente, ya sea histórico, filosófico o matemático
(o los tres), que permita entender en dónde se sitúa el problema.
• Me gustaría que la mayoría de estos proyectos consistieran en aplicaciones crea-
tivas de la lógica a varias disciplinas (matemáticas, computación, lingüística, filo-
sofía, planeación, diseño de modelos, etc.) así como a la vida cotidiana.
• Sugeriría que se usaran como trabajos de fin de semestre, o como puntos extra
en un curso; o para alguna otra evaluación importante.
• Voy a diseñar algunos de estos proyectos para que consistan en una exposición
oral.
• También estoy pensando que algunos sean para producir material audiovisual o
web.

Secciones opcionales Además de las cajas de información adicional, incluyo algunas


secciones y subsecciones (e incluso un capítulo entero: «Teoría de las relaciones») que
regularmente no se exigen en un curso de lógica básica, pero que me han parecido útiles
para comprender el contexto de la materia, o complementar alguno de los temas. Están
marcadas con un asterisco: «*», y encerradas entre renglones de puntos: . . . . . . . . . . . . .

xi
Apéndices: Lista de símbolos introducidos Al final del libro pondré una lista de los
símbolos introducidos; junto con la página en donde los introduje y su pronunciación
usual.

Apéndices: Lista de definiciones Además del índice alfabético, que refiere a las páginas
donde se mencionan términos importantes, voy a ofrecer una lista de definiciones, que
solamente refiere a la definición oficial del término.

Apéndices: Ejercicios resueltos Al final del libro resolveré algunos ejercicios, tanto para
confirmar el resultado, como para ejemplificar cómo se espera que se resuelvan. Hasta
ahora sólo tengo un par resueltos, pero mi objetivo es tener resuelto un 10 % del total
de ejercicios.

Apéndices: Formularios Al final del libro reuniré en un sólo lugar todas las reglas de
proposicional y cuantificacional que veremos.

xii
Ia parte:

Fundamentos del Análi-


sis Lógico del Discurso

1
capítulo

Para qué lógica

Contenidos del capítulo

La importancia de la argumentación: sus fines y aplicaciones 4


La argumentación y el pensamiento crítico 7
La argumentación y otras maneras de convencer 10
La argumentación y la comunicación: Los usos del lenguaje y los actos de
habla 12

Objetivos de aprendizaje
1. Que comprendas para qué sirve la lógica: por qué es importante y con qué
fines se usa la argumentación, en diferentes áreas.
2. Que conozcas la relación de la lógica con el pensamiento crítico y con otras
formas de convencimiento.
3. Que conozcas los diferentes usos del lenguaje, y puedas reconocerlos en el
discurso hablado y escrito.

3
ste libro es una introducción a distintos aspectos de la lógica. La lógica, como

E se dice de otras tantas disciplinas, es una ciencia y un arte. Es una ciencia porque
es un estudio sistemático y riguroso de un fenómeno concreto: la argumentación
correcta (después analizaremos esta noción informal de «correcto»; de hecho, buena
parte del libro va sobre eso). Involucra la aplicación de las matemáticas al estudio
de este fenómeno, y se relaciona contras ciencias, como la computación teórica y la
lingüística. La lógica también es un arte, en el sentido de ser una familia de técnicas
que podemos aprender y utilizar en la vida cotidiana, así como en distintas áreas del
conocimiento. Estas técnicas están enfocadas a la creación, identificación y análisis de
argumentos correctos. En este libro vamos a revisar varios aspectos de estas dos caras
de la lógica. Mientras tanto, sistematicemos lo dicho hasta ahora en nuestra primera
definición.
Definición 1: Lógica

La lógica es la ciencia y el arte de la argumentación correcta.

Este primer capítulo tiene una función introductoria y motivadora: para comprender
que es la lógica, expondré para qué sirve su objeto de estudio —la argumentación— en
distintas áreas, y cómo se relaciona con el pensamiento crítico y con otras formas de
convencimiento. También detallaré cómo es que podemos usar el lenguaje con distintos
fines, y cómo la argumentación es uno de ellos. En el siguiente capítulo comenzaremos
con las definiciones de los conceptos básicos de la lógica.
Como todo este primer capítulo es sobre la argumentación, y como la argumenta-
ción no es otra cosa que ofrecer argumentos, es importante tener una noción de qué
es un argumento. Por ahora, solamente veremos una definición tentativa de la noción
de argumento (es por ello que pongo una definición sin numerar). Para la definición
más exacta requerimos de algunos conceptos especializados. Estos los definiremos en
el siguiente capítulo (sección 2.3, definición 4).
Definición: Argumento (provisionalmente)

Un argumento es una serie de ideas, una de las cuales se basa en las


demás; es decir, ellas apoyan o justifican a la otra.

1.1. La importancia de la argumentación: sus fines y aplica-


ciones

Argumentamos con distintos objetivos. Uno de ellos es convencer a otras personas;


también convencernos a nosotros mismos, como cuando en nuestra cabeza nos damos
razones para hacer o no hacer alguna acción. Podemos querer convencer a alguien no

4
sólo de que haga o deje de hacer algo, sino también de que acepte una idea, o de que
rechace alguna. También es posible que queramos sustentar una idea que ya teníamos
o que alguien ofrece por algún interés secundario: puede ser algún fin legal, o como
primer paso hacia otra acción. Incluso, puede ser por mera curiosidad, por el deseo de
entender la idea: conocer las bases —los argumentos a favor— de una idea nos permite
ver con qué otras ideas se relaciona más cercanamente, pues nos permite ver qué ideas
la justifican y con cuáles ella se justifica.
A veces también argumentamos por el mero gusto de discutir. Para algunas personas,
debatir es como un deporte que gustan de practicar cada vez que se presenta la opor-
tunidad. Para otras personas, lo importante de iniciar una discusión argumentada es
ganarla y sentir la satisfacción de vencer. Aunque esto puede ser divertido, argumentar
con el único propósito de demostrar que estoy en lo correcto no me llevará muy lejos:
me da un fuerte incentivo para ignorar buenos argumentos, si estos se ofrecen en con-
tra de mi postura, para basar mis ideas en razones muy débiles, y para aceptar ideas
disparatadas, si es estas me ayudan a mantener mi postura pase lo que pase.

1.1.1. La argumentación en la vida cotidiana

Argumentamos siempre y muchas veces sin darnos cuenta. Solemos argumentar en


nuestras discusiones: con nuestros amigos, pareja, familia, o hasta con gente descono-
cida en el internet. Argumentamos para convencerlos, para defendernos, pero también
argumentamos cuando hacemos alguna propuesta, dando razones para que la persona
a quien le ofrecemos esa propuesta, la acepte. Argumentamos, también, para explorar
las opciones posibles: «si hacemos esto, pasaría esto otro». También argumentamos para
poner a prueba algún supuesto: «suponiendo esta idea, se seguiría que . . . » Si las conse-
cuencias de tal supuesto son aceptables, no hemos encontrado razón para rechazarlo;
pero sí la tenemos cuando encontramos que tales consecuencias no son aceptables.
Dado lo anterior, la argumentación es una parte esencial de la comunicación, del
debate, de la curiosidad, y de la toma de decisiones.

1.1.2. La argumentación y las matemáticas

Las matemáticas son una ciencia eminentemente argumentativa. Se buscan describir


hechos acerca de una estructura abstracta —como un sistema numérico, un tipo de
espacio, un tipo de funciones, algún tipo de objeto geométrico, etc.— a partir de su-
posiciones básicas. Las afirmaciones sobre esta estructura se justifican sólo cuando,
partiendo de las suposiciones básicas, existe un argumento particularmente fuerte a su
favor: un argumento deductivo —una demostración— cuya definición vamos a revisar en
el siguiente capítulo (definición 9).

5
Aunque la deducción es el paradigma, la «regla de oro» de las matemáticas, también
se usan los argumentos estadísticos (por ejemplo, para motivar una conjetura) y los
argumentos abductivos (por ejemplo, para motivar la adopción de una definición o un
nuevo principio).1 Revisaremos la definición de estos en un capítulo posterior (cap. 16).

1.1.3. La argumentación en las ciencias

Las ciencias son aquellas disciplinas cuyos métodos la humanidad ha depurado para
encontrar las hipótesis más probablemente verdaderas sobre un tema, un área de la
realidad. Al presentar una hipótesis sobre cómo es un fenómeno natural y cómo se
explica, un científico no lo presenta como una verdad obvia, sino que ofrece razones
para pensar que esa hipótesis es la correcta: ofrece argumentos, típicamente estadísticos,
sobre cómo su hipótesis da cuenta de los datos obtenidos en el campo, el laboratorio o
el observatorio.
Además de la argumentación estadística, un componente universal del método cientí-
fico es la deducción. A partir de una hipótesis, se deducen consecuencias que se contras-
tan experimentalmente. Si las consecuencias de la hipótesis se acercan suficientemente
a los resultados reales, la comunidad científica toma seriamente la posibilidad de que
la hipótesis examinada describa el fenómeno en cuestión. Cuando las consecuencias
confirmadas se acumulan, la hipótesis comienza a aceptarse más ampliamente, hasta
llegar a ser parte de la ciencia establecida.

1.1.4. La argumentación en la filosofía

Para la filosofía, su propia naturaleza es un problema filosófico (existe la filosofía de la


filosofía). Y como, además, existen tradiciones, métodos y presupuestos muy dispares
dentro de la disciplina, tenemos que la naturaleza de la filosofía misma es un tema
debatido, sobre el cual difícilmente alcanzaremos (al menos a corto plazo) un consenso
universal.
Este desacuerdo sobre la naturaleza de la disciplina causa que toda caracterización
más o menos acotada de ella esté destinada a ser controvertida entre quienes no com-
partan suposiciones al menos parecidas a las que tiene quien ofrece tal caracterización.
Pero al menos una idea muy restringida es indudable: que la filosofía es una práctica
racional. Esto significa que para ejercerla debemos ejercer nuestras capacidades como
seres racionales. (Esto, por supuesto, no implica que debamos ejercer sólo esas.) A su
vez, esto conlleva el que la filosofía tenga como uno de sus principales objetivos el evitar
el dogmatismo. Por ello, en filosofía se busca ofrecer razones que logren convencer —en
lugar de imponer, o de hacer creer con bases no racionales— a otros seres racionales
mientras estos ejercen sus capacidades críticas.

6
1.2. La argumentación y el pensamiento crítico

Estrictamente hablando, la argumentación solamente consiste en ofrecer argumentos: en


repetir los que ya conocemos o en construir nuevos. Pero argumentar es parte de una
práctica más amplia: el pensamiento crítico. Pensar críticamente no es solamente tener
la costumbre de ofrecer argumentos para nuestras afirmaciones: también es solicitarlos
—incluso, exigirlos— cuando alguien nos comunica una idea. Pensar críticamente es
preguntar «¿por qué? » y estar dispuestos a ofrecer una razón cuando nos lo preguntan.
Solicitar argumentos nos hace agentes en la formación de nuestras creencias y nues-
tra personalidad. Es decir, nos da un papel activo, constructivo; de manera que no nos
reduzcamos a meramente recibir la información que nos llega. Para ello, debemos ser
capaces de cuestionar la información que recibimos por todos los medios que tenemos a
nuestra disposición: debemos ser capaces de preguntar sobre las bases, las fuentes, las
evidencias, las razones, los argumentos sobre los que se basan las ideas, las propuestas
y sugerencias.
Obviamente, usar el pensamiento crítico no significa preguntar «¿por qué? » frente a
cualquier asunto. A veces nos enfrentamos con cuestiones sin importancia y no tenemos
tiempo para lidiar con ellas, o interés. A veces, incluso, no está justificado hacerlo: a
veces no hay una buena razón para solicitar un argumento. Por ejemplo, si alguien me
dice que le gusta el helado de chocolate, ¿qué razón podría dar para ello? Parece que
exigirle una razón de su gusto es exigirle algo que está fuera de lugar.
En otros casos, la actitud crítica se utiliza como máscara para negarse a aceptar la
evidencia. Algunos negacionistas del cambio climático, por ejemplo, se dicen «escépti-
cos» del consenso científico. Pero en casos como esos, preguntar «¿por qué?» cuando
la evidencia está disponible para quien quiera revisarla, es, en realidad, una manera de
disfrazar una negativa a aceptar lo que, por todo lo que sabemos, es un hecho.
Entonces, el pensamiento crítico no solamente es pedir y ofrecer argumentos. Tam-
bién es saber cambiar de punto de vista cuando los argumentos que conocemos son buenos
argumentos; cuando las hipótesis que antes solamente concebíamos resultan estar ba-
sadas en la evidencia.
Así, como una primera aproximación, pensar críticamente es estar conscientes de
revisar la información que se nos proporciona, y las creencias que tenemos, para con-
siderar cuáles de ellas deben examinarse con más cuidado; también es la capacidad de
cambiar de opinión cuando las razones para hacerlo son buenas; finalmente, también
consiste en la capacidad de evaluar los argumentos, razones y evidencias sobre las que
se basan nuestras creencias y las de otros.2
Para poder aceptar aquello para lo que existen buenos argumentos, requerimos una
metodología clara y bien probada para poder determinar cuándo un argumento es

7
bueno y cuándo no. De eso, precisamente, va la enorme mayoría de las técnicas lógi-
cas que revisaremos en este libro: son modelos formales que nos permiten tener una
metodología clara, cuya efectividad puede ser revisada y comprobada con exactitud.

1.2.1. La prudencia y «ser una persona lógica»

Nada de todo lo anterior significa que, para seguir las reglas de la lógica, siempre tenga-
mos que estar ofreciendo, encontrando, evaluando o criticando argumentos. Hay veces
en que puede valer la pena simplemente poner la lógica entre paréntesis. Como men-
cioné antes (sección 1.2), a veces nos dejamos convencer por el miedo o la lástima. Y
eso puede estar bien: para actuar como personas inteligentes no se requiere que seamos
robots. A veces actuar bajo el miedo o la compasión puede estar justificado.
Alguna vez vi un meme que contenía la escena de una película, donde un hombre le
declara a una mujer: «Te amo». Ella responde algo como: «¿Tienes evidencia empírica
que sustente tu afirmación?»3 El meme es gracioso precisamente por lo absurdo de la
respuesta. En ciertos tipos de interacciones preferimos basarnos en la confianza que
exigir evidencias y razones. Y eso está bien: «ser una persona lógica» —es decir, tener
una habilidad bien pulida para aplicar las técnicas de la lógica— no significa ser un
robot. Claro que el otro extremo es creer cualquier afirmación, por más disparatada
que sea, que nos diga una persona cercana. La virtud de «ser una persona lógica»
también incluye una habilidad prudencial: saber en qué momentos se requiere solicitar,
o exigir, evidencias y razones, y en qué otros momentos es mejor confiar en la otra
persona, o incluso simplemente asentir con la cabeza y dejarlo pasar sin más.
Un ejemplo de esto último pueden ser las discusiones sobre creencias políticas y reli-
giosas. En algunos casos es muy importante solicitar un fundamento racional, o incluso
exigirlo con firmeza (por ejemplo, cuando se trata de una autoridad pretendiendo im-
poner algún programa de dudosa cualidad científica, o de un familiar convaleciente
que piensa abandonar una terapia basada en evidencia por alguna pseudocientífica).
En otros, como cuando, en la cena familiar de fin de año, algún tío suelta alguna bou-
tade sin importancia, proveniente de algún dogma religioso o político sin justificación,
probablemente sea mejor dejarlo pasar.
Esta habilidad prudencial es una habilidad general de la vida —saber en qué vale la
pena usar nuestro tiempo y energía, digamos— pero, como puedes ver, acabo de inten-
tar convencerte de ello mediante argumentos: mediante el uso de nuestras capacidades
lógicas.

8
1.2.2. El principio de caridad

Poder interpretar un fragmento de discurso bajo el principio de caridad significa intentar


entender tal discurso de manera que resulte ser lo más razonable posible, dentro de
los límites de la interpretación adecuada. Con ello, evitamos caricaturizar las ideas que
estamos interpretando.
«Intentar entender tal discurso de manera que resulte ser lo más razonable posible»
significa dar por sentado que la persona que lo emitió es una persona suficientemente
inteligente como para ofrecer la opción más inteligente de los mensajes que podría
haber transmitido con sus palabras. Por otro lado, hacerlo «dentro de los límites de la
interpretación adecuada» significa hacerlo sin forzar el mensaje de nuestro interlocutor:
sin atribuirle ideas que ciertamente no expresó.
Usando las palabras de Baggini y Fosl,4 tendríamos este resumen:
Cuando hay diferentes traducciones que podrían explicar razonablemente
el discurso o el comportamiento de un individuo, el que debe elegirse por
encima de los demás es (ceteris paribus) el que lo hace más racional en las
circunstancias relevantes.
Como un medio entre dos límites —el de atribuirle a nuestro interlocutor ideas que
claramente no quiere decir, y el de atribuirle la versión más débil (menos defendible) de
las posibles ideas que podría estar expresando— este principio es parte de una buena
práctica del arte de la lógica, y forma parte de lo que significa ser «una persona lógica».

1.2.3. Las máximas de Grice para la comunicación

Para aplicar la lógica a la argumentación necesitamos entender lo que otra persona nos
comunica. Además, parte de usar el pensamiento crítico es comunicar nuestras ideas
con claridad, de manera que las razones que tenemos para ellas puedan quedar claras.
H.P. Grice, un filósofo americano del siglo XX, propuso que existen cuatro máximas —
cuatro reglas— que permiten la existencia de la comunicación entre los seres humanos
(Grice 2005/1975). A su vez, estas máximas son la manera en que realizamos lo que
Grice llamó el principio de cooperación: si un grupo de personas establecen una
interacción verbal, van a cooperar entre sí para entenderse y ser entendidos. Vamos a
revisar estas máximas ahora, y explicaremos su significado.

Máxima de cantidad Esta máxima se refiere a la cantidad de información que damos, y


se descompone en dos:
I Da tanta información como sea necesaria.
II No des más información de la que sea necesaria.

9
Máxima de calidad Esta máxima se refiere a la calidad de la información que damos, en
dos sentidos:
III No digas nada que creas que es falso.
IV No digas nada si no tienes pruebas suficientes de su veracidad.

Máxima de pertinencia o relevancia El nombre y la máxima son auto-explicativos:


V Sé relevante.

Máxima de modo o manera Esta máxima se refiere a la claridad y exactitud con la que
hablamos, y se descompone en estas cuatro:
VI Evita la oscuridad en la expresión.
VII Evita la ambigüedad.
VIII Sé breve.
IX Sé ordenado.
El objetivo de Grice era describir los patrones que seguimos para intentar llevar a
cabo una buena práctica comunicativa: él no buscaba normar esa práctica. Sin embar-
go, es de notar que estas prácticas codifiquen lo que solemos entender por una buena
práctica comunicativa. Así que ahora que las conoces, un buen consejo es intentar se-
guirlas siempre que sea posible, con el objetivo de lograr comunicar tus ideas de manera
eficiente.
Ejercicio # 1
Para cada máxima de Grice, brinda tres ejemplos en los que no se cumpla. Estos ejem-
plos pueden ser breves narraciones que inventes, o vínculos a un video en el que suceda
cada uno de estos casos (en cada caso, di en qué minuto empieza y termina la interac-
ción que es un ejemplo de ello), o citas de un libro, periódico o revista (digitales o físicos)
que lo ejemplifiquen (recuerda brindar la referencia de donde lo tomaste).

1.3. La argumentación y otras maneras de convencer

Ofrecer argumentos es una manera de intentar convencer: es intentar convencer me-


diante razones. Por ello, argumentar supone que la otra persona es una persona racional:
que tiene la capacidad y el interés de entender otros puntos de vista, y de considerar
las razones a favor y en contra de su punto de vista y de los demás.5
Pero argumentar no es la única manera de intentar convencer. También puedo in-
tentar convencer a alguien mediante amenazas: «Si no me crees, te golpearé», o «Si
no haces lo que digo, te quito tu empleo». Por supuesto, al decir esto —en lugar de

10
realmente golpear o despedir— también se ofrecen razones: se ofrece una idea con la
que se pretende justificar otra. Sin embargo, estas ideas apelan al miedo —te hacen
saber que, si no lo haces, te dañarán— y no a la capacidad que tenemos de comprender
fundamentos y evidencias objetivos.
También somos capaces de convencer, y de ser convencidos, apelando a la compasión,
o incluso mediante la lástima. A veces la mera humanidad nos convence de ayudar a
alguien o de realizar alguna acción. Estas acciones pueden estar justificadas, en un
sentido tanto ético como racional: si una persona en una situación muy difícil me pide
ayuda, y tengo los recursos —de tiempo, de dinero, o los que se requieran— para
ayudarle, exigirle que me de algún argumento no me hace más racional. Es decir: esa
forma de convencerme no me exige el uso de la razón (más allá de entender lo que me
dice), pero actuar debido a la empatía y la amistad no necesariamente es ser irracional
—a veces, incluso, es un deber ético.
Por supuesto, esto no significa que actuar movido por las emociones no sea es irra-
cional. A veces sí lo es. Podemos tomar una decisión apresurada, sin prever sus conse-
cuencias o considerar las alternativas, debido al miedo, la lástima, u otras emociones.
A veces nos intentan convencer de creer en algo o de realizar alguna acción manipulan-
do esas emociones. En esos casos, el pensamiento crítico sí requiere que examinemos
la circunstancia con calma y cuidado, y que exijamos una razón que no se base en la
manipulación.
Otra forma de intentar convencer que tradicionalmente se opone al convencimiento
mediante argumentos es la retórica. Aunque la retórica tiene una historia muy larga
y existen hoy en día diferentes tradiciones en ella, consideraremos la definición que
ofrecen dos fuentes autoritativas sobre el tema.6 En su Diccionario de retórica y poética,
Beristáin define a la retórica como:
Arte de elaborar discursos gramaticalmente correctos, elegantes y, sobre
todo, persuasivos. Arte de extraer, especulativamente, de cualquier asunto,
una construcción de carácter suasorio.
Por otro lado, en el diccionario de Vega Reñón y Olmos Gómez encontramos que:
La historia de la retórica es una historia discontinua e indefinida con ten-
siones entre dos usos del término: uno general, como arte de la persuasión
(su polo argumentativo u oratorio) [. . . ]; y otro más restringido, como arte
de hablar bien (su polo literario u ornamental) [. . . ] Entre ambos polos ha
habido siempre una constante oscilación y hoy asistimos al último capítulo
de esa tensión entre una taxonomía de las figuras del buen discurso y una
pragmática del discurso eficaz.
Por tanto, la retórica ha codificado durante siglos la argumentación persua-
siva como arte de usar bien el lenguaje (ars bene loquendi) y con eficacia en

11
un discurso al dirigirse a un auditorio.
Como he mencionado, tradicionalmente, la lógica se opone a la retórica: mientras una
intenta convencer, primordialmente, mediante argumentos cuya estructura y contenido
siga pautas bien delimitadas y sistematizadas, la otra intenta convencer, primordial-
mente, mediante la persuasión del discurso elegante. En muchos casos, estos fines se
contraponen: un discurso lógicamente impecable puede tener nulas cualidades estéti-
cas, y un discurso de bellos ornamentos puede realizar argumentos que fácilmente se
diagnostican como falacias desde un punto de vista lógico. Pero eso no significa que
esto suceda necesariamente: grandes figuras de la filosofía y la literatura han escrito
ensayos combinando ambas virtudes; por lo que no se debe pensar que la exactitud y
el rigor lógico están necesariamente peleados con el buen estilo.
Así, la lógica y la retórica se diferencian por los fines que persiguen: en cómo buscan
persuadir. Estos modos de persuadir, a su vez, pueden usarse con distintos objetivos.
Parte del pensamiento crítico consiste en saber distinguir en qué casos el uso de la
retórica oculta una argumentación deficiente, que debe examinarse lógicamente, y no
dejarse convencer si no hay buenas razones para ello.
Ejercicio # 2
Brinda:
• Dos ejemplos de intentos de convencer mediante un argumento,
• dos ejemplos de intentos de convencer mediante la apelación al miedo,
• dos ejemplos de intentos de convencer mediante la apelación a la compasión,
• dos ejemplos de intentos de convencer mediante la retórica.
Estos ejemplos pueden ser breves narraciones que inventes, o vínculos a un video en el
que suceda cada uno de estos casos (en cada caso, di en qué minuto empieza y termina
la interacción que es un ejemplo de ello), o citas de un libro, periódico o revista (digitales
o físicos) que lo ejemplifiquen. En estos casos, recuerda brindar la referencia de donde
lo tomaste.

1.4. La argumentación y la comunicación: Los usos del len-


guaje y los actos de habla

El lenguaje —escrito, hablado o pensado— se usa de muchas maneras y con muchas


finalidades. Será útil distinguir estas finalidades, y clasificar a los tipos de discurso, para
poder entender a la comunicación lingüística, dentro de la cual se enmarca la práctica
de la argumentación.

12
1.4.1. Usos del lenguaje

Ahora veremos una clasificación de tres grandes tipos de usos del lenguaje; esta clasifi-
cación, aunque es muy idealizada y no completamente fina, nos servirá para poner a la
argumentación en contexto. La fuente principal de esta clasificación, que ha sido adop-
tada en muchos otros libros de texto, es el clásico de Copi y Cohen.7 Ellos distinguen
tres usos del lenguaje, que ahora expondré.

Discurso informativo Es el lenguaje que se usa para transmitir información, de cualquier


tipo y calidad. Como ejemplos, tenemos a los reportes científicos, a las reconstrucciones
históricas, o cuando en el habla cotidiana relatamos un suceso o brindamos datos acerca
de un lugar. El caso paradigmático de discurso informativo se da en la emisión de
enunciados declarativos.

Discurso expresivo Es el lenguaje que se usa para mostrar o provocar sentimientos. Aun-
que ciertamente el lenguaje expresivo transmite cierto tipo de información, lo que lo
distingue del discurso informativo es que su función principal no es transmitir informa-
ción factual: que pueda o no ser verdadera, sino comunicar o causar sentimientos. El
caso paradigmático de discurso expresivo se da en la emisión de enunciados exclamativos,
que no son ni verdaderos ni falsos.8

Discurso directivo Es el lenguaje que se usa para causar o impedir acciones. Se suele
usar cuando realizamos órdenes y peticiones; estas, como las oraciones exclamativas,
no son ni verdaderas ni falsas. El caso paradigmático de discurso informativo se da en
la emisión de enunciados imperativos.
Como los mismos Copi y Cohen notan (pp. 85-89), es claro que esta distinción no es
exhaustiva: hay usos del lenguaje que no caen definitivamente en una u otra. Tampoco
es exclusiva: hay usos del lenguaje que caen bajo dos, o quizá hasta tres, de los tipos; en
cierto grado, al menos.
Sobre la exhaustividad, parece sencillo pensar maneras de usar el lenguaje que me-
rezcan su propia clasificación, pues no caben cómodamente en ninguno de los usos
anteriores, aunque comparten algunas características importantes entre sí. La primera
es el discurso inquisitivo.

Discurso inquisitivo Es el lenguaje que se usa para solicitar información y hacer pregun-
tas. Estas, como las oraciones exclamativas e imperativas, no son ni verdaderas ni falsas.
(Lo que es verdadero o falso es la respuesta a una pregunta.) El caso paradigmático de
discurso inquisitivo se da en la emisión de enunciados interrogativos.
Copi y Cohen incluyen a la argumentación dentro del discurso informativo, pero
no es claro que ello sea así. Una propuesta es separar ambos tipos de discurso: en
el informativo, la finalidad es describir un suceso o un objeto, transmitir información

13
sobre algún particular.9 En el que podemos llamar «el uso argumentativo», la finalidad
es proveer razones para una idea específica.

Discurso argumentativo Es el lenguaje que se usa para proveer argumentos a favor de


una idea. Los argumentos no son ni verdaderos ni falsos, pero están compuestos de
ideas que sí pueden serlo. El caso paradigmático de discurso argumentativo se da en la
emisión de razonamientos.
Podrían haber más usos del lenguaje que sea útil definir. (Por ejemplo, usar el lenguaje
para narrar una historia ficticia, ¿es un uso informativo? A final de cuentas, la ficción no
se usa con la finalidad de informar sobre un hecho en el mundo, sino con la finalidad de
hacernos imaginar un mundo distinto.) Pero esto merecería una discusión más detallada,
en otro lugar.
Hay que notar que la clasificación se hace con base en las intenciones (los fines, los
objetivos) con las que se usa el lenguaje por parte de los emisores. Las intenciones son
algo que está en la cabeza, un evento psicológico; pero las podemos reconocer debido a,
por ejemplo, el contexto —la circunstancia en la que estamos, de la cual compartimos
información— y la forma gramatical de los enunciados.
Aunque ambas maneras son falibles —pueden fallar en ciertas circunstancias—, son
buenas guías. Así, es usual suponer que:
• El discurso informativo se expresa mediante oraciones declarativas;
• el discurso expresivo se expresa mediante oraciones exclamativas; y
• el discurso directivo se expresa mediante oraciones imperativas.
Como he dicho, estas correspondencias a veces no se dan. El siguiente fragmento de
un poema de Díaz Castelo,10 por ejemplo, consiste exclusivamente de afirmaciones
declarativas, pero es obvio que su finalidad es expresiva:
Creo firmemente
en los elementos de la tabla periódica,
con sus nombres de santos,
Cadmio, Estroncio, Galio,
en su peso y en el número exacto de sus electrones.
Creo en las estrellas porque insisten en constelarse
aunque quizá estén muertas.
Creo en el azar todopoderoso, en las cosas
que pasan por ninguna razón, a santo y seña.
Creo en la aspiradora descompuesta,
en las grietas de la pared, en la entropía
que lenta nos acaba. Creo
en la vida aprisionada de la célula,
en sus membranas, núcleos, y organelos.

14
Creo porque las he visto en diagramas,
planeta deforme partido en dos
con sus pequeñas vísceras expuestas.
Como otro ejemplo, alguien puede usar el lenguaje con una intención directiva sin emitir
una oración imperativa. En el contexto de una cena familiar, mientras sacas tu cajetilla
de cigarrillos y te dispones a encender uno, tu pareja te dice: «La gente educada no
fuma en la mesa». Aunque es una oración declarativa, es claro cuál es la intención de
tal aseveración: una intención directiva. Esto es, al mismo tiempo, un ejemplo de cómo
el contexto en el que se usa ese lenguaje puede ayudarnos a distinguir con qué objetivo
se lo está usando.
A final de cuentas, lo importante de diferenciar los usos del lenguaje es lo siguiente: al
hacer un análisis lógico, nos enfocaremos en el uso argumentativo (y, por consecuencia,
informativo) del lenguaje. Es cuando alguien se propone argumentar que tiene sentido
aplicar el análisis lógico de los argumentos.

Ejercicio # 3
I Para cada uno de los siguientes 10 casos di de qué tipo de discurso se trata. Si
piensas que se requiere más contexto para saberlo, dilo.
1. Cebolla, luminosa redoma, pétalo a pétalo se formó tu hermosura, escamas de
cristal te acrecentaron y en el secreto de la tierra oscura se redondeó tu vientre de
rocío. Bajo la tierra fue el milagro y cuando apareció tu torpe tallo verde, y nacie-
ron tus hojas como espadas en el huerto, la tierra acumuló su poderío mostrando
tu desnuda transparencia, y como en Afrodita el mar remoto duplicó la magnolia
levantando sus senos, la tierra así te hizo, cebolla, clara como un planeta, y des-
tinada a relucir, constelación constante, redonda rosa de agua, sobre la mesa de
las pobres gentes.11
2. La mantarraya o manta gigante (Manta birostris) es una especie de elasmobran-
quio del orden Myliobatiformes.12
3. Disculpa, ¿qué hora tienes?
4. ¡A mi no me vas a venir a decir qué hacer, o qué pensar, sobre todo si tú mismo
no sabes qué hacer de tu vida!
5. ¿Qué hay que hacer si uno ve un animal en peligro de extinción comiendo una
planta en peligro de extinción?
6. El 29 de noviembre de 1873, Cantor envió una carta a Dedekind preguntando
si la colección de números naturales y la colección de números reales positivos
«pueden corresponder para que cada individuo de una colección corresponda a
uno y solo a uno de los demás», a lo que Dedekind respondió escribiendo que
no conocía la respuesta, agregando sin embargo que la pregunta no tenía mucho
interés práctico.13

15
7. ¡Ah, qué bellos paisajes se pueden contemplar en aquéllas montañas, durante los
días más claros del verano!
8. Para cada uno de los siguientes 10 casos, di de qué tipo de discurso se trata.
9. ¿Contar una historia de ficción contará como uso descriptivo?
10. ¿Por qué cuando una persona tiene la razón hay que dársela? ¡Ya la tiene! Sería
mejor dársela cuando no la tenga.
II Para cada uno de los usos del lenguaje (informativo, expresivo, directivo, inquisitivo y
argumentativo), da 4 casos que lo ilustre. Estos ejemplos pueden ser breves narraciones
que inventes, o vínculos a un video en el que suceda cada uno de estos casos (en cada
caso, di en qué minuto empieza y termina la interacción que es un ejemplo de ello), o
citas de un libro, periódico o revista (digitales o físicos) que lo ejemplifiquen (recuerda
brindar la referencia de donde lo tomaste).

1.4.2. Los tipos de actos de habla

El filósofo inglés John L. Austin (1911-1960) propuso una teoría de los actos de habla
en su libro Cómo Hacer Cosas con Palabras.14 Vamos a revisar sus conceptos básicos,
resumidos en la siguiente definición.
Definición 2: Enunciado
Un enunciado es la acción de emitir una oración en un contexto específico.

Así, Austin y la pragmática entienden al enunciado como una emisión en un contexto:


una serie de sonidos transmitidos en un lugar y momento específicos, digamos. Con los
enunciados, expresamos lo que en gramática se llama oraciones. Y la particularidad de
los enunciados es que constituyen acciones. Estas acciones se pueden clasificar en dos
grandes tipos, como se ve en el cuadro 1.1.

Tipo Características
Se utilizan para constatar, es decir,
para reportar o describir hechos. Su
Constatativos
característica esencial es que pue-
den ser verdaderos o falsos.
Se utilizan para realizar una acción
Realizativos o «performativos» adicional al mero enunciar. No son
ni verdaderos ni falsos.

Cuadro 1.1: Clasificación de los enunciados por el tipo de acción que constituyen.

Entonces, las acciones que consisten en meramente describir un hecho, son los enun-
ciados constatativos. Las acciones que se realizan al momento de enunciar una oración,

16
y que no son descripciones, son los realizativos. Estas acciones son tales como jurar,
comprometerse, apostar, bautizar, etcétera. Austin daba los siguientes ejemplos (Austin
1962/1981, p. 46):
• «Sí, juro (desempeñar el cargo con lealtad, honradez, etc)», expresado
en el curso de la ceremonia de asunción de un cargo.
• «Bautizo este barco Queen Elizabeth», expresado al romper la botella
de champaña contra la proa.
• «Lego mi reloj a mi hermano», como cláusula de un testamento.
• «Te apuesto cien pesos a que mañana va a llover».
De nuevo: en estos actos, el mero enunciar algo constituye una acción distinta del enun-
ciar: «Te apuesto cien pesos a que mañana va a llover», además de enunciar la oración,
constituye la acción de apostar. Si te digo: «Te prometo que leeré todos los libros que he
comprado», además del enunciado, he realizado la acción de prometer. Mi enunciado
realiza la acción: no se requiere nada más. A diferencia de estos, los enunciados cons-
tatativos no realizan ninguna acción más que el enunciar la descripción de un hecho.
Como lo dice su definición, los enunciados realizativos no son ni verdaderos ni falsos,
pues no se enuncian para describir un hecho, y solamente las descripciones pueden ser
verdaderas o falsas: si una descripción se ajusta al hecho, es verdadera; si no describe
al hecho como sucedió, es falsa. Pero los realizativos no describen, sino que realizan
otra acción. Sin embargo, así como los constatativos pueden ser o verdaderos o falsos,
para los realizativos existe un criterio de corrección, una forma de saber cuándo un
realizativo está «bien» o «mal».
Ningún ejemplo mejor que el de Austin: para apostar, no basta con que uno diga «Te
apuesto que . . . » Se requiere que ese enunciado se de en las circunstancias apropiadas.
Es difícil caracterizarlas en lo general, pero podemos ejemplificar un caso en el que
no se dan: «el caso de la persona que anuncia su apuesta cuando la carrera ya ha
terminado» (Austin 1962/1981, p. 55). Si cuando ya todos vimos quién gano la carrera,
yo te digo «Te apuesto que ganará él» (señalándote al ganador), obviamente nadie
aceptaría que he realizado una apuesta: nadie me tomaría en serio. En esos casos,
no es que el realizativo sea falso, sino que tiene una propiedad parecida, que Austin
llama «infortunio»: un realizativo es desafortunado cuando no se de dan las condiciones
apropiadas para que, al enunciar la oración, se realice la acción. Por ejemplo, si yo le
digo a un par de amigos: «¡Los declaro marido y mujer!», pero yo no soy un juez, mi
enunciado no realiza la acción de casarlos, sino que es desafortunado.

17
Ejercicio # 4
I Para cada uno de los siguientes enunciados, si es constatativo, indica que so-
lamente describe un hecho; si no lo es, indica qué acción se ejecuta con ellos.
Enunciado Acción
Ayer compramos la despensa para todo el
mes.
Si me vuelves a insultar, me largo de esta
casa.
Cómpreme una pintura, no sea malo.
El número atómico de un elemento quími-
co es el número de protones que tiene ca-
da uno de sus átomos.
Los declaro marido y mujer.

II Brinda tres ejemplos de enunciados constatativos y tres de enunciados realizativos.

III Los siguientes ejemplos de enunciados realizativos, ¿son afortunados, en el sentido


específico de Austin?

Enunciado ¿Es afortunado?


Si no me atiendes bien, te corro. [Dicho por
un cliente al cajero de un supermercado.]
Mañana te pago, prometido. [Dicho por
una persona a su acreedor.]
Como nuevo presidente de este país, cum-
pliré mi cargo con honestidad. [Dicho por
una persona que no ha sido electa como
presidente de este país, pero por un error
piensa que sí.]
Si no me pagas lo que me debes, te aten-
drás a las consecuencias. [Dicho por al-
guien a quien no le debes nada.]
Mediante este anuncio, retiro mi candida-
tura presidencial. [Dicho por una persona
que sí era candidata presidencial.]

DD

18
Resumen del capítulo
⋆ La lógica es la ciencia y el arte de la argumentación correcta.
⋆ Argumentamos con fines distintos, como: convencer, fundamentar una idea,
comprender sus relaciones con otras ideas, y por el mero gusto de debatir.
⋆ La argumentación forma parte de la vida cotidiana, pero también es esencial
en las ciencias y en la filosofía.
⋆ La argumentación es parte esencial del pensamiento crítico, el cual también
requiere rasgos y habilidades como la prudencia, saber utilizar el principio
de caridad (entender tal discurso de manera que resulte ser lo más razonable
posible), y seguir las máximas de Grice para la comunicación.
⋆ Además de la argumentación, hay otras formas de convencer, como el con-
vencimiento mediante amenazas, miedo, compasión o lástima, o mediante
la retórica. Lo distintivo del convencimiento mediante la argumentación es
que se hace mediante razones.
⋆ Existen diferentes usos del lenguaje, que se separan mediante las intenciones
con las que se utiliza en un contexto. Encontramos, al menos: el uso infor-
mativo, el expresivo, el directivo, el inquisitivo, y el argumentativo. Una guía
confiable (pero no definitiva) para distinguir los primeros tres es mediante
la forma gramatical.

Notas

1. Los argumentos probabilísticos en las matemáticas puras ya fueron sugeridos desde Gauss. Los grandes
padres de la lógica contemporánea, Russell y Gödel, fueron muy explícitos sobre el papel de la abducción
en la adopción de nuevos axiomas matemáticos (Gödel 1990 [1947]: pp. 476-7; Russell & Whitehead 1910:
pp. 59 y 62). Tao (medalla Fields 2006) tiene una breve introducción en su blog al tema de las heurísticas
probabilísticas en la teoría de números (Tao 2012).

2. Cf. Bowell & Kemp (2005): pp. 1-9; Cederblom & Paulsen (2011): pp. 1-8; Woods & Irvine & Walton
(2004): p. 5. Edmund Dudley (Dudley 2019) sugiere los siguientes cuatro elementos como componentes
centrales del pensamiento crítico:

1. La creencia de que la información que se nos proporciona no siempre debe aceptarse al pie de la letra.
En muchos casos, es aceptable —e, incluso, ética e intelectualmente obligatorio— cuestionar,
preguntar sobre las bases y fuentes.
2. La idea de que hay una diferencia entre comprender y entender. Dudley hace una diferencia entre com-
prender el lenguaje y comprender de manera superficial un texto o un discurso, y entender el
panorama más amplio. Pensar críticamente requiere no solamente entender cada fragmento de

19
información, sino saber integrarlo en una visión amplia.
3. La conciencia de que estamos rodeados de información y desinformación. Esta conciencia es el primer
paso, pero también se requieren habilidades para poder tratar con la desinformación.
4. La convicción de que la comprensión se mejora no solo al obtener respuestas, sino también al formular nuevas
preguntas.

3. Este es el meme:

4. Baggini & Fosl, 2010: p. 115; mi traducción.

5. Existe una discusión muy amplia en la epistemología y la psicología del razonamiento sobre hasta qué
punto somos racionales, o podemos serlo. Desde hace varias décadas se sabe que nuestra mente tiene
recursos acotados (por ejemplo, en su capacidad de memoria a corto plazo), y por ello, algunos psicó-
logos y filósofos han buscado teorías de la racionalidad que no requieran idealizar demasiado nuestras
capacidades cognitivas. Sin embargo, lo que la evidencia empírica indica es que, en muchos contextos
(sobre todo cotidianos) usamos heurísticas o reglas flexibles que nos llevan a conclusiones de manera so-
lamente probable. Pero esto no implica que no seamos racionales, o que no podamos utilizar los métodos
de la lógica deductiva o de la probabilidad para razonar; no lo implica porque de hecho lo hacemos, en
contextos de rigor académico y fuera de ellos. Nuestra racionalidad está, de acuerdo con esta literatura,
acotada: en algunos casos es más rápida que confiable. Pero aún así somos racionales. En un capítulo
posterior hablaré más sobre los sesgos cognitivos y su relación con la teoría de las falacias. Mientras tanto,
esto nos lleva a un interesantísimo debate que, por su amplitud, no puedo tratar más aquí. Ver Gigerenzer
& Selten 2011, Goldman 1986, y Kahneman 2012.

6. Ver Beristáin 1995: p. 421 y Vega Reñón & Olmos Gómez 2011: p. 522.

7. Copi & Cohen (2013): pp. 83-85.

8. De hecho, se debate si los enunciados exclamativos expresan o presuponen proposiciones (ver Collins 2005;
Michaelis 2001; Sadock & Zwicky 1985). Como este debate es muy especializado, aquí nos quedaremos
con la idea, provisionalmente, de que las exclamaciones no expresan proposiciones (aunque pueden
presuponerlas).

20
9. Por ejemplo, Pazos (2003) distingue entre usos informativos y argumentativos del lenguaje.

10. De su poema «Credo», en Principia, Fondo Editorial Tierra Adentro, 2018.

11. Pablo Neruda, «Oda a la cebolla», en Antología fundamental, Pehuén Poesía, 1988 (selección de Jorge
Barros): pp. 182-184.

12. «Manta birostris», Wikipedia: https://es.wikipedia.org/wiki/Manta_birostris

13. Fragmento de «The Nature of Infinity — and Beyond», por Jørgen Veisdal: https://medium.com/
cantors-paradise/the-nature-of-infinity-and-beyond-a05c146df02c

14. Austin 1962/1981.

21
22
capítulo

2
Conceptos fundamentales
del análisis con lógica formal

Contenidos del capítulo

¿Qué es una proposición? 24


El concepto de concepto * 27
¿Qué es un argumento? 28
No los confundas: argumentos, condicionales, aclaraciones, causas, expli-
caciones 36
Individuando al argumento: la forma estándar 43
Tipos de argumentos 49

Objetivos de aprendizaje
1. Que comprendas el concepto de proposición.
2. Que comprendas qué es un argumento, y seas capaz de identificarlos y po-
nerlos en su forma estándar.
3. Que puedas identificar premisas, e inferencia, además de utilizar los marca-
dores argumentales para reconocerlas.
4. Que conozcas la clasificación de los distintos tipos de argumentos basada
en el tipo de inferencia que contienen.
5. Que sepas diferenciar entre la verdad y la validez, y entre argumentos y
explicaciones, aclaraciones, causas y condicionales.

23
2.1. ¿Qué es una proposición?

a noción de proposición es uno de los pilares de la lógica formal.1 Voy a enun-

L ciar algunas de las características más centrales de las proposiciones. Estas son
características que tienen todas las proposiciones; de hecho, son características
que definen lo que es ser una proposición.
Definición 3: Proposición

Una proposición es un objeto tal que:


1. Es un portador de verdad, con lo cual solamente se quiere decir
que pueden ser verdaderas o falsas. Es decir, las proposiciones son
aquéllos objetos que pueden poseer un valor de verdad. Ningún otro
objeto puede poseer un valor de verdad, a menos que lo haga de
manera derivada de las proposiciones: las oraciones, las emisiones
y las creencias poseen un valor de verdad debido a que expresan
proposiciones.
2. Es el significado de una oración declarativa: el mensaje, la informa-
ción que transmite tal tipo de oración.2
3. La misma proposición puede expresarse por distintas oraciones; por
ejemplo, en voz activa («México ganó el partido») y en voz pasiva
(«El partido fue ganado por México»).
4. Es información independiente de los lenguajes particulares. Es de-
cir, distintas oraciones de distintos lenguajes pueden significar una
misma proposición.
5. Es un hecho que podría o no darse; excepto por las proposiciones
contradictorias, que no podrían darse.
6. Es lo que se reporta con cláusulas «que», como en:
• «Elena dijo que. . . »
• «Pepe cree que. . . »
• «Ana está suponiendo que. . . »
• «Jorge propuso que. . . »
En todos estos casos, después del «que» sigue una oración cuyo
significado es una proposición.

Ahora vamos a ver algunos ejemplos de estas características.

24
• Ejemplos de la característica 2: las oraciones declarativas «Pedro es esposo
de María» y «Correr eleva el ritmo cardíaco» expresan proposiciones.
• Como ejemplo de la característica 3: las siguientes oraciones significan la mis-
ma proposición: «Toño golpeó a Pepe», «Pepe fue golpeado por Toño», y «A
Pepe lo golpeó Toño».
• Como ejemplos de la característica 4, considera estas oraciones: «La Ciudad
de México es hermosa», «Mexico City is beautiful», «La ville de Mexico est be-
lle», «Mexiko-Stadt ist wunderschön». Todas expresan la misma proposición,
ejemplo 1

aunque sea mediante lenguajes distintos.


• Como ejemplo de la característica 5: el que la Tierra tuviera más de un saté-
lite natural es un hecho que podría haber sucedido. Entonces, la oración «La
Tierra tiene más de un satélite natural» es una proposición; esta proposición
es falsa.
• Como ejemplo de la característica 6: si yo digo «Creo que hoy es jueves»,
lo que sigue después de la cláusula «que» es una oración que expresa una
proposición: la proposición hoy es jueves. Si me dicen «Jorge me dijo que
mañana tiene listo tu paquete», la oración «mañana tiene listo tu paquete»
expresa la proposición (ya que sabemos el sujeto implícito): Jorge tiene listo
tu paquete mañana.

En general, la primera prueba que debe pasar algo para ser una proposición es que
pueda ser verdadera o falsa. Frente a una porción del lenguaje, pregúntate: «Esto que
dice, ¿podría ser verdadero o podría ser falso?» Si la respuesta es que sí —que sí podría
ser verdadero o falso—, entonces lo más probable es que estés frente a una proposición.
Relacionado con lo anterior, el segundo test es que una proposición puede usarse
como respuesta a una pregunta —o, más usualmente, presuponerse o sugerirse como res-
puesta. Por ejemplo: si te preguntan, «¿Qué día es hoy?» y tú respondes «Jueves», la
palabra «Jueves» no expresa, por sí misma, una proposición. Más bien, la palabra sugie-
re la siguiente proposición: Hoy es jueves. Esta última sí es una proposición. Considera
este otro ejemplo: te preguntan «¿Cuál es tu platillo favorito?» y tú respondes: «Sopa».
De nuevo, la palabra «sopa» no expresa una proposición; pero es claro que con ella
quieres dar a entender esta proposición: Mi platillo favorito es la sopa.
Otro test para saber si algo es una proposición, aunque este no siempre tiene que
ser así (es un «test» falible), es el siguiente. Muchas proposiciones contienen una cópula:
una palabra que conecta sujeto con predicado, como:
• «Es»,
• «está»
• «era»

25
• «estaban»
• etc.
Es decir, las conjugaciones de los verbos «ser» y «estar» suelen usarse como conectores
entre sujeto y predicado. Además, las oraciones que tienen estos conectores suelen
usarse como oraciones declarativas. Por ello, las oraciones que contienen estas cópulas
suelen expresar proposiciones. ¡Sólo recuerda que esta prueba puede fallar!
Finalmente, nota que toda la oración de la que estemos hablando tiene que contar
como proposición. Puede suceder que una oración que no expresa una oración —por
ejemplo, una oración exclamativa— tenga como parte a una oración declarativa. Pero
cuando preguntamos si una oración expresa o no una proposición, preguntamos por
toda la oración, no por sus partes. Así, «La pradera tiene valles verdes» sí expresa una
proposición, pero «¿La pradera tiene valles verdes?» no.
Ya que hemos visto la definición del concepto de proposición y ejemplos de sus carac-
terísticas, ejercitaremos el concepto al usarlo para reconocer en dónde se aplica.
Ejercicio # 5
De los siguientes casos, ¿Cuáles sí expresan una proposición? Los que no, ¿por qué no
lo hacen?
1. Disculpe, ¿qué hora es?
2. La mantarraya o manta gigante (Manta birostris) es una especie de elasmobran-
quio del orden Myliobatiformes.
3. ¡A mi no me vas a venir a decir qué hacer, o qué pensar, sobre todo si tú mismo
no sabes qué hacer de tu vida!
4. El realismo científico es una familia de posturas de acuerdo a las cuales nuestras
mejores teorías científicas son verdaderas, o aproximadamente verdaderas.
5. Debes pagarme dentro de los próximos 11 meses.
6. ¿Cuáles son, si es que alguno, los defectos de una tesis de acuerdo a la cual el
ser ahí es un ente cuyo ser es posibilidad, ser de una manera o de otra?
7. ¡Ah, qué bellos paisajes se pueden contemplar en aquéllas montañas, durante los
días más claros del verano!
8. En 1583 se urdía en París una maniobra para penetrar en Inglaterra por Esco-
cia; la tramaban el duque de Guisa, el embajador español en Francia y el nuncio
apostólico, en unión de exiliados ingleses.
9. Nadie puede copiar en el examen, lo tienen prohibido.
10. El albanés es una de las lenguas oficiales de la parcialmente reconocida República
de Kosovo, de algunos cantones de Macedonia del Norte y de algunas comunas
del sur de Italia.

26
2.2. El concepto de concepto *

Algunos libros y programas de estudio en la materia de lógica incluyen un tratamiento


de la noción de concepto como parte de la asignatura. La justificación suele ser que los
conceptos son los componentes de los juicios, que a su vez son la representación mental
de las proposiciones, y componentes de los razonamientos, que se suelen tomar como la
ejecución mental de un argumento. (Como analogía, este modelo sugiere que un argu-
mento es como una sinfonía abstracta: el conjunto de notas que pueden estar escritas
en un pentagrama; mientras que un razonamiento es la ejecución por una sinfónica:
la música real que se toca en nuestra mente, digamos). También se relacionan con las
definiciones, pues un tipo importante de definición es la definición de un concepto.
Sin embargo, no es obvio que la noción de concepto sea propia del estudio de la lógica.
La razón principal es que el objeto que la lógica estudia primordialmente es la ar-
gumentación en abstracto: sus formas y reglas, con independencia de si son pensadas,
habladas o escritas. Por supuesto, este estudio puede tener aplicaciones concretas, pero
se llega a ellas, no se parte de ellas. En cambio (excepto por algunas tradiciones ya
marginales de la psicología), un concepto se suele tomar como una representación men-
tal. Se puede argumentar que la siguiente caracterización (basada en la descripción de
Machery)3 es el presupuesto básico sobre los conceptos en la psicología contemporánea
(y lo más cercano que veremos en este libro a una definición del concepto «concepto»):
Un concepto de un objeto es una representación mental almacenado en la
memoria a largo plazo que se usa en los procesos mentales que producen
juicios sobre ese objeto.
Entonces, los conceptos son entidades psicológicas: representaciones en nuestra mente.
Pero si los conceptos son entidades psicológicas ¿por qué deberían interesarle a la lógi-
ca? Después de todo, la lógica es el estudio de la argumentación correcta, no el estudio
de la mente.
Es verdad que uno de los padres de la lógica moderna —Gottlob Frege— basaba su
lógica en una teoría de algo que él llamaba «conceptos», pero estos conceptos no son
los que le interesan a la psicología contemporánea,4 sino objetos abstractos que hoy se
conocen como «intensiones» o, más generalmente, funciones.
La confusión que motiva el pensar que el estudio de los conceptos es un área de
la lógica probablemente tenga hondas raíces históricas. Me refiero al tratado Lógica de
Port-Royal, del siglo XVII, en el que se mezclaban cuestiones lógicas con metafísicas,
y donde se estableció la así llamada «ley de extensión y comprehensión».5 Revisemos
primeramente qué significan «comprehensión» y «extensión», para después hablar sobre
su relación.
La comprehensión de un concepto son las «notas» que se le asocian, las caracterís-

27
ticas con las que se representan los objetos que describe el concepto. (Por ejemplo, la
comprehensión de mi concepto «automóvil» contiene a la característica de ser un objeto
que se mueve; la comprehensión de mi concepto «perro» contiene la característica de
ser un ser vivo.) Por otro lado, la extensión de un concepto es el conjunto de las cosas
que describe el concepto: la extensión, por ejemplo, del concepto «perro» es el conjunto
de todos los perros. Ahora bien, la «ley de extensión y comprehensión» suele ponerse
así:
Ley de extensión y comprehensión A mayor comprehensión, menor ex-
tensión, y a mayor extensión, menor comprehensión.
Aunque después de un razonamiento rápido pueda parecernos verdadera, esta «ley»,
así puesta, tiene una infinidad de excepciones.6 Además, dos conceptos pueden tener el
mismo número de notas en su comprehensión y aún así tener extensiones de diferente
tamaño; también, dos conceptos pueden tener un número distinto de notas en su com-
prehensión y aún así tener extensiones del mismo tamaño (por ejemplo, los conceptos
«presidente de México» y «máximo ocupante de alguna de las residencias oficiales del
Castillo de Chapultepec, Los Pinos o Palacio Nacional» tienen la misma extensión, pero
diferente número de características en la comprehensión).
Además de relacionarse con la teoría de la definición —que sí tiene aspectos lógi-
cos importantes, como veremos en un capítulo posterior— y con la supuesta «ley» de
comprehensión y extensión, los libros modernos de lógica que tratan con los conceptos
también suelen mencionar su clasificación. Esto significa organizar a los conceptos de
acuerdo con una variedad de criterios. A su vez, estos criterios suelen tener muy poca
relación con cuestiones netamente lógicas, y ser más bien criterios semánticos, metafí-
sicos o epistemológicos. Por ejemplo, algunos clasifican a los conceptos de acuerdo a
si su comprehensión contiene o no más conceptos; los conceptos que contienen a otros
son los complejos y los que no, son simples. Pero esta caracterización no es lógica, sino
que requiere del análisis semántico y es muy debatida en los fundamentos de la ciencia
cognitiva.7 Otros criterios usuales son igualmente debatibles, e igualmente extraños a
consideraciones puramente lógicas.
En general, además de la tradición, existen muy pocas razones para incluir un trata-
miento de los conceptos en un curso de lógica.

2.3. ¿Qué es un argumento?

A grandes rasgos, un argumento es una serie de ideas que fundamentan o apoyan a


otra. Estas ideas pueden estar en el discurso hablado, pensado o escrito. Las ideas
que apoyan se conocen como premisas. La idea apoyada se conoce como conclusión.
Finalmente, la relación de apoyo entre premisas y conclusión se conoce como inferencia.

28
Así, los componentes de un argumento son:
Premisas Ideas que se usan para apoyar a otra idea.
Inferencia Relación de apoyo o fundamentación entre premisas y conclusión.
Conclusión Idea que es apoyada, mediante la inferencia, a partir de las premisas.
Decimos, entonces, que en un «buen» argumento la conclusión de hecho se infiere
de las premisas. Y, en muchos argumentos «inadecuados» —los que se suelen conocer
como falacias— la conclusión solamente parece inferirse de las premisas. Veremos esto
con mayor detalle más adelante.
Vamos a dar una definición muy general de argumento, a partir de dos aspectos: de
qué está hecho, y para qué sirve.
Definición 4: Argumento

Un argumento consiste en un conjunto de proposiciones, las premisas, de


las cuales se pretende que se infiera otra proposición, que es la conclu-
sión. Se usa para justificar (para fundamentar racionalmente) a la conclu-
sión, a partir de las premisas y de la conclusión.

2.3.1. Premisas y conclusiones: implícitas y explícitas

No siempre formulamos nuestros argumentos de manera totalmente explícita: a veces


dejamos la conclusión, o algunas premisas, implícitas.
Decimos que un argumento tiene su conclusión implícita cuando ella no se mencio-
na en la enunciación del argumento, pero es razonable suponer que quien ofrece tal
argumento la está dando por sentado.

I Supongamos que tu amigo te pregunta si tú crees que su ex-novia lo siga amando.


Tú no quieres lastimarlo, pero al mismo tiempo, deseas convencerlo racionalmente.
Le dices lo siguiente:
Mira, ella ya dejó de hablarte, y además ha quemado todas tus cartas.
ejemplo 2

Quien te ama no quema tus cartas ni corta toda comunicación contigo.


¿Hay alguna conclusión explícita aquí? Sí: Tu ex-novia ya no te ama.
II Estás en un juicio donde se te acusa de haber cometido un crimen. Se ha infor-
mado que el crimen se cometió el martes por la mañana. En tu defensa, te propones
dar argumentos a favor de tu inocencia. Este es uno de ellos:
Yo trabajo de lunes a viernes, y toda la semana mi jefe vio que yo estaba
ahí.
Solamente es una proposición, pero es claro que está funcionando como premisa. La

29
conclusión parecería ser algo como: Yo no cometí el crimen, suponiendo, también,
algunas premisas adicionales: si mi jefe vio que yo estaba en mi trabajo, yo estaba
en mi trabajo; si estuve en mi trabajo de lunes a viernes, en particular estuve el
martes; si yo estaba en mi trabajo el martes, no cometí el crimen. Todas estas no se
mencionan porque es fácil inferir que, al mencionar tu argumento, las estabas dando
por sentado.

III En un laboratorio se preguntan si es buena idea aprobar la importación de una


molécula X. El interés del laboratorio proviene de algunos datos no muy fuertes:
que algunos investigadores han especulado que este químico podría curar ciertos
tipos de cáncer, y que sus promotores han dicho que se podría producir sin mucho
costo y venderse, por ello, barato. Pero tú, que conoces la investigación, estás en
desacuerdo. Les dices:
El químico X ni cura el cáncer ni es particularmente barato de producir;
tampoco se ha mostrado que tenga algún beneficio adicional.
La conclusión de tu argumento es clara: No es buena idea importar la molécula X.
Era obvio, en ese contexto, que las razones que diste eran para apoyar esta idea.

IV Supongamos que estoy platicando con mi amigo Juan, quien es un filósofo, y


que tenemos un desacuerdo sobre la relación entre el lenguaje y el mundo. Juan
afirma lo siguiente:
El lenguaje nunca es una representación fiel de la realidad.
Y yo le replico:
Tenemos lenguaje porque nos es útil para varios fines. Uno de los fines
más importantes que tenemos es representar fielmente a la realidad.
Si el lenguaje no cumpliera al menos algunas veces con los fines más
importantes, no lo hubiéramos preservado.
En mi argumento, no mencioné la conclusión, pero es claro cuál es:
El lenguaje a veces puede representar fielmente a la realidad.
¿Cómo se podría saberlo? Diversos factores contextuales influyen en ello. Es decir,
diversos elementos de la información que yo y mi interlocutor (Juan) tenemos en esa
circunstancia específica: por ejemplo, sabemos que Juan y yo tenemos una postura
contraria respecto al problema del lenguaje, y sabemos que Juan ha mencionado
su postura en este problema. Además, yo le he respondido con un argumento, que
parece llevar hacia la tesis contraria. Todos estos son factores que hacen razonable
suponer cuál es la conclusión que pretendía inferir, aún cuando no la haya mencio-
nado.

Hemos visto que un argumento puede tener su conclusión implícita. Pero también
puede tener premisas implícitas: premisas que no se mencionan, pero que es razonable
suponer que estaban dándose por sentado. Existe un término especial para argumentos

30
con premisas implícitas, que voy a definir ahora.
Definición 5: Entimema
Un entimema es un argumento con premisas implícitas.

Como con los argumentos cuya conclusión se deja implícita, diversos factores contex-
tuales pueden permitirnos tener una idea razonable sobre qué premisas se están dejando
implícitas. Estos factores son elementos de la información que conocemos quienes he-
mos oído o leído el entimema. Y si no los conocemos, es probable que tengamos que
preguntar: «¿Estás suponiendo que. . . ?»
Es una buena práctica argumentativa dejar en claro, desde el principio, cuáles son las
premisas de las que estamos partiendo, a menos que estas sean realmente muy obvias.
Hacer explícitos nuestros supuestos permite que nuestros interlocutores entiendan me-
jor desde dónde partimos, cuáles son nuestras bases. Quizá ellos compartan nuestras
bases; en ese caso, es más fácil lograr un acuerdo. Si no las comparten, de cualquier
forma, saber en qué nos basamos les permitirá entender mejor cuál es el desacuerdo
que tenemos. Así, preferir los argumentos explícitos sobre los entimemas hace menos
probable que ocurran malentendidos.
Ahora vamos a ejercitar el concepto de premisas implícitas.
Ejercicio # 6
I En los siguientes argumentos falta una premisa, que está implícita. Indica cuál es. He
intentado que la información que se da en cada caso sea suficiente para poder distinguir
qué premisa se ha dejado implícita, pero si crees que no lo es, indícalo, y sugiere las
diversas ideas que podrían funcionar como premisa con la información disponible.
1. Si no cae cara, cae sol. [. . . ] Por lo tanto, cayó sol.
2. Toda persona que acepte el relativismo moral, debe por ello aceptar ser sujeto de
acciones indebidas. [. . . ] Por lo tanto, Jorge debe aceptar ser sujeto de acciones
indebidas.
3. El robo es una acción que contradice los principios morales. [. . . ] Por lo tanto, no
se debe robar.
4. Nadie sale ileso de una guerra. [. . . ] Mariana debe haber sido lastimada.
5. Fumar produce la absorción de compuestos (como los hidrocarburos aromáticos
policíclicos) que son activados metabólicamente al ser catalizados por enzimas
citocromo P450. Esta activación permite que los compuestos puedan formar enla-
ces covalentes con el ADN. A su vez, estos forman aductos de ADN. Los aductos
de ADN pueden causar errores en el proceso de replicación de las células, los
cuales resultan en mutaciones (como las transversiones G→T). Estas mutacio-
nes causan alteraciones en los controles del crecimiento celular. [. . . ] La multipli-
cación descontrolada de células anómalas causa cáncer. Todo lo anterior implica

31
que fumar causa cáncer.
6. Al aprender lógica aumentará tu capacidad de entender diversos temas. [. . . ] Por
ello, es menos probable que aumente tu capacidad de entender diversos temas.
II Dame un argumento de cada uno de estos tipos:
1. Con conclusión después de las premisas.
2. Con conclusión antes de las premisas.
3. Con conclusión enmedio de las premisas.
4. Con conclusión que se deja implícita.

2.3.2. Marcadores argumentales

Algunos discursos que tienen un aspecto informativo pueden contener argumentación,


aunque no sea obvio o completamente claro que la contienen. Afortunadamente, existen
ciertas palabras que nos indican que estamos tratando con un discurso argumentativo.
Estas son los marcadores argumentales.
Definición 6: Marcadores argumentales

Los marcadores argumentales son frases que señalan la presencia de


un argumento en un discurso (hablado o escrito), y que nos ayudan a
distinguir la estructura lógica del argumento.

Existen dos tipos de marcadores argumentales: los de premisa y los de conclusión.

Marcadores de premisa

Los marcadores de premisa nos indican la presencia de una o varias premisas del
argumento. Su presencia nos indica que las ideas que siguen apoyan a otra idea, que
apareció antes o aparecerá después, y que es la conclusión del argumento.
Ejemplos de estos marcadores son:
«Sobre la base de . . . » «Suponiendo que . . . » «Debido a . . . »
«Partiendo de que . . . » «A razón de que . . . » «Dado que . . . »
«Tomando en cuenta que . . . » «A causa de . . . »

Marcadores de conclusión

Los marcadores de conclusión nos señalan la presencia de la conclusión del argumento.


Nos indican que la idea que sigue es apoyada por las ideas que le siguen o le anteceden,
y que son las premisas del argumento.

32
Ejemplos de estos marcadores son:
«Por lo tanto. . . » «De lo que se infiere que. . . »
«Se sigue que. . . » «Y debido a ello, . . . »
«Lo cual significa que. . . » «Lo que conlleva que. . . »
«En consecuencia, . . . » «Concluimos que. . . »
«Luego, . . . » «Ergo. . . »
«De ahí que. . . » «Con lo que tenemos que. . . »
Es muy importante distinguir a los marcadores de conclusión de las expresiones condi-
cionales, lo cual revisaremos en la sección 4.1.6.
Ejercicio # 7
En los siguientes argumentos, distingue los marcadores argumentales, si los hay (si no
tiene alguno de los tipos de marcador, indícalo).

Marcador
Marcadores
Argumento de conclu-
de premisa
sión
«La reproducción sexual provee un espectro más
amplio para generar variabilidad genética, cuando
piezas individuales de cromosomas -de óvulos y
espermatozoides- se recombinan en la fertilización.
Otra de las ventajas de la reproducción sexual es que
las mutaciones nocivas, que naturalmente se acumu-
lan a lo largo de los años, se diluyen y sus efectos se
anulan durante esa combinación genética. Se infiere
que los organismos que se reproducen asexualmente
carecen de esas ventajas.»8
Quien, en algún momento de su vida, ha amado, sa-
be tanto del éxtasis del alma como de la necesidad de
atender aspectos menos sutiles de la existencia. Esto
es así puesto que el amor no es solamente emoción y
éxtasis; también es un constante recordarnos de que,
por más elevada que sea nuestra adoración, se mantie-
ne solamente cuando descansa en cimientos concre-
tos y firmes. Y quien ama debe, por necesidad, saber
todo esto.
«Es necesario que haya sustancias simples, puesto
que hay compuestos; porque el compuesto no es sino
un montón o aggregatum de simples.»9

33
«Muchos problemas de rodilla son causados por una
musculatura apretada o desequilibrada. El estiramiento
y el fortalecimiento, por lo tanto, ayudan a prevenir el
dolor de rodilla.»10
Hay sobrepoblación cuando la cantidad de personas
excede la cantidad de recursos disponibles. Esta cau-
sa diversas consecuencias sociales y ambientales. Por
otro lado, en las naciones desarrolladas se consumen
recursos a una tasa mucho mayor que en las naciones
en vías de desarrollo. A razón de ello, la sobrepobla-
ción afecta de manera desigual, dependiendo del nivel
de desarrollo de la sociedad.
«Un embrión no es un individuo o persona humanos.
Un embrión es un ‘principio no desarrollado de algo’,
(según la cuarta acepción de la Real Academia Espa-
ñola). Que represente vida no significa que sea en sí y
por sí mismo un ser humano, una vida humana como
equivalente de persona. Vida y ser humano, persona y
vida biológica no son lo mismo, y no hay que olvidar-
lo.»11
«Sigue siendo pertinente continuar revisando los orí-
genes y evolución, así como los derroteros en el pre-
sente y el futuro de la autonomía universitaria (pese
a que haya sido un asunto sobre el que se ha escrito
abundatemente). Ello es así porque en el último cuarto
de siglo los controles desarrollados por los gobiernos,
y las demandas sociales, parecen estar acotando cada
vez más sus alcances.»12
Uno de los gases más contaminantes es el CO2 (es uno
de los gases del efecto invernadero). Por ello, cuando
comparamos autos eléctricos y autos de gasolina, ob-
tenemos que los primeros contaminan más. Esto debi-
do a que sus baterías contienen litio, cobalto y manga-
neso que al extraerse y procesarse generan muchas
toneladas de CO2 .

34
«La distinción entre la cinemática de una teoría y su
dinámica es fundamental para el marco conceptual de
muchos físicos. Sin embargo, un cambio en la cinemá-
tica de una teoría puede compensarse con un cambio
en su dinámica sin consecuencias empíricas, lo que
sugiere que estas características de la teoría, consi-
deradas por separado, no pueden tener un significado
físico. Por lo tanto, debe concluirse que, en adelante,
la cinemática por sí misma y la dinámica en sí misma
están condenadas a desvanecerse en meras sombras,
y solo una especie de unión de ambas preservará una
realidad independiente.»13

2.3.3. ¿Más de una conclusión o argumentos encadenados?

Según la definición 4, un argumento posee una única conclusión. Sin embargo, pare-
ce que podemos encontrar muchos ejemplos de argumentos que posean más de una
conclusión. Por ejemplo:
La libertad humana no se contradice con el determinismo de las leyes de
la naturaleza. Pues sería imposible actuar si a cada causa no le sucediera
un efecto, de acuerdo a las leyes; esto debido a que, si a una desición de
actuar no le siguiera, de manera determinada por las leyes, la acción, los
comportamientos subsecuentes no contarían como acciones (pues no todo
movimiento corporal cuenta como acción). Y para que una acción sea libre
tiene que ser causada por la voluntad de la persona. Entonces, la libertad
requiere la existencia de leyes deterministas. Y si algo requiere a otra co-
sa, no puede contradecirla. De ahí la conclusión. También se sigue que la
libertad sólo existe si hay determinismo.
En este argumento, podemos encontrar dos conclusiones distintas: primera, «La libertad
humana no se contradice con el determinismo de las leyes de la naturaleza». Sabemos
que esta es una conclusión debido a que encontramos el marcador de inferencia «Pues»,
que nos indica que lo anterior se basa en lo subsiguiente. Y la segunda conclusión es:
«la libertad sólo existe si hay determinismo».

35
Definición 7: Polisilogismo

Un polisilogismo es un argumento compuesto de varios argumentos, de


manera que la conclusión de uno es una premisa del siguiente.

Algunos autores también le llaman «sorites» a un polisilogismo.14 A los polisilogismos


que encontremos, siempre los descompondremos en argumentos con una sola conclu-
sión, para así estudiarlos con las técnicas lógicas de este libro.

Puede suceder que de las mismas premisas se infiera más de una conclusión. Como
ejemplo, considera el siguiente argumento:
1. Pedro y Pablo son hijos de Juan.
C1. Juan tiene al menos dos hijos.
C2. Pedro y Pablo son hermanos.
C3. Pedro es hijo de Juan.
En este ejemplo, las diferentes conclusiones, aunque son acerca de temas cercanos,
no se apoyan entre sí: son, simplemente, varias conclusiones que se pueden inferir
de la premisa.
Sin embargo, existe otro tipo de casos, en los que a partir de las premisas podemos
inferir conclusiones que, aunque distintas, sí se apoyan entre ellas. A estas conclu-
ejemplo 3

siones les podemos llamar «conclusiones intermedias», aunque en las matemáticas


se les suele llamar «lemas». Por ejemplo:
1. Todos los filósofos son miembros de la sociedad
2. Los miembros de la sociedad tienen responsabilidades civiles.
C1. Los filósofos tienen responsabilidades civiles.
C2. Hay ciertas responsabilidades que tienen los filósofos.
C3. La actividad filosófica está regulada bajo cierta normativa.
Aquí, las ideas C1 y C2 son conclusiones intermedias: se infieren de las premisas
para llegar a la «conclusión principal», C3. Podríamos descomponer este argumento
en un polisilogismo, de manera que C1 sea la premisa para un nuevo argumento, que
concluya C2; a su vez, C2 sería la premisa de un tercer argumento, que concluiría
C3. Finalmente, el argumento que se basa en C2 para concluir C3 es, a su vez,
un entimema, pues contiene la premisa implícita de que tener una responsabilidad
implica estar regulado bajo una normativa.

2.4. No los confundas: argumentos, condicionales, aclaracio-


nes, causas, explicaciones

Los términos que se utilizan para indicar la presencia de un argumento —al indicar la
presencia de una inferencia o de una premisa— también suelen usarse con otros fines.

36
Principalmente, estas palabras se suelen utilizar en explicaciones, aclaraciones, descripciones
de causas, y oraciones condicionales.

2.4.1. Condicionales

Empecemos con las oraciones condicionales. Como su nombre lo dice, una oración
condicional enuncia la condición para que suceda algo (ya sea una condición suficiente
o necesaria, conceptos de los que hablaremos en la sección 4.1.6). Suele aparecer con
las palabras «si. . . entonces» y «. . . solamente si. . . ». Por ejemplo:
Si me dan trabajo, con gusto me cambio de ciudad.
Esta oración no es un argumento: nos dice que, si es que llegara a darse la condición
de que me den trabajo, entonces con gusto me cambiaré de ciudad. En estas oraciones
condicionales, basta que se dé la condición para que se dé lo condicionado. Pero no
nos dan una razón: no fundamenta una idea. Lo que sí fundamentaría una idea sería el
siguiente argumento:
Si me dan trabajo, con gusto me cambio de ciudad.
Me darán trabajo.
Por ello, me cambiaré de ciudad.
Aquí sí hay un argumento. Pero es distinto de la oración anterior, porque contiene
otras oraciones: además de la oración condicional, contiene otra premisa y una conclu-
sión.
Este ejemplo nos sirve para ilustrar algo importante: a veces se usan oraciones
condicionales para hacer un argumento que se deja implícito. Por ejemplo, si quiero
argumentar que yo no merezco el castigo, y me encuentro entre una audiencia que
sabe que quiero demostrarlo, y además yo y la audiencia sabemos que las pruebas son
insuficientes, podría decirles: «Si me van a castigar, necesitan pruebas suficientes». Se
podría pensar que estoy argumentando que no merezco el castigo porque, (i) las pruebas
no son suficientes, y (ii) para que me castiguen, necesitan pruebas suficientes. En este
caso hablaríamos de un argumento con una premisa y conclusión implícitas.
Sin embargo, como he dicho antes, para poder saber en dónde hay un argumento
implícito se necesita conocer el contexto. Y, de cualquier forma, un argumento sigue
siendo distinto a una mera afirmación condicional; lo que puede suceder es que ésta se
use para indicar un argumento.
Considera este otro ejemplo:
Me iré de este país sólo si encuentro un excelente trabajo fuera.
Como con el ejemplo anterior, aquí no hay un argumento: es una oración que nos
dice lo que se requiere, lo que se necesita, para que me vaya de este país: se requiere que
encuentre un excelente trabajo fuera. Encontrar ese trabajo quizá no baste para que me

37
vaya, pero sí se requiere. Como con el ejemplo anterior, esta oración puede usarse en
el contexto de un argumento, pero no es un argumento en sí misma.
Las oraciones condicionales y los argumentos se parecen en algo: en que en ambos
encontramos consecuencias. Al decir que, si pasa algo, entonces pasará otra cosa, estamos
diciendo que si sucede lo primero, eso tendrá como consecuencia lo segundo.
En un argumento también hay consecuencias: las premisas tienen como consecuen-
cia lógica, o como consecuencia probable (dependiendo del tipo de argumento), a la
conclusión (más adelante estudiaremos estos conceptos con más detalle). Pero en las
oraciones condicionales solamente afirmamos que una cosa tiene como consecuencia
otra: si sucede una, entonces sucederá la otra. En un argumento no tenemos una mera
afirmación, tenemos una relación inferencial entre premisas y conclusión: las premisas
conllevan la conclusión.
Resumiendo: es importante no confundir un argumento con una oración condicional:
un argumento tiene premisas, inferencia y conclusión, pero una oración condi-
cional es solamente una oración —una que afirma que sucederá algún evento si es
que se da, o únicamente bajo la condición de que se dé, otro evento. Con un argumento no
afirmamos: más bien, un argumento contiene afirmaciones.

2.4.2. Aclaraciones

Una aclaración enuncia el significado de un término o de una frase, con el propósito de


—¡bueno, pues de aclararlo! Se puede intentar aclarar algo por muchas razones: quizá
simplemente no me expliqué bien, quizá lo que dije era ambiguo (es decir, podría querer
decir más de una cosa en el contexto), quizá lo que dije era oscuro, quizá lo que dije
involucraba terminología técnica. En la siguiente cita de Sartre (en El existencialismo es
un humanismo) encontramos un ejemplo de lo último:
Si Dios no existe, hay por lo menos un ser en el que la existencia precede a la
esencia, un ser que existe antes de poder ser definido por ningún concepto,
y que este ser es el hombre. ¿Qué significa aquí que la existencia precede a
la esencia? Significa que el hombre empieza por existir, se encuentra, surge
en el mundo, y que después se define.
En este caso, Sartre está exponiendo lo que significa decir que «en el hombre, la
existencia precede a la esencia». Está aclarando esa frase. (También está haciendo una
afirmación condicional: «Si Dios no existe, hay por lo menos un ser en el que la existen-
cia precede a la esencia, [. . . ] y este ser es el hombre». Como vimos arriba, esta oración
no es un argumento: nos dice que, si es que pasa algo, entonces pasa otra cosa: que hay
por lo menos un ser en el que. . . etc.)
Ahora bien, en las aclaraciones a veces ocurren términos que podríamos pensar que

38
son marcadores argumentales. Por ejemplo, a veces «significa» se usa para indicar una
inferencia, como en:
Quien es libre, decide su destino. Sólo mediante la elección racional de un
ethos podemos llegar a ser libres. Esto significa que quien es libre, decide su
destino y ha hecho una elección racional de un ethos.
En este ejemplo, bien podríamos sustituir la frase «Esto significa» por «Esto implica»:
las dos proposiciones iniciales conllevan la conclusión; dicho en un contexto, este argu-
mento se usaría para demostrar la conclusión de que quien es libre, decide su destino y ha
hecho una elección racional de un ethos. A diferencia de ello, en el ejemplo de Sartre, la
intención es dar el significado de terminología técnica, de palabras especializadas a las
que Sartre les da un significado específico para referirse a un fenómeno.
En general, debemos tener cuidado de que la ocurrencia de aparentes marcadores
argumentales no nos confunda: también pueden ser indicadores de una aclaración o
definición. ¿Cómo saberlo? Solamente podemos fijarnos en el contexto del discurso, y
tratar de inferir las intenciones del autor al escribirlo o enunciarlo: si pretende funda-
mentar una idea, está argumentando; si pretende explicar el significado de una frase
o palabra, está aclarando.

2.4.3. Causas

Las palabras con las que indicamos argumentos también se usan para indicar causas.
Una causa es un evento que produce o genera o hace que surja otro evento (en el lenguaje
coloquial, también se usa «causa» para referirse a características que, al poseerse, causan
que se posean otras, como cuando decimos «la ignorancia y el miedo son la causa de
la xenofobia»). Como ejemplo de esto, considera el siguiente pasaje, adaptado de una
cita de la BBC:
Sin embargo, la proyección de Carlos Anaya es que más allá del factor
estacional, la demanda de aguacate de Estados Unidos seguirá creciendo y,
por lo tanto, los precios tenderán a estabilizarse en un rango un poco más
alto que los valores históricos.15
En este ejemplo, la frase «por lo tanto» se usa para indicar no un argumento, sino una
causa: el aumento de la demanda de aguacate en Estados Unidos causará el aumento
en los precios del aguacate. Veamos otro ejemplo.
No pude dormir toda la noche. A razón de ello, estoy muy cansado.
De nuevo encontramos una expresión que a veces se utiliza para indicar premisas.
Sin embargo, aquí no se está ofreciendo una proposición como razón de la otra, sino
un suceso como causa del otro. El que no pudiera dormir causó, (hizo, produjo) que yo
estuviera muy cansado. Pero no estoy infiriendo que yo esté causado a partir de que no

39
pude dormir.
Las afirmaciones que describen causas tienen algo en común con los argumentos:
se pueden usar para justificar, para dar razón de un suceso. La diferencia es que las
afirmaciones que describen causas no contienen una relación de inferencia, como sí la
contienen los argumentos.
También podemos diferenciar a la relación causa-efecto de la relación inferencial. Una
relación inferencial es una relación entre proposiciones: se da cuando una proposición —
la conclusión— es consecuencia lógica de otras. En cambio, la relación causal es una
relación entre sucesos: se da cuando un evento concreto —no cómo lo describimos en
el lenguaje, sino el evento mismo— genera la existencia de otro evento, o genera un
cambio en otro evento.
Otra diferencia importante entre la causación y las relaciones inferenciales es que
usamos inferencias para demostrar, para argumentar a favor de una proposición. Esto lo
solemos hacer cuando alguien no cree en esa proposición. En cambio, regularmente,
usamos la descripción de causas no cuando queremos convencer a alguien de una pro-
posición, sino cuando queremos explicarle a alguien de dónde proviene cierto suceso, que
ya damos por sentado que existe.

2.4.4. Explicaciones

Una explicación responde a una pregunta «¿por qué?». Nos dice por qué sucede tal o cual
evento; por ello, la frase «porque» es un muy buen indicador de explicaciones: esa frase
suele usarse para decir en dónde comienza una explicación. Una explicación tampoco
es un argumento, aunque ambos conceptos estén relacionados muy estrechamente.
Por ejemplo:
Llegué tarde porque había una manifestación.
En este caso, quien enuncia esta oración no está dando un argumento: está explicando
por qué llegó tarde, enunciado el factor que lo provocó.
Las explicaciones, como las descripciones de causas, se parecen a los argumentos
en que en ambos podemos encontrar cierto tipo de consecuencia. Pero como con las
descripciones de causas, en las explicaciones ya suponemos de entrada que se da el
hecho, y al explicarlo decimos de dónde surgió. Mientras tanto, con los argumentos
buscamos demostrar que se da un hecho, que es la conclusión.
(Las explicaciones y descripciones de causas se parecen en varios aspectos. Esto ha
llevado a algunos autores a pensar que, en realidad, toda explicación es una descrip-
ción de causas. Esto es muy controvertido en la teoría de la explicación, así que no
profundizaremos en ello.)
Algunos argumentos suponen ciertas explicaciones: son las inferencias a la mejor expli-

40
cación, (que revisaremos en el capítulo ??). Y, según algunas teorías de la explicación,
toda explicación supone ciertos argumentos.16
De cualquier forma, argumentos y explicaciones son distintos. Un argumento con-
tiene premisas, de las cuales se infiere una conclusión. Tanto premisas como conclusión
son proposiciones. En cambio, una explicación contiene un hecho a explicar —un ex-
planandum— y la explicación de ello: un explanans. Al explicar damos por sentado que
el explanandum se da, que ya existe, y buscamos decir qué fue lo que lo llevó a existir; en
cambio, al argumentar no damos por sentado que la conclusión ya sea verdadera, sino
que buscamos demostrar que sí lo es.

2.4.5. Lenguaje puramente descriptivo

A veces también pensamos que hay un argumento donde solamente se esta describien-
do un suceso, o las características de algo. Si esta descripción suena muy técnica o
sofisticada, puede parecernos un argumento. Por ejemplo:
Los científicos estiman que el microbioma humano contiene billones de bac-
terias, la mayoría de ellas inofensivas, muchas beneficiosas y algunas que
causan enfermedades. La creciente evidencia ha revelado el papel de estos
microbios como poderosos moduladores de la enfermedad y la salud. Los
cambios tanto en el recuento como en el contenido bacteriano se han re-
lacionado con el desarrollo de afecciones que van desde la caries dental
y las infecciones intestinales hasta las más graves, como la enfermedad in-
flamatoria intestinal crónica, la diabetes y la esclerosis múltiple. La mayor
parte de la investigación hasta la fecha se ha centrado en mapear los tipos
de bacterias que habitan nuestros cuerpos en un esfuerzo por determinar la
presencia de una especie bacteriana determinada y cómo podría afectar el
riesgo de enfermedad. Por el contrario, la nueva investigación profundiza
mucho más, observando los genes que componen las diversas especies y
cepas microbianas.17
Aquí solamente hay una descripción: se describen el microbioma y ciertas investiga-
ciones sobre este. No hay ningún argumento. ¿Cómo lo podemos saber? Porque ninguna
proposición se infiere de la otra, por lo que ninguna se ofrece como justificación —como
premisa— de otra. Sin esos elementos, no hay argumento.
Ejercicio # 8
Para cada uno de los siguientes textos, di si es un argumento, una proposición condicio-
nal, una aclaración, una descripción de causa, o una explicación.
1. Si vamos a aceptar que una empresa tome el control de las comunicaciones glo-
bales sin tener consecuencias por ello, y que además se le brinden millonarias

41
exenciones de impuestos, entonces es mejor que nos vayamos preparando para
una debacle no sólo de orden económico, sino político y hasta moral.
2. Cuando digo que «hemos dejado de creer en el amor duradero», me refiero a que,
aunque podamos seguir buscando una relación de pareja que se mantenga ante
las adversidades, nuestras acciones revelan que ya actuamos bajo la certeza de
que nuestras relaciones sobrevivirán.
3. No estoy de acuerdo con la legalidad de las corridas de toros. Pues un toro siente,
tanto como un humano; sentir permite percibir el dolor, y las corridas de toros
producen dolor. Pero no deberíamos dejar que fuera legal causar dolor por mero
disfrute.
4. Fumar produce la absorción de compuestos (como los hidrocarburos aromáticos
policíclicos) que son activados metabólicamente al ser catalizados por enzimas
citocromo P450. Esta activación permite que los compuestos puedan formar en-
laces covalentes con el ADN. A su vez, estos forman aductos de ADN.
...
...
...
...
...
...
...
...

2.4.6. Sobre distintos nombres para premisas y conclusiones *

La conclusión principal, a diferencia de las intermedias, es aquella que buscamos inicial-


mente. Regularmente esta conclusión va a ser la idea más interesante, profunda, informa-
tiva o compleja que podamos inferir de las premisas. En matemáticas, a las conclusiones
principales se les llama «teoremas».
Un tercer tipo de conclusiones que se distinguen en matemáticas son los «corolarios»:
ideas que se infieren de manera «sencilla» a partir de la «conclusión principal» o teore-
ma.
En las ciencias también se distinguen las premisas entre «postulados» y «axiomas».
Estos dos serían primeros principios, o ideas de las cuales partimos para inferir otras.
Los axiomas, por su parte, serían principios «autoevidentes» u obvios; mientras que los
postulados serían principios que, aunque no son obvios, no se pueden demostrar a partir
de los axiomas. Pero la noción de obviedad que estos conceptos asumen no tiene una
definición rigurosa; sino que, como sucede con la diferencia entre lemas, teoremas y
corolarios (e incluso quizá más), depende del conocimiento que una comunidad de

42
investigación tenga en un momento determinado.
Por ejemplo, el quinto postulado de la geometría de Euclides le parecía a este, si no
tan obvio como los restantes cuatro, sí suficientemente obvio a los geómetras de su épo-
ca como para usarse como principio; mientras que, durante mucho tiempo, una amplia
cantidad de matemáticos intentaron demostrarlo como teorema. No fue hasta el siglo
XX que se demostró que el «principio» euclidiano era prescindible para hacer construc-
ciones geométricas, fundando lo que hoy se conoce como geometría no euclidiana.

2.5. Individuando al argumento: la forma estándar

2.5.1. Individuando al argumento

No siempre somos completamente explícitos y exactos al enunciar nuestros argumentos.


Por ejemplo a veces incluimos información adicional, que solamente contextualiza al
argumento, pero no es parte ni de sus premisas ni de su conclusión. O también añadimos
giros retóricos y muletillas —como cuando preguntamos «¿no?», «¿a poco no?», o «¿no
es cierto?» al exponer una idea. A veces también utilizamos expresiones más cortas
de lo que se requeriría para ser completamente explícitos; o usamos giros retóricos o
formas del lenguaje que no son un discurso informativo y literal. También es usual dejar
implícitas ya sea alguna de las premisas, la conclusión, o ambas.
Para analizar lógicamente a un argumento, primero necesitamos tenerlo «a la mano»:
saber qué premisas tiene y cuál es su conclusión, así como conocer el tipo de inferencia
que presenta (de lo cual hablaremos abajo). Empecemos probando qué tan bien puedes
detectar estos componentes en un pasaje.
Ejercicio # 9
Considera los siguientes argumentos. Para cada uno de ellos, encierra en rojo cada una
de las premisas, en azul la conclusión, y utiliza verde para subrayar lo que solamente es
parte del contexto del argumento y no es parte de este (si es que hay tal cosa). Si hay
una premisa o conclusión implícita, indícalo en cada caso.
1. Anaximandro (610-546 a. C), amigo y probablemente discípulo de Tales, argu-
mentó que como los niños están indefensos al nacer, si el primer humano hubiera
aparecido sobre la tierra como un niño no habría podido sobrevivir. En lo que pue-
de haber sido la primera intuición de la evolución, Anaximandro razonó que, por lo
tanto, los humanos deberían haber evolucionado a partir de otros animales cuyos
retoños fueran más resistentes.18
2. Tú mismo dijiste que la infidelidad era causa suficiente para el divorcio. Con todas
las pruebas que he acumulado ya no me puedes esconder la verdad: me has sido

43
infiel. Ya sabes a dónde voy con esto, ¿verdad?
3. Para la teoría cuántica ortodoxa la aleatoriedad surge de alguna manera del efecto
de la medición, no del comportamiento del sistema dinámico, el movimiento perió-
dico, que describe el sistema no medido. Nos gustaría sugerir (particularmente en
vista del hecho de que está de moda hoy en día buscar las manifestaciones cuán-
ticas del caos clásico) que una comparación del caos clásico y el cuántico sería
más fácil si la dinámica cuántica, como la clásica, fuera responsable de la aleato-
riedad, y esta no tuviera que ser puesta a mano. Pero hemos argumentado que,
por agradable que fuera, esto último simplemente no es el caso. Por ello, el caos
clásico no es comparable con el caos cuántico en la teoría cuántica ortodoxa.19
4. Ya antes hemos discutido mucho sobre la fuente de la orientación sexual y he-
mos podido establecer pocas cosas; la investigación sobre este tema sigue siendo
controvertida y escasa. Pero sí sabemos una conclusión: que el ambiente debe
jugar algún papel al determinar la orientación sexual. Esto se establece a partir
de dos hechos: que los gemelos idénticos pueden tener distintas orientaciones,
y que ellos heredan los mismos genes. De esto continuaremos hablando en otro
capítulo del libro.
5. La causa del universo yace fuera de él. Pues: o bien el universo tiene una causa
o no la tiene. Si el universo tiene una causa, la causa yace fuera de él. Y si el
universo carece de causa, el universo es necesario. Además, el universo no es
necesario.20
6. El siguiente argumento se conoce desde la Antigüedad, y ha sido llamado «La pa-
radoja de Epicuro». Hoy en día se conoce como «el argumento lógico del mal», y
se le distingue de otros argumentos alrededor de la existencia del mal. Podríamos
formularlo como sigue. Un supuesto básico es que Dios es omnisciente; también
es omnipotente. Además, Dios es completamente bueno. Pero existe el mal. De
todo esto se sigue que Dios no existe; pues, además, la existencia de ser omnis-
ciente, omnipotente y completamente bueno es incompatible con la existencia del
mal. Este argumento ha sido discutido muchas veces a través de la historia de la
filosofía.
7. Sería más fácil si supiéramos que la crisis actual fue causada por adolescentes
emprendedores que administran sitios de noticias falsas en Facebook, marione-
tas rusas y cuentas de bots, publicidad dirigida de Cambridge Analytica o inclu-
so cámaras de eco simétricamente partidistas inducidas tecnológicamente. Pero
nuestros estudios nos han llevado a la conclusión de que estos riesgos supuestos
no son, en el futuro cercano, las principales causas de irrupción. En lugar de estas
dinámicas impulsadas tecnológicamente, que son novedosas pero en última ins-
tancia menos importantes, vemos dinámicas a largo plazo de la economía política:
la ideología y las instituciones que interactúan con la adopción tecnológica como

44
los principales impulsores de la crisis epistémica actual. Estas dinámicas, que se
desarrollan en la televisión, la radio y el periodismo profesional convencional al
menos tanto como a través de Internet y las redes sociales, se han desarrollado
durante 30 años y han resultado en un ecosistema de medios altamente asimé-
trico que es el principal impulsor de la desinformación y propaganda en la esfera
pública estadounidense. El ecosistema de los medios de derecha, en particular,
circula una cantidad abrumadora de desinformación y propaganda doméstica, y
sus prácticas crean las mayores vulnerabilidades tanto a la propaganda extranje-
ra como a la explotación comercial nihilista por parte de las fábricas de clickbait.
Fuera del ecosistema de medios de derecha, observamos los esfuerzos de los
partidarios, los rusos y las fábricas de clickbait, pero las normas de verificación de
hechos y los compromisos institucionales periodísticos amortiguan la difusión y
amplificación de la desinformación. Estas dinámicas se invierten en la red insular
de derecha, y las afirmaciones partidistas de confirmación de identidad, por falsas
que sean, se aceleran y amplifican.21
8. Pierre-Simon, marqués de Laplace (1749–1827), conocido habitualmente como
Laplace, argumentó que las perturbaciones en las órbitas de los planetas a causa
de la atracción gravitatoria deberían ser periódicas, es decir, marcadas por ciclos
repetidos, en lugar de ser acumulativas. Eso bastaría para que el sistema solar se
estabilizara a sí mismo, y por lo tanto no habría necesidad de la intervención divina
para explicar por qué ha sobrevivido hasta el día de hoy. A Laplace se acostumbra
atribuirle la primera formulación precisa del determinismo científico.22
9. Lo más probable es que los gases producidos al quemar derivados del petróleo y
del carbón para tener fuentes de energía, sean una de las causas más importantes
del efecto invernadero. (Este efecto sucede cuando algunos gases que está en la
atmósfera del planeta impiden que la energía que nuestro planeta recibe por la
radiación del Sol regrese al espacio exterior.) A su vez, este efecto es una de las
causas más importantes del calentamiento global. Al crecer la población, crece la
demanda de energía. Es fácil inferir de aquí qué relación hay entre crecimiento
demográfico y calentamiento global.
10. Vemos que el proceso civilizatorio supone una transformación del comportamiento
y de la sensibilidad humanos en una dirección determinada. Pero es evidente que
en ningún momento ha habido seres humanos individuales que hayan tratado de
realizar esta transformación, esta «civilización», de modo consciente y «racional»
por medio de una serie de medidas que persigan tal objetivo. Es impensable que
el proceso civilizatorio haya sido iniciado por seres humanos capaces de planificar
a largo plazo y de dominar ordenadamente todos los efectos a corto plazo, ya que
estas capacidades, precisamente, presuponen un largo proceso civilizatorio. Es
evidente, pues, que la «civilización», como la racionalización, no es un producto

45
de la ratio humana, no es el resultado de una planificación que prevea a largo
término.23

2.5.2. La necesidad de la paráfrasis

Como he mencionado antes, fuera de los libros de texto y de los artículos especializa-
dos, los argumentos no se suelen presentar de manera límpida y explícita. A veces sus
premisas y/o conclusiones se dejan implícitas, a veces se sugieren mediante una excla-
mación o pregunta retórica; a veces el argumento está enmedio de información que no
es importante para comprenderlo, y a veces se utilizan giros retóricos para indicar una
idea o para agregarle algo de estilo literario.
En estos casos, es necesario parafrasear el discurso
Parafrasear significa usar para poner explícitamente el argumento que se preten-
otras palabras para expresar de ofrecer. Cuando parafrasees lo que dice otra perso-
la misma idea con mayor na, siempre recuerda usar el principio de caridad (secc.
claridad o inteligibilidad. 1.2.2); para aumentar la claridad de tu paráfrasis, re-
cuerda las máximas de Grice (secc. 1.2.3).
A veces las paráfrasis se usan para extraer una sola proposición; a veces es necesario
parafrasear todo un pasaje para obtener el argumento. Vamos a ver dos ejemplos: uno en
el que distinguimos la proposición que se quiere expresar con una pregunta, otro donde
el proceso es más radical y el argumento final no se parece mucho al texto original.

I Empecemos con un ejemplo sencillo. Considera este pasaje del Teeteto de Pla-
tón:
Sócrates: ¿Podrías, por lo menos, asegurar, que ninguna cosa le parece
a otro hombre la misma que a tí? ¿Y no afirmarías, más bien, que nada
se te presenta bajo el mismo aspecto, porque nunca eres semejante a
tí mismo?
ejemplo 4

Teeteto: Soy de este parecer más bien que del otro.


Aunque, en el diálogo, el personaje Sócrates le hace una pregunta a otro personaje,
la intención de Platón es poner sobre la mesa una proposición, para discutir sus
implicaciones. Esta es: nada se te presenta bajo el mismo aspecto, porque nunca
eres semejante a tí mismo. Y sabemos que es esa porque es la que Teeteto acepta
en lugar de la otra. Platón usa a estos dos personajes para sugerir una idea, que
después discutirá. Usamos la paráfrasis para eliminar elementos innecesarios para
el análisis de los argumentos.

II Considera el siguiente ejemplo (tomado de John Stuart Mill, El Utilitarismo, cap.

46
I):
Lo que ahora me propongo no es criticar a esos pensadores, pero no
puedo evitar el referirme, como ejemplo, a un tratado sistemático es-
crito por uno de los más ilustres de ellos, la Metafísica de la Etica, de
Kant. Este hombre notable, cuyo sistema de filosofía permanecerá mu-
cho tiempo como uno de los hitos en la historia de la especulación filo-
sófica, establece, en el tratado en cuestión, un primer principio universal
como origen y fundamento de la obligación moral; es éste: Obra de ma-
nera que tu norma de acción sea admitida como ley por todos los seres
racionales. Pero, cuando empieza a deducir de este precepto cuales-
quiera de los deberes actuales de moralidad, fracasa, casi grotesca-
mente, en la demostración de que habría alguna contradicción, alguna
imposibilidad lógica (por no decir física) en la adopción por todos los
seres racionales de las reglas de conducta más atrozmente inmorales.
Todo cuanto demuestra que las consecuencias de su adopción univer-
sal serían tales que nadie se decidiría a incurrir en ellas.
Aquí he dado un solo pasaje, pero es importante conocer el contexto: en este primer
capítulo, Mill pretende introducir el problema del fundamento de la moral. La segunda
oración del capítulo es esta:
Desde los albores de la filosofía, la cuestión concerniente al summum
bonum, o, lo que es lo mismo, al fundamento de la moral, se ha con-
tado entre los problemas principales del pensamiento especulativo, ha
ocupado a los intelectos mejor dotados, y los ha dividido en sectas y
escuelas que han sostenido entre sí una vigorosa lucha.
Muy bien. Entonces, Mill pretende hablar de cuál es este fundamento de la moral, y
en la primera cita que puse, parece descalificar las ideas de Kant. Por ello, es clara
su intención en la primera cita: pretende argumentar en contra del principio de Kant al
concluir que este no es origen y fundamento de la obligación moral. Esta conclusión
no está explícita, pero, habiendo leído el pasaje y conociendo el contexto, debería
ser obvio que es a lo que Mill pretende llegar.

Por otro lado, ¿cuál es su argumento? Bueno, parte de dos premisas. La primera
parece ser que Kant «fracasa [. . . ] en la demostración de que habría alguna contra-
dicción [. . . ] en la adopción por todos los seres racionales de las reglas de conducta
más atrozmente inmorales». ¿Contradicción con qué? Bueno, contradicción con su
principio. Así que la primera premisa podría ponerse así: «No hay contradicción en-
tre el principio de Kant y la adopción por todos los seres racionales de las reglas de
conducta más atrozmente inmorales». La segunda premisa parece ser estar suge-
rida por esta idea: «Todo cuanto demuestra que las consecuencias de su adopción
universal serían tales que nadie se decidiría a incurrir en ellas.» Parafraseando, ten-

47
dríamos esta proposición: «De esto se sigue que las consecuencias de la adopción
universal del principio de Kant serían tales que nadie se decidiría a incurrir en ellas».

Hasta ahora, tenemos esto:


• Premisa 1: No hay contradicción entre el principio de Kant y la adopción por
todos los seres racionales de las reglas de conducta más atrozmente inmora-
les.
• Premisa 2: De esto se sigue que las consecuencias de la adopción universal
del principio de Kant serían tales que nadie se decidiría a incurrir en ellas.
• Conclusión: El principio de Kant no es origen y fundamento de la obligación
moral.
Esta es una paráfrasis suficientemente buena de la primera cita de Mill. Ve cuánto
hemos dejado fuera y cuánto hemos vuelto a frasear o hasta a agregar. Todo esto lo
hicimos con el fin de extraer el argumento que Mill ofrece, depurado de giros retóricos
(«fracasa, casi grotescamente», por ejemplo) o de información que no es relevante
para su argumento. Lo hicimos siempre con la intención de tener claridad acerca de
qué quiere concluir Mill y en qué premisas se basa; intentamos seguir el principio de
caridad al no atribuirle cosas que es obvio que no tenía en mente.

Por supuesto, el argumento de Mill, como lo hemos puesto, es un entimema: para


que la conclusión se siga, se infiera correctamente, de las dos premisas, hace falta
información adicional. Una buena reconstrucción de un argumento —siguiendo el
principio de caridad, se le llama una reconstrucción caritativa— puede suplementar
estas ideas que faltan para vincular deductivamente a las premisas y la conclusión.
Nos quedaría algo así:
• Premisa 1: No hay contradicción entre el principio de Kant y la adopción por
todos los seres racionales de las reglas de conducta más atrozmente inmora-
les.
• Premisa 2: Si pasa lo dicho en la premisa 1, entonces las consecuencias de
la adopción universal del principio de Kant serían tales que nadie se decidiría
a incurrir en ellas.
• Premisa 3: Si nadie decidiría a incurrir en las consecuencias del principio de
Kant, entonces este no es origen y fundamento de la obligación moral.
• Conclusión: El principio de Kant no es origen y fundamento de la obligación
moral.
Este argumento es mucho más explícito, y podemos ver cómo es el que Mill podría
estar pensando en su cita original, depurada de retórica e información irrelevante. Si
piensas que no es el argumento de Mill —que lo hemos transformado hasta hacer-
lo irreconocible—, es buena idea regresar a la cita original y pensar qué premisas
o conclusiones podrían estar faltando. (Incluso, ¡podrías volver a cuestionar si de
hecho hay un argumento ahí!)

48
2.5.3. La forma estándar

Vamos a convenir en usar una manera estandarizada de representar a los argumentos.


Una vez que hemos individuado al argumento —es decir, que hemos separado los que
son meros factores contextuales, así como elementos de «paja» o «relleno»— y descu-
bierto cuáles son sus premisas y su conclusión, vamos a representarlo de una manera
sistemática y uniforme.
Definición 8: Forma Estándar de un Argumento

La forma estándar de un argumento es la siguiente:


1. [Primera premisa]
2. [Segunda premisa]
..
.
∴ [Conclusión]

.
Uso los tres puntos verticales («..») para decir que puede haber más premisas (¡inclu-
so puede haber solamente una!) El símbolo «∴» es, por supuesto, el símbolo para la
expresión «Por lo tanto», que indica cuál es la conclusión.
La ventaja de utilizar la forma estándar es que nos permite tener absoluta claridad
sobre cuáles son las premisas y cuál es la conclusión.
Ejercicio # 10
Pon cada uno de los argumentos del ejercicio de la página 43 en la forma estándar,
poniendo las premisas implícitas que fueran necesarias.

2.6. Tipos de argumentos

Una clasificación usual de los argumentos los divide en dos grandes grupos:
• Argumentos deductivos.
• Argumentos no-deductivos o probabilísticos.
No es la única clasificación posible, pero su generalidad y simplicidad la hacen muy
atractiva, así que la adoptaremos aquí.
La clasificación toma un aspecto esencial de los argumentos: la relación de inferencia
que contienen. Podríamos intentar diseñar clasificaciones alternativas, que tomaran en
cuenta diferencias en premisas y/o en conclusión. Pero (1) ya hemos visto que algunas
maneras de diferenciar entre tipos de premisas, y algunas maneras de diferenciar entre
tipos de conclusión, son bastante poco exactas (sec. 2.4.6), y además (2) dos argumentos
distintos pueden poseer las mismas premisas, o la misma conclusión o incluso las mismas

49
premisas y la misma conclusión. Esto indica que el criterio de clasificación no debería
basarse en las premisas, ni en la conclusión, sino en la manera en que las premisas
apoyan a la conclusión: es decir, en la inferencia.

2.6.1. Argumentos deductivos

Los argumentos deductivos se pueden caracterizar así:


Definición 9: Argumentos deductivos

Los argumentos deductivos son aquellos en los que la relación de inferen-


cia puede clasificarse como válida o inválida.

Es muy importante recordar que la noción de «validez» en la definición 9 no es la


noción «cotidiana» de validez. En la noción cotidiana, solemos decir que algo «es válido»
cuando «se vale» o es adecuado para ciertos fines que suponemos en ese momento. Bajo
ese concepto cotidiano, un argumento contaría como «válido» en una circunstancia
específica si fuera «bueno» darlo en ese contexto, pero podría no ser «válido» en otro
momento. Esta noción cotidiana no es la noción de validez de la lógica. Esta noción
es un concepto técnico, un tecnicismo propio de la lógica formal. Ahora lo definiremos y
después vamos a notar algunas de sus relaciones con otros conceptos importantes.

2.6.2. Concepto de validez

Tenemos un concepto general de validez. Este es:


Definición 10: Validez
Un argumento es válido siempre y cuando no exista ninguna situación
lógicamente posible en la que sus premisas sean todas verdaderas, pero
la conclusión falsa.

Hay varias definiciones equivalentes (es decir, que dicen lo mismo con palabras dis-
tintas). Estas son algunas:
• Un argumento es válido siempre y cuando: en toda situación lógicamente posible
en la que sus premisas sean todas verdaderas, la conclusión también es verdadera.
• Un argumento es válido siempre y cuando: es lógicamente necesario que: si las
premisas son verdaderas, también la conclusión es verdadera.
• Un argumento es válido siempre y cuando: es lógicamente imposible que: las
premisas sean verdaderas pero la conclusión sea falsa.
Tomaremos todas estas definiciones como siendo realmente una sola, dada su equi-

50
valencia.
Nota que la definición 10 implica que un argumento válido puede tener una con-
clusión falsa. Sólo que en ese caso, debe suceder que al menos una de sus premisas
sea falsa también. Esa definición también implica que un argumento puede ser válido
aún cuando tenga premisas falsas. La validez no siempre asegura verdad: solamen-
te asegura la verdad de la conclusión cuando todas y cada una de las premisas sean
verdaderas.
Por otro lado, a partir de la definición 10, se sigue directamente qué se requiere para
que un argumento sea inválido.
Definición: Invalidez
Invalidez Un argumento es inválido siempre y cuando: hay alguna situación
lógicamente posible en la que sus premisas sean todas verdaderas, pero
la conclusión es falsa.

Situaciones lógicamente posibles

En la definición de validez que vimos arriba, una situación es un caso, un escenario, una
realidad, un mundo o un universo. Y decimos que una situación es lógicamente posible
siempre y cuando no sea auto-contradictoria. De manera equivalente, una situación será
lógicamente imposible cuando sí sea auto-contradictoria.

Forma y modalidad

El concepto de validez lógica se ha relacionado, tradicionalmente, con otros dos con-


ceptos: el de forma y el de necesidad lógicas.
Empecemos con el segundo concepto. Validez y necesidad lógica se relacionan por-
que en un argumento válido (por definición) las premisas implican necesariamente a la
conclusión. Este segundo concepto es el que capturamos con la definición anterior (10).
En ella, se entiende que algo es lógicamente necesario cuando ocurre en todo caso ló-
gicamente posible, es decir, en todo posible caso que no sea auto-contradictorio. Esto
quiere decir, de nuevo, lo siguiente: en un argumento válido, en todo caso posible en
el que las premisas sean verdaderas, lo será también la conclusión.
ejemplo 5

Considera el siguiente ejemplo de argumento deductivo:


1. El mundo se acaba en el año 2000.
2. Si el mundo se acaba en el año 2000, entonces el mundo no existe en el
año 2001.

51
∴ El mundo no existe en el año 2001.
Es claro que la premisa 1 es falsa: el mundo no se acabó en el año 2000. Sin em-
bargo, podemos imaginar una situación en la que el universo implote en el año 2000
(¡Sería un universo muy distinto al nuestro! Pero esa situación es lógicamente po-
sible porque no involucra ninguna auto-contradicción.) Y además, en esa situación
meramente posible, que el mundo acabe en el año 2000 conlleva que el mundo no
exista en el año 2001; por lo que se seguiría que el mundo no existe en el año 2001.
Esto ejemplifica la noción de necesidad: en toda circunstancia posible en la que
las premisas 1 y 2 sean verdaderas, la conclusión también lo será —aún cuando
la realidad concreta no sea una situación en la que las premisas sean verdaderas;
como en este caso, que 1 es falsa.

Resta hablar sobre el primer concepto. Una concepción tradicional es que un argu-
mento válido lo es en virtud de su forma lógica. Que sea válido en virtud de su forma lógica,
significa que: si un argumento particular es válido, entonces todo argumento que tenga
la misma forma lógica que ese primero, también será válido. Y que lo sea en virtud de
su forma lógica significa que la validez se debe no al contenido, sino a la estructura.
¿Qué es esta forma lógica? Es la estructura del argumento en el que se ha quitado toda
la «materia» y solamente queda la forma. La materia consiste en los términos que no
son constantes lógicas; a su vez, la forma de un argumento viene dada por las constantes
lógicas que aparecen en ese argumento. (Como analogía, piensa que las constantes
lógicas son el molde, y la materia del argumento es la masa de galletas: el argumento
concreto sería la masa en el molde.) Por supuesto, todavía no hemos definido la noción
de constante lógica; esto lo haremos hasta la sección 4.1.2.
Por ahora, solamente piensa que: si un argumento es válido, entonces todo argumento
que tenga la misma forma lógica también será válido. Es por eso que, primordialmente,
la validez es una propiedad de las formas de argumento. Revisaremos muchas de
estas estructuras de argumento válidas en este libro.24

Considera el siguiente ejemplo de argumento deductivo:


Quien ama es sabio. Pues todo el que ama, sabe que el amor es emo-
ción y éxtasis, y requiere de cimientos firmes. Y quien sabe que el amor
ejemplo 6

es emoción y éxtasis y requiere de cimientos firmes, ha llegado a la


sabiduría.
Podríamos parafrasear este argumento y acomodarlo en la forma estándar (según
la sección 2.5) de la siguiente manera:
1. Todo el que ama, sabe que el amor es emoción y éxtasis, y requiere de
cimientos firmes.

52
2. Todo el que sabe que el amor es emoción y éxtasis y requiere de cimientos
firmes, es sabio.
∴ Todo el que ama es sabio.
Ahora bien, este argumento tiene la forma lógica que sigue —aunque, por ahora, si
no lo alcanzas a ver, te voy a pedir que solamente me lo creas: podremos compro-
barlo definitivamente hasta el capítulo 10.
1. Todo el que es X , es Y .
2. Todo el que es Y , es Z .
∴ Todo el que es X , es Z .
Como resulta que esta forma lógica es válida (algo que también podremos compro-
bar solamente hasta el capítulo 11), todo argumento que tenga esta misma forma
lógica va a ser igualmente válido. En particular, este lo es:
1. Todo el que es un árbol, ladra.
2. Todo el que ladra tiene una garganta.
∴ Todo el que es un árbol tiene una garganta.
Por supuesto, la premisa 1 es falsa —y también la conclusión. ¿Cómo puede ser
esto? Porque la validez de un argumento no siempre asegura la verdad de su con-
clusión: solamente asegura verdad cuando todas las premisas son verdaderas.
Así, el argumento anterior es válido con premisas falsas, y por eso no asegura que
su conclusión sea verdadera.

Solidez

Como notamos arriba, la definición de validez permite que haya argumentos válidos
con premisas falsas. Para argumentos así, la mera validez no garantiza la verdad de la
conclusión.
Un argumento que es válido y además solamente tiene premisas verdaderas se conoce
como un argumento sólido o correcto (en inglés, «sound»).
Definición 11: Solidez
Un argumento es sólido siempre y cuando sea válido y además todas sus
premisas sean verdaderas.

Claramente, se sigue de la definición 11 que la conclusión de todo argumento sólido


es verdadera: como, según la definición sus premisas son verdaderas, y como es válido,
la verdad de las premisas necesariamente se preservará en la conclusión.
Un argumento sólido es el «estándar de oro» de la argumentación deductiva. Con él,
tenemos asegurado el conseguir la verdad. ¡Sólo que, por supuesto, debes asegurarte
de tener premisas verdaderas y una forma válida!

53
Verdad y validez

Hay algo que debemos notar ahora y que es importante recordar siempre. Lo resaltaré
porque me interesa mucho que grabes esto (si no lo has grabado ya) en tu memoria:
Los argumentos no son verdaderos ni falsos. Sólo las proposicio-
nes lo son. Los argumentos pueden ser válidos o inválidos, fiables
o no fiables, y correctos o incorrectos, pero nunca verdaderos ni
falsos.
Parte de la definición de una proposición, como se dio arriba (definición 3), es co-
mo un objeto que es un portador de verdad. Ninguna otra cosa es portadora de verdad:
ninguna puede ser verdadera o falsa. (Por supuesto, en el lenguaje cotidiano decimos
cosas como «¡Ese es un auto de verdad!» para decir que es un auto de mucha calidad,
o que se acerca a un ideal. En la lógica vamos a usar el lenguaje preciso y bien defi-
nido, y evitaremos estos usos coloquiales.) Los conceptos de «validez», «fiabilidad» y
«corrección» que he mencionado son los que definimos arriba (definiciones 10, 13, y
11, respectivamente). Pero recuerda esto: la noción de verdad es para proposiciones; la
noción de validez (y de fiabilidad), para argumentos.
(Por supuesto, estamos usando el lenguaje técnico de la lógica: estamos definiendo
conceptos de manera rigurosa, y apartando ciertas palabras del Español para referirnos
a ellos. En el lenguaje cotidiano, es normal utilizar adjetivos como «válido» y «confiable»
para muy distintas cosas. No importa: cuando hablemos de lógica vamos a utilizar el
lenguaje especializado.)

2.6.3. Argumentos probabilísticos

Podemos caracterizar así a los argumentos no deductivos o probabilísticos:


Definición 12: Argumento Probabilístico

Los argumentos probabilísticos son los que contienen a una relación infe-
rencial que puede clasificarse como fiable o no fiable, pero que no tiene
sentido caracterizarla como válida o inválida.

¿Por qué no tiene sentido caracterizar a la relación inferencial en un argumento pro-


babilístico como válida o inválida? La respuesta es sencilla: ¡Porque ninguna es válida! Es
como si hiciéramos una «clasificación» de los seres humanos así:
• Por un lado, los seres humanos que son piedras,
• Por el otro lado, los seres humanos que no son piedras.
Esta «clasificación» es inútil: ¡Ningún ser humano es una piedra! En general, al cla-
sificar un conjunto de cosas, buscamos distinguirlas: separarlas por una característica

54
que tengan en común con otras, pero no con todas. La clasificación de los humanos
por quiénes son y quiénes no son piedras, no sirve para ello. Lo mismo sucede con la
clasificación de los argumentos probabilísticos por cuáles son y cuáles no son válidos.
Que los argumentos probabilísticos no sean válidos significa, de acuerdo a la defini-
ción 10, que existen casos lógicamente posibles en los que las premisas son verdaderas,
pero la conclusión no. Sin embargo, según la definición 12, estos pueden ser fiables o
no fiables. A su vez, podemos definir así al concepto de fiabilidad:
Definición 13: Fiabilidad
Un argumento es fiable siempre y cuando: las premisas elevan la proba-
bilidad de que la conclusión sea verdadera.

La noción de «elevar la probabilidad» viene, por supuesto, de la teoría matemática de


la probabilidad. La idea es que la verdad de la conclusión dando por sentado la verdad de
las premisas sea más probable que la verdad de la conclusión por sí misma (la conclusión
«solita»). Si esto sucede, el hecho de que las premisas sean verdaderas conlleva el que
sea más probable que la conclusión sea verdadera. En un capítulo posterior (el capítulo
16) hablaremos más sobre los argumentos probabilísticos y la noción de probabilidad.
Por el momento, veamos un par de ejemplos.

Para un ejemplo de argumento probabilístico fiable, primero consideremos esta hi-


pótesis:
Todos los automóviles tienen un árbol de levas.
¿Qué tan probable te parece que esta afirmación sea verdadera? Bueno, suponga-
mos que no sólo te doy esa afirmación, sino que además te doy las siguientes:
1. Todo automóvil contiene un motor,
2. Los motores de combustión interna son los más eficientes,
ejemplo 7

3. Todo motor de combustión interna contiene un árbol de levas.


Si consideras estas tres ideas, pensarás que es más probable que la anterior sea
verdadera. Es decir: el argumento cuyas premisas son 1, 2 y 3, y cuya conclusión es
la afirmación de que Todos los automóviles tienen un árbol de levas, es un argumento
fiable. Y es fácil ver por qué es fiable: porque, si sus premisas son verdaderas, eso
hace que su conclusión sea más probablemente verdadera.
Nota que estamos hablando solamente de la relación entre las premisas 1, 2, 3, y
la conclusión. Esta relación puede existir aún si las premisas no son verdaderas (de
hecho, las premisas 2 y 3 son falsas). La relación se mantiene aún en ese caso: su-
poniendo que las premisas sean verdaderas, la conclusión tiene mayor probabilidad
de serlo.

Hemos visto la definición de un argumento probabilístico: es aquel cuya inferencia

55
puede ser fiable o no fiable. Es decir: es un tipo de argumento en el que sus premisas
hacen más probable a su conclusión, si es que es un buen argumento; o en el que sus
premisas no hacen más probable a su conclusión, si es que es un mal argumento.
A su vez, los argumentos probabilísticos se suelen clasificar así:


 – Inductivos

Probabilísticos: – Analógicos

 – Abductivos (inferencia a la mejor explicación)

En el capítulo 16 hablaremos con algo más de detalle sobre los argumentos probabi-
lísticos.

Hice algunos videos donde también explico varios de los conceptos de este capítulo, te podría
interesar revisarlos:

• Concepto de argumento: youtube.com/watch?v=KUOLaXcoHUw

• La estructura de un argumento: youtube.com/watch?v=iEyYJjKGdvo

• Premisas implícitas y explícitas: youtube.com/watch?v=6NANYfRziUo

• Marcadores argumentales: youtube.com/watch?v=t1YlSJted4s

• Concepto de fiabilidad: www.youtube.com/watch?v=fjJzgf9_x6o

2.6.4. ¿Argumentos conductivos? *

Algunos autores proponen la existencia de un tipo de argumento que no es ni deductivo,


ni abductivo, ni inductivo, y le llaman «argumento conductivo».25 Estos argumentos,
según sus proponentes, se usa en contextos deliberativos: es decir, en contextos en los
que hay que tomar una decisión. Por ello, se piensa que los argumentos conductivos
están esencialmente dirigidos a la práctica y la acción.
Hay dos características que, según los autores que los proponen, definen a los ar-
gumentos conductivos. La primera es que, en un argumento conductivo, las premisas
apoyan la conclusión de manera independiente o convergente: pueden no estar relacio-
nadas entre sí, y cada una apoya a la conclusión sin necesidad de las otras. La segunda
es que los argumentos conductivos pueden incluir lo que Wellman llamó «premisas
negativas»: razones que apoyan la falsedad de la conclusión.26
Así, podríamos pensar a un argumento conductivo como una lista de «pros» y de
«contras» respecto a una idea, que es la conclusión. La evaluación de un argumento
conductivo sería en términos de qué tanto pesan las razones a favor y en contra.

56
Algunos autores niegan la existencia de argumentos conductivos como una categoría
separada de argumento. Por ejemplo, de acuerdo con Possin (2016; cf. Adler 2013), lo
que se ha tomado como argumento conductivo suele ser, o bien meramente un argu-
mento inductivo, o bien, constituyente de un artículo argumentativo.
De cualquier forma, como hemos dicho, la evaluación de un argumento conductivo
es mediante la evaluación de la «fuerza final», digámoslo así, de las premisas a favor
—donde esta fuerza final considera la fuerza de las premisas a favor y les «resta» la
fuerza de las premisas en contra. Pero para evaluar esta fuerza vamos a necesitar de las
técnicas de evaluación de apoyo evidencial o lógico que una premisa le brinda a una
conclusión, por lo que en este libro no nos enfocaremos en este tipo de argumentos.

Resumen del capítulo


⋆ Una proposición es el contenido informacional, el significado de una oración
declarativa.
⋆ Un argumento está compuesto de premisas, inferencia y conclusión.
⋆ Mientras que la verdad es una característica que pueden poseer las propo-
siciones, la validez es una característica que pueden poseer los argumentos.
⋆ Existen ciertas palabras, los marcadores de argumento, que nos ayudan a dis-
tinguir un argumento en un contexto.
⋆ Los marcadores de premisas indican la presencia de la premisas de un argu-
mento.
⋆ Los marcadores de conclusión o de inferencia indican la presencia de la conclu-
sión de un argumento.
⋆ Los argumentos que parecen tener varias consecuencias se pueden ver co-
mo varios argumentos encadenados, donde la conclusión de un uno es la
premisa de otro.
⋆ Los argumentos se clasifican en dos tipos, dependiendo de tipo de inferencia
que contengan:
• Deductivos: aquellos que pretenden ser válidos.
• Probabilísticos: aquellos que pretenden ser fiables.
⋆ Los argumentos se usan para justificar la verdad de una proposición, al infe-
rirla de otras proposiciones; las explicaciones se usan para citar las causas
que generaron un hecho.

57
58
capítulo

3
Lógica: filosofía, mate-
mática, modelo y arte

Contenidos del capítulo

Los orígenes filosóficos y matemáticos de la lógica 60


La lógica como modelo 61
La lógica como arte: Argumentación en contexto 63
Los componentes de un sistema lógico 64
LC0 y las lógicas no-clásicas * 65

Objetivos de aprendizaje
1. Que te familiarices con los distintos aspectos de la lógica; incluyendo su
historia como rama de la filosofía y su emergencia como un área de las
matemáticas.
2. Que entiendas en qué sentido la lógica es un modelo de la argumentación.
3. Que consideres a la lógica también como un arte, una técnica que puede
practicarse.
4. Que te familiarices con los componentes de un sistema lógico, que es el tipo
de aparato matemático con el que vamos a comenzar a modelar argumentos.

59
3.1. Los orígenes filosóficos y matemáticos de la lógica

a lógica surgió, indiscutiblemente, como rama de la filosofía. Aristóteles es-

L cribió sus famosos tratados de lógica, entre ellos los Primeros Analíticos, para
sistematizar a a la ciencia de la deducción. Este fenómeno había sido estudiado
antes en la lógica hindú; por ejemplo, en la escuela Jaina o en los Nyāayasutras.27 Como
otro ejemplo, es fácil concebir al Eutidemo de Platón como una divertidísima exposición
de las falacias más elementales. Probablemente, el desarrollo de la lógica en el seno
de la filosofía llegó a su cúspide cuando (en su Crítica de la Razón Pura), Kant llegó a
pensar que era una ciencia finalizada.28
Pero también es ampliamente aceptado que la lógica contemporánea, al menos en su
aspecto más puro, es una rama de las matemáticas.29
La lógica matemática es uno de los más grandes resultados de la interacción entre la
matemática y la filosofía desde la segunda mitad del siglo XIX hasta la primera del XX.
Grandes genios filosófico-matemáticos contribuyeron a esto, aplicando herramientas
de diversas ramas de las matemáticas descubiertas (¡o inventadas!) en su tiempo: el
resultado de las ideas de, entre otros, Boole, De Morgan, Peirce y Frege de utilizar
herramientas del álgebra (el estudio de las operaciones para combinar elementos de un
conjunto), el análisis (la teoría de las funciones), la combinatoria y, posteriormente, la
teoría de conjuntos, para entender el concepto de la inferencia válida.30
Los proyectos filosóficos y matemáticos de estas diferentes personalidades eran muy
variados, pero durante este período revolucionario, un tema en común daba el hilo con-
ductor: los fundamentos de las matemáticas. Se pensaba que la lógica podía fundamentar
a la matemática, en el sentido de que las suposiciones básicas de ésta eran demostrables
a partir de principios puramente lógicos. En las últimas décadas del siglo XIX, grandes
matemáticos como Peano o Dedekind ya habían logrado avances definiendo distintos
sistemas numéricos y haciendo completamente explícitos los principios fundamentado-
res de la aritmética y la teoría de los números, mientras que Hilbert había establecido
los fundamentos de la geometría y Cantor había demostrado, mediante su teoría de los
conjuntos, que existen distintos tamaños de infinito.
Desde entonces, la lógica matemática pasó a formar un área de las matemáticas puras,
y fue desarrollada por personalidades como Russell, Zermelo, Gödel, Church, Skolem,
o Tarski. La historia de ese proyecto y de la «crisis de los fundamentos» es larga e
interesante, pero no puedo darla aquí.31
Hoy en día, la lógica matemática tiene aplicaciones muy variadas, pero sobre todo
(hablando fuera de la filosofía y las matemáticas mismas) en temas relacionados con la
computación: desde el inicio, con Turing, hasta llegar a la ingeniería contemporánea,
donde ciertas lógicas no clásicas se aplican en sistemas de diagnóstico del Alzheimer.32

60
3.2. La lógica como modelo

Sin embargo, la lógica que estudiamos en los cursos de lógica para la argumentación no
es solamente matemáticas puras. Incluye algo de matemáticas puras, por supuesto. Pero
es, sobre todo, matemáticas aplicadas.
La característica esencial de las matemáticas aplicadas es que son matemáticas que
se usan para diseñar un modelo de la realidad física, material. Un modelo es una
representación científica de un fenómeno, que abstrae o idealiza o de otra forma ignora
algunos de sus aspectos para enfocarse en otros. Un modelo es una representación de los
fenómenos o sistemas modelados, y es un objeto que se puede manipular para que nos
provea información acerca de ellos (cf. la figura 3.1).

Modelo

representación información

Realidad material Realidad material

Figura 3.1: Esquema muy simplificado del uso de modelos.

Las maquetas del sistema solar hechas con bolas de unicel, que representan a los
ejemplo 8

planetas en sus órbitas alrededor del Sol, son un ejemplo muy bien conocido de un
modelo. Este representa al sistema solar y sus partes, aunque ignorando algunos
detalles irrelevantes para nuestro propósito –como la composición química de los
planetas– o escalando varias propiedades –como sus distancias y tamaños.

La importancia de los modelos, en general, es que nos permiten resolver problemas


acerca del sistema representado, manipulando el modelo. El caso que nos interesa aquí
es el caso de los modelos matemáticos, pues la lógica formal es un modelo matemático de la
argumentación. Tomaremos el punto de vista, digamoslo así, de la ingeniería: aplicando
técnicas matemáticas para entender y manipular un fenómeno, y para construir más
casos de ese fenómeno.
Estamos familiarizados con los modelos matemáticos desde que iniciamos nuestra
educación más básica. Veamos un ejemplo.

61
Tenemos el problema de querer saber cuántas naranjas en total tienen Martita y
Luisito. Sabemos que Luisito tiene 5 naranjas y que Martita tiene 10. Entonces, la
ecuación:
5 + 10 = x (3.1)
es un modelo de nuestro problema. La solución, por supuesto, es obvia: x = 15, que
es el número de naranjas que tienen conjuntamente.
ejemplo 9

Pero lo elemental de este modelo no debe hacernos perder de vista que es eso: un
modelo. Al haber representado el número de naranjas que tiene Luisito como una
cantidad matemática –el número 5, que en y por sí mismo no tiene nada que ver
con naranjas, o con ninguna fruta ni objeto material alguno– y haber hecho lo mismo
con el número de naranjas de Martita, damos un paso enorme: tenemos a nuestra
disposición todas las técnicas de las matemáticas puras. Cuando sumamos 5 más
10, no estamos haciendo ninguna operación particular con las naranjas: estamos
sumando números. Como nuestro conocimiento de la suma nos permite llegar inme-
diatamente al resultado, el haber pasado mediante el modelo (la ecuación 3.1) nos
permite conocer algo sobre la realidad al manipular números en abstracto.

Un buen modelo nos representa no solamente un solo caso, sino un conjunto de ellos:
un modelo es siempre una representación de un tipo de fenómenos, cuando nos interesa obtener
información acerca de un aspecto de ellos. Por ejemplo, el modelo que usamos arriba, la
ecuación 3.1, en realidad es un caso muy particular de un modelo mucho más general,
que podríamos definir así:
T = L + M, (3.2)
donde T representa el número total de las naranjas que tienen ambas personas, L las
naranjas que tiene Luisito en alguna circunstancia, y M el número de naranjas que
tiene Martita en esa misma circunstancia. Visto así, 3.2 es un modelo que nos permite
la obtener información adecuada en todo caso posible en que queramos saber cuántas
naranjas tienen en total Martita y Luisito: si Martita gana una naranja o Luisito pierde
tres, el modelo 3.2 sigue siendo adecuado.
Por supuesto, el ejemplo de las naranjas es extremadamente elemental; pero sirve
bien para resaltar algunas características de los modelos que es importante notar en el
modelo que la lógica hace de la argumentación.
Como sucede con todo modelo, al utilizar a la lógica para representar al fenómeno
de la argumentación, ignoramos algunas características de éste para enfocarnos en
otras. ¿Es esto necesariamente malo? No. Un modelo que fuera igual de complejo que el
fenómeno que intenta representar ya no sería un modelo — ¡sería el mismo fenómeno!33
Así, como con los planetas de unicel, el modelo de la lógica formal no va a recupe-
rar todo en el fenómeno de la argumentación. ¿Recuperará lo suficiente? Bueno, qué

62
cuenta como «suficiente» depende de nuestros fines. El modelo de los planetas de unicel
representa «lo suficiente» si nuestro interés es conocer cómo están anidadas las órbitas
de los planetas de nuestro sistema solar. Pero, ciertamente, no representa «lo suficiente»
si lo que queremos es representar las proporciones de tamaños entre los planetas y el
Sol, por ejemplo.
Entonces, ¿qué es lo «suficiente» que representa el modelo de la lógica formal?
La respuesta usual es: la validez de una cierta clase de argumentos. Pero deja de
lado, como hemos visto anteriormente, otros aspectos: a saber, todo aquéllo que cae
fuera del uso informativo del lenguaje, en su aspecto argumentativo; específicamente,
todo aquéllo del lenguaje que no sea proposicional. (En particular, LC0 deja fuera todo
aquéllo que no sea veritativo-funcional.)
¿Es esto malo? Bueno, no hay tal cosa como «lo malo» en un sentido absoluto, sino
sólo en un sentido relativo a nuestros fines: si nuestro fin es hacer un análisis preciso y
exacto del discurso en su aspecto argumentativo-deductivo, la lógica formal es una ex-
celente herramienta para modelar ese aspecto. Si nuestro fin es distinto, probablemente
sea mejor buscar en otro lugar. Pero en un curso de lógica para filosofía buscamos
enfocarnos precisamente en el aspecto argumentativo-deductivo del lenguaje —para
analizarlo, para entenderlo, y para aplicarlo— y es por ello que es tremendamente útil
entender y manejar bien el sistema de la lógica formal.

3.3. La lógica como arte: Argumentación en contexto

Un científico puede saber mucho sobre la naturaleza de la luz y la perspectiva, pero


estar negado para el arte del dibujo. En cambio, un buen pintor conocerá (al menos de
manera general) algunos detalles sobre la luz, pero también será muy hábil al conectar
ese conocimiento teórico con su práctica, de manera que pueda representar una escena
profunda, tridimensional, en un lienzo. El científico tiene el conocimiento teórico de la
óptica y la geometría proyectiva, mientras que el pintor ha logrado entender lo esencial
de este conocimiento para usarlo en una práctica, que también tiene que entrenarse.
Tener un arte, entonces, va más allá de conocer los conceptos y afirmaciones de una
teoría, va más allá de entender esa teoría y esos conceptos en un contexto más amplio:
también requiere usar ese conocimiento para forjar y entrenar una práctica.
Además de una ciencia, la lógica también es la familia de técnicas que nos permi-
ten aplicar las reglas abstractas del razonamiento correcto a los razonamientos que
encontramos y producimos todos los días. Usando estas técnicas —que aprenderemos
y entrenaremos en este libro— podremos identificar en dónde hay un argumento, cómo
evaluarlo, cómo criticarlo, y cómo producir nuevos argumentos.
Ya hemos revisado, y practicado mediante ejercicios, algunas de estas habilidades

63
lógicas, esenciales para que el modelo de la lógica sea útil para entender a la argumen-
tación:
• Poder identificar en dónde hay un argumento y en dónde nos estamos enfrentando
con un discurso no argumentativo (secciones 1.3, 1.4).
• Poder complementar a un argumento, distinguiendo las premisas implícitas que
supone (secciones 2.3.1 y 2.5).
• Poder separar o diferenciar lo que pertenece a un argumento y lo que forma parte
del contexto discursivo pero que no es parte del argumento (secc. 2.5).
• Poder interpretar un fragmento de discurso bajo el principio de caridad (secciones
1.2.2 y 2.5).
Estas las vamos a volver a usar en los siguientes capítulos. Otras habilidades forman
parte de los contenidos de los siguientes capítulos, o las volveremos a revisar en distintos
contextos:
• Poder parafrasear el argumento en un discurso, hablado o escrito, de manera que
su estructura lógica sea clara.
• Poder transformar un problema concreto a uno en el que las técnicas lógicas sean
aplicables directamente.
• Poder dominar las diferentes técnicas de modelado que estudiaremos en este li-
bro: la formalización de argumentos en el lenguaje natural, la operación con las
reglas matemáticas de los sistemas lógicos, y la interpretación de argumentos en
el lenguaje formal.
• Poder aplicar razonamientos correctos para ámbitos como la toma de decisiones
y la exposición de ideas.
Como he dicho, este libro básicamente está hecho para ayudarte a adquirir y entrenar
estas capacidades.34
Además de las mencionadas, también debemos ejercitar las capacidades universales,
y los principios básicos, del diálogo racional que he mencionado antes: la habilidad
prudencial sobre cuándo es apropiado aplicar el análisis lógico (secc. 1.2.1), el principio
de caridad (secc. 1.2.2), y las máximas comunicativas de Grice (secc. 1.2.3).

3.4. Los componentes de un sistema lógico

Hemos dicho que usaremos a la lógica matemática como un modelo de las inferencias
deductivas del lenguaje natural (así como Newton utilizaba al cálculo y la geometría
como un modelo de las fuerzas mecánicas). A este modelo –la lógica matemática inter-
pretada como lógica del lenguaje natural– le llamaré «lógica formal».

64
La lógica formal siempre utiliza un particular sistema lógico estudiado en la lógica
matemática. Ahora definiremos esta noción.
Definición 14: Sistema Lógico

Un sistema lógico consiste de los siguientes elementos:


• Lenguaje
• Teoría de modelos (semántica formal)
• Teoría de la demostración (aparato deductivo)

A su vez, cada uno de estos componentes suele tener distintos componentes. En


distintos capítulos de este libro estudiaremos los componentes de dos sistemas lógicos:
LC0 y LC1=. Nuestro objetivo principal es utilizar estos sistemas como modelos de la
argumentación en el lenguaje natural; pero, cuando sea pertinente, no dejaré de notar
las características que hacen que estos modelos posean una simplicidad y sistematicidad
que los convierte en estructuras elegantes, dignas de estudiarse desde un punto de vista
puramente matemático.
Otra manera usual de caracterizar a un sistema lógico es como el conjunto de verdades
lógicas que determina, o como su relación de consecuencia lógica, o como el conjunto de
sus axiomas y su relación de consecuencia. De varias de estas nociones hablaremos más
adelante en este libro.35 Además, un mismo sistema lógico (individuado de alguna de las
maneras anteriores) puede tener más de un aparato deductivo, y más de una semántica
formal.36 De esto también hablaremos más adelante.

3.5. LC0 y las lógicas no-clásicas *

Existen muchísimos sistemas lógicos; pero el que es usual revisar en un primer curso
introductorio de lógica matemática (o «simbólica» o «formal») se conoce como «lógica
clásica de orden cero» (o «proposicional» o «de oraciones»; también se conoce como
«cálculo proposicional» o «de oraciones»). Le llamaremos, de manera abreviada, «LC0»,
usando letras sin serifas para distinguirlo.
Como dije, existen muchísimos sistemas lógicos además de LC0. Una clasificación
usual (influida por, pero no idéntica a, la clasificación de Susan Haack37 ) es la siguiente:


 – Extensiones

Sistemas lógicos distintos a LC0 – Subsistemas

 – Rivales

Para explicar estas diferencias voy a recurrir a conceptos —como verdad lógica o len-
guaje de un sistema lógico— que todavía no hemos definido; por lo que probablemente
sea más útil regresar a esta sección después de haberlos entendido. Entonces, tendría-

65
mos:
Un sistema lógico L1 es una extensión de otro, L2 o, de manera equivalente, L2 es
un subsistema de L1 , cuando la extensión (i) incluye las mismas fórmulas que
el subsistema, (ii) el mismo conjunto de verdades lógicas del subsistema, pero
también (iii) lenguaje adicional (que no está en el subsistema) y (iv) verdades
lógicas adicionales (por ejemplo, la lógica de primer orden que veremos es una
extensión de la lógica de orden cero.) Dos sistemas lógicos distintos pueden ser
extensiones del mismo sistema (por ejemplo, la lógica clásica de primer orden y
la lógica clásica modal de orden cero son ambas extensiones de LC0).
Un sistema lógico es rival de otro cuando no es ni una extensión de ni un subsistema
del otro. (Por ejemplo, las lógicas conexivas son sistemas rivales de LC0, en este
sentido.)
Esta clasificación es bastante cruda. Por ejemplo, la lógica intuicionista (que no revi-
saremos aquí) es un subsistema de LC0, pero fue diseñada bajo un proyecto filosófico y
matemático radicalmente opuesto a las motivaciones de la lógica clásica.
Las motivaciones para crear sistemas distintos de lógica pueden ser muy distintas.
Cuando se trata de extensiones de la lógica clásica, regularmente la motivación suele
ser la idea de que la lógica clásica no es suficientemente expresiva: que no puede expresar
conceptos y distinciones que expresamos en el lenguaje natural, y de los que nos gus-
taría estudiar su comportamiento inferencial. Algunos subsistemas se diseñan bajo la
idea de que la lógica clásica «demuestra demasiado», en el sentido en que debería (por
diferentes razones) tener menos verdades lógicas (como he mencionado sobre la lógica
intuicionista, también se ha argumentado esto para las lógicas sub-estructurales). Final-
mente, los sistemas rivales suelen ser diseñados ya sea para razonar sobre fenómenos
que, se argumenta, no pueden entenderse de forma clásica (como la lógica cuántica),
o simplemente se entienden de manera más sencilla con otro tipo de formalismo.
Esta clasificación, como he dicho, es bastante cruda. Además, solamente he hablado
de sistemas lógicos para la deducción, pero también han proliferado sistemas para
inferencias falibles, abductivas, o inductivas. Será mejor dirigirte a algunos libros de
lógicas no clásicas y de filosofía de la lógica para más detalles.38

66
Resumen del capítulo
⋆ La lógica tiene tres aspectos:
• Filosófico: es el resultado de diversos proyectos filosóficos, entre los que
se incluye la sistematización del razonamiento deductivo y la funda-
mentación de las matemáticas.
• Matemático: es una teoría matemática abstracta que se aplica para mo-
delar un fenómeno concreto: la argumentación.
• Técnico: es una habilidad, una técnica o arte, que puede aplicarse en
diferentes contextos, y que requiere de ciertos principios prudenciales
para que sepamos cómo y cuándo aplicarla.
⋆ Un sistema lógico tiene varios componentes:
• Lenguaje,
• Teoría de modelos,
• Teoría de la demostración.
⋆ Además de los sistemas lógicos que revisaremos en este libro, existen siste-
mas de lógica no clásica. Estos se suelen dividir en:
• Extensiones,
• Subsistemas,
• Rivales.

Notas

1. También es fundamental en la filosofía del lenguaje y de la mente. Sin embargo, precisamente debido a
ello, existen muchas controversias a su alrededor, que aquí vamos a tener que pasar de largo.

2. Como he mencionado en una nota anterior, se ha propuesto que las oraciones exclamativas expresan
proposiciones; otros autores defienden que solamente las presuponen. Ver la nota de la página 13.

3. Machery (2009: p. 12) argumenta que la siguiente es una descripción de «lo que la mayoría de los
psicólogos consideran que son los conceptos»:

Un concepto de x es un cuerpo de conocimiento sobre x que se almacena en la memoria


a largo plazo y que se usa por defecto en los procesos que subyacen a la mayoría, si no
a todas, las competencias cognitivas superiores cuando estos procesos dan lugar a juicios
sobre x.

Algunos libros de texto de lógica todavía identifican a un concepto con la representación de las carac-

67
terísticas esenciales de aquello que representa el concepto. Esto es todavía más desafortunado. Aunque
hoy en día algunos filósofos aceptan la existencia de esencias (e.g., Fine 1994), y otros han argumentado
que el conocimiento de esencias se requiere para todo conocimeinto (Lowe 2012), (i) es debatible que
existan las propiedades esenciales; (ii) aún si estas existen, es debatible que las conozcamos, (iii) aún
si conocemos algunas, es muy debatible que las debamos conocer para tener conceptos de cualesquiera
objetos: la psicología contemporánea parece ir en contra de esta idea. Sobre este último punto, ver Carey
2009; Leslie 2013.

4. Ver Frege 2016: 225-248; Hampton 1999: p. 176; Valdivia 1989.

5. Ver Buroker 2017, §3.2.

6. Basta notar que se le pueden agregar condiciones triviales (es decir, que son satisfechas por todo objeto)
a la comprehensión de un concepto, de manera que su extensión permanezca la misma. Por ejemplo:
la extensión del concepto «aquella cosa que o bien es un mamífero implume o bien no es un mamífero y un
no-mamífero bajo el mismo aspecto y circunstancia» es exactamente la misma que la del concepto: «aquella
cosa que es un mamífero implume».

7. Ver Fodor 1998, donde se argumenta que un enorme número de conceptos son atómicos.

8. Fuente: «Molly Amazonas: el pez asexuado que vive en México y Estados Unidos y pone en entredicho
a un Nobel de Medicina», BBC Mundo: https://www.bbc.com/mundo/noticias-43056728

9. Fuente: Leibniz, Monadología, §2.

10. Traducido de: «How can keeping limber and fit help with knee pain?», WebMD: https://www.webmd.
com/pain-management/knee-pain/qa/how-can-keeping-limber-and-fit-help-with-knee-pain

11. Fuente: José Ramón López Rubí, «Un argumento lógico sobre el aborto», Derecho en Acción: http://
derechoenaccion.cide.edu/un-argumento-logico-sobre-el-aborto/

12. Adaptado de Armando Alcántara, «La autonomía en las universidades públicas: Vicisitudes de un con-
cepto y una práctica institucional». En H. Muñoz (coord.): La Universidad pública en México (pp. 113-145).
UNAM; Porrúa.

13. Traducido y adaptado de Robert Spekkens, «The Paradigm of Kinematics and Dynamics Must Yield
to Causal Structure», en Aguirre, Foster & Merali (eds.): Questioning the Foundations of Physics. Springer,
2015.

14. En esto hay que tener cuidado, pues ese mismo término se utiliza como un nombre para una paradoja:
un razonamiento aparentemente correcto, que parte de premisas aparentemente obvias, pero que lleva a
una contradicción o, al menos, a una conclusión aparentemente falsa. Esta paradoja forma la motivación
central para el problema filosófico de la vaguedad, pero en este libro no vamos a revisarla. Para una
revisión de las distintas teorías de la vaguedad, ver Paula Tejeiro, «Supervaluar o Revisar», Manuscrito,
2016, 39(3), pp. 149-169.

15. «Por qué se ha disparado el precio del aguacate y hasta cuándo seguirá subiendo», BBC Mundo: https:
//www.bbc.com/mundo/noticias-49209380

68
16. Por ejemplo, según la teoría nomológico-deductiva de Hempel, toda explicación científica es un argumento,
que parte de leyes generales y condiciones particulares y tiene como conclusión el hecho a explicar. La
teoría de Hempel fue muy discutida en el siglo XX y hoy no es muy popular en la filosofía de la ciencia.
Pero no es la única teoría de la explicación que recurre a la noción de argumento. Por ejemplo, la teoría
unificacionista de Kitcher afirma que explicar un fenómeno consiste en demostrar que puede la ocurrencia
de ese fenómeno se puede derivar de la misma teoría que la ocurrencia de muchos otros fenómenos.
Estrictamente hablando, no es a partir de cualquier derivación que se explica un fenómeno, se requiere
que esa derivación (o «patrón de argumento», como le llama Kitcher) sea «exigente» o «rigurosa»: difícil
de satisfacer.

17. «Hay más genes en el microbioma humano que estrellas observables», La Jornada, 14 de agosto de 2019.

18. Hawking, Stephen & Leonard Mlodinow: El gran diseño. Crítica.

19. Adaptado de Dürr, Goldstein y Zanghi: «Quantum chaos, classical randomness and Bohmian mechanics»,
p. 263.

20. Garrett, Brian: ¿Qué es eso llamado metafísica?, p. 25.

21. Tomado de Benkler, Faris, y Roberts: Network propaganda: Manipulation, disinformation and radicalization
in American politics, pp. 251-352; mi traducción.

22. Hawking, Stephen & Leonard Mlodinow: El gran diseño. Crítica.

23. Adaptado de Norbert Elias, El proceso de la civilización, p. 449. Fondo de Cultura Económica.

24. Para un estudio lógico y filosófico de estas dos nociones de forma y necesidad, ver Gómez Torrente 2000.

25. El origen de este concepto es el libro de Wellman de 1971, Challenge and Response: Justification in Ethics.
Wellman se interesaba por las maneras en que podemos justificar nuestras posturas éticas.

26. Hay que notar que la noción de «convergencia» no es exclusiva —a pesar de algunas afirmaciones
confundidas— de un argumento conductivo. En un argumento deductivo también se pueden brindar
premisas distintas e independientes para la misma conclusión.

27. Sobre la lógica en la India, ver Woods, John & Gabbay, Dov (2004), y la edición especial del Journal of
Philosophical Logic, Vol. 40, No. 5, 2011.

28. Ver Crítica de la Razón Pura, Bviii. Para una historia de la lógica, ver Martha y William Kneale, 1980.

29. Para una voz de disenso, ver Barceló 2003. Como otro contrapunto a esta afirmación, existen las teorías
logicistas de la matemática, de acuerdo a las cuales, de hecho la matemática es la que se reduce a la
lógica. Estas ideas, cuya semilla se encuentra en Dedekind, se comenzaron a desarrollar por Frege (en
sus Fundamentos de la Aritmética, ver la traducción en 1972) a finales del siglo XIX, y llevaron a la magni-
ficente obra de Russell y Whitehead, Principia Mathematica, cuyos tres volúmenes fueron sucesivamente
publicados en 1910, 1912 y 1913. El logicismo ha sido defendido por varios autores recientemente. Ver
Tennant 2017.

30. Ver George Boole, The Laws of Thought o Las Leyes del Pensamiento.

69
31. Ver, por ejemplo, «Las matemáticas y los metafísicos», de Russell (Misticismo y Lógica); Ferreirós (2001);
«El problema de la consistencia», en El teorema de Gödel, de Nagel y Newman; Hilbert, Fundamentos de las
Matemáticas.

32. Para una historia de cómo la lógica desde Boole es la semilla de la revolución tecnológica e informacional,
ver The Logician and the Engineer: How George Boole and Claude Shannon Created the Information Age, de Paul
Nahin (Princeton University Press, 2012); para la aplicación de la lógica no clásica en el diagnóstico
del Alzheimer, ver, por ejemplo: Lopes et al. ‘Improved Application of Paraconsistent Artificial Neural
Networks in Diagnosis of Alzheimer’s Disease’ Neuroscience International, Vol. 2, 2011.

33. En su webcomic «Saturday Morning Breakfast Cereal», Zach Weinersmith hace una excelente broma ba-
sada en este hecho.

34. Las habilidades de las que he hablado coinciden en buena parte con la lista que, según Herrera, Madrid,
Morado y Rivera, son lo que debe saber de lógica una persona educada. Ver «¿Qué debe saber de lógica
una persona educada?», en: http://www.filosoficas.unam.mx/~Tdl/taller.htm

35. Si quieres adelantarte, las definiciones de verdad lógica para cada uno de los sistemas lógicos son las
definiciones 36 y: 168. Para la noción de consecuencia lógica, puedes ver las definiciones 40 y ??. Sobre
la noción de axioma, ve la caja de la página 42 y la sección 8.1.1.

36. Sobre las distintas semánticas formales, ve las sección 6.4 y el capítulo 15. Sobre los distintos aparatos
deductivos, ve la sección 8.1.

37. Ver Susan Haack, Filosofía de la Lógica.

38. Un reciente libro de filosofía de la lógica es Cohnitz & Estrada González 2019. Un libro muy bueno para
introducirte a muchas lógicas no clásicas es Priest 2008. Una introducción mucho más amplia al enorme
universo de las lógicas son los múltiples volúmenes —dieciocho, a la fecha— del Handbook of Philosophical
Logic, editados en Springer por Dov Gabbay y Franz Guenthner.

70
IIa parte:

Lógica Clásica de Orden Cero

71
capítulo

El lenguaje de LC0

Contenidos del capítulo

Alfabeto de LC0 74
Sistemas de notación 91
Las fórmulas de LC0 93
Notación polaca 100
¿Cómo saber que algo es una fórmula? 101

Objetivos de aprendizaje
1. Que te familiarices con los diferentes tipos de símbolos de LC0.
2. Que puedas distinguir qué es una constante lógica y qué es una variable
proposicional.
3. Que comprendas qué simboliza cada una de las constantes lógicas de LC0.
4. Que puedas reconocer las fórmulas de LC0.
5. Que conozcas las distintas clasificaciones de las fórmulas de LC0.
6. Que puedas distinguir la conectiva principal de una fórmula.

73
n la definición de sistema lógico (definición 14), vimos que un sistema lógico

E
tes:
tiene, entre sus componentes, a un lenguaje. De hecho, el lenguaje del sistema
lógico que estudiaremos en esta parte —LC0— tiene, a su vez, otros componen-
(
Alfabeto
Lenguaje =
Reglas de formación
Vamos a definir estos ahora.

4.1. Alfabeto de LC0

Así como el lenguaje Español tiene un alfabeto —compuesto de todas las letras, mayús-
culas y minúsculas, así como todos los signos ortográficos y de puntuación— así LC0
tiene el suyo.
El alfabeto de LC0 es el conjunto de símbolos que componen al lenguaje. Con estos
símbolos construiremos las «palabras» de la lógica—a las que les llamaremos «fórmulas».
(Así como, mediante las reglas de la sintaxis y la gramática, construimos palabras, frases
y oraciones del Español usando su alfabeto.) Lo definimos como sigue.
Definición 15: Alfabeto de LC0
El alfabeto de LC0 se divide así:


 Variables proposicionales: p,q ,r,s ,t ,u,v ,w . . .
 (



 Unaria (monádica): ¬
Alfabeto Conectivas lógicas

 Binarias (diádicas): ∨, &, ⊃, ≡



 Signos de agrupación: (, ), [, ]

A «¬» le llamaremos «la negación»; a «∨» le llamaremos «la disyunción»,
a «&», le llamaremos «la conjunción», a « ⊃ » le llamaremos «el condicional
material», y a «≡» le llamaremos «el bicondicional material» o también «la
equivalencia material».

Vamos a ver las características de estos tres componentes del alfabeto.

4.1.1. Variables proposicionales

Las variables proposicionales son eso: variables que representan proposiciones. En reali-
dad, representan a las proposiciones cuando usamos a la lógica como modelo de ar-
gumentos en el lenguaje natural. En el nivel del aparato matemático, estas variables
simplemente pueden tomar uno de dos posibles valores: verdadero (que denotaremos
«V») o falso («F») —así como las variables del álgebra que viste en bachillerato pueden

74
tomar un número como valor. (Esto lo veremos con más detalle en un capítulo posterior,
cuando revisemos la semántica formal de LC0.)
Comenzaremos revisando el concepto de variable.
Definición 16: Variable
Una variable es un símbolo (de algún lenguaje especificado) que denota,
bajo distintas interpretaciones, a distintos objetos de un conjunto especí-
fico. Este conjunto se conoce como el dominio de la variable.

Por ahora, por «interpretación» entiende solo esto: una interpretación es simplemente
una manera (una regla) de asignarle valores a las variables.
Entonces, cada variable proposicional tendrá (bajo una interpretación) uno de los
dos posibles valores: V o F. Esto es a nivel matemático. Pero como estamos usando el
aparato matemático de la lógica para modelar argumentos del lenguaje natural, usare-
mos a las variables proposicionales como modelos de las proposiciones. Esto justifica
la siguiente definición:
Definición 17: Variable proposicional

Una variable proposicional es un símbolo que denota, bajo una interpreta-


ción, ya sea al valor V o al valor F. Como modelo, se usa para representar
proposiciones.

Podríamos resumirlo así: Una variable proposicional representa a una proposición cual-
quiera, al tener asignado un valor de verdad. Es decir: así como usamos las variables del
álgebra del bachillerato para representar muchas distintas cosas —por ejemplo, en un
ejercicio, «x» puede representar la masa de un cuerpo; en otro ejercicio, puede repre-
sentar la altura de un edificio—, así también usamos las variables proposicionales para
representar proposiciones. En un modelo particular —es decir, al formalizar una propo-
sición particular—, una variable proposicional representará una proposición específica.
Hablaremos más de esto en la sección 5.3.
Ahora vamos a comenzar a entender las conectivas lógicas de LC0, y cómo modelan
aspectos del lenguaje natural.

4.1.2. Concepto de constante o conectiva lógica

Como vimos antes, usamos a las variables proposicionales para representar proposi-
ciones: una variable proposicional representa una proposición cualquiera. Esto es en el
nivel de para qué usamos esas variables. Matemáticamente, una variable proposicional
solamente puede tomar uno de dos posibles valores: V o F.
Las variables proposicionales, entonces, representan la materia de los argumentos, su

75
contenido. Pero con las constantes proposicionales representamos su forma, su estructura.
Primero definamos la noción de constante.
Definición 18: Constante
Una constante es un símbolo (de algún lenguaje especificado) que denota
a un único objeto particular de un conjunto específico.

Antes de ver más sobre las constantes particulares de LC0, veamos ejemplos de las
nociones mismas de constante y de variable.

En el álgebra que aprendes en bachillerato ya están las nociones de constante y


de variable. Por ejemplo, en esos cursos es usual utilizar las siguientes letras como
variables para cualesquiera números reales:
x y z
Estas variables, como su nombre lo dice, no se refieren a un número específico.
Se refieren a cualquier número. Por eso es que podemos usarlas para decir cosas
como:
«Sea x =5.98. . . »
que quieren decir cosas como:
«Si x toma el valor 5.98. . . »
También las usamos para decir afirmaciones generales, como:
«x + y = y + x »
que nos dice que: el resultado, para todo número, de sumarlo con otro, es el mismo
ejemplo 10

resultado que si primero sumamos el segundo y luego el primero.


Así, la generalidad que tienen las variables en el álgebra nos permite usarlas para
hablar de cualquier número, y para poder decir qué pasa cuando toman un valor
particular.

La noción de constante también está presente en el álgebra. Todos los numerales


(«0», «1000», etc.) son símbolos constantes. Pero también tenemos símbolos espe-
ciales para algunos números importantes. Por ejemplo, aquí hay algunas constantes
matemáticas famosas y lo que significan:
Constante A qué se refiere Cómo se define
perímetro
𝜋 3.14159. . . 𝜋 = diámetro
e 2.718281. . . l n (e ) = 1.
i La unidad imaginaria i 2 = −1.
Como ves, las constantes se refieren a números específicos, con una definición par-
ticular; no se refieren a cualquier número. Esto es la diferencia esencial con las
variables.

Sin embargo, las nociones de variable y de constante son mucho más generales. Una
constante o una variable pueden tener valores numéricos, como los casos de este

76
ejemplo, tomados del álgebra de bachillerato; pero también pueden tomar valores
de cualquier otro tipo. En el caso que nos interesa, las variables proposicionales
tomarán solamente dos valores: V —el valor de verdad verdadero— y F —el valor
de verdad falso. No usaremos símbolos constantes para proposiciones.

En lógica, le llamamos «constantes lógicas» a aquellos elementos que no cambian su


valor. No usaremos símbolos constantes para proposiciones, pues no tenemos una
«proposición especial» para la que fijemos un símbolo especial. En cambio, en lógica,
los símbolos constantes son para operaciones lógicas entre proposiciones.
Estas operaciones lógicas modelan algunas partículas del lenguaje natural (el len-
guaje que hablamos, escribimos y pensamos de manera natural; que se contrasta con
los lenguajes artificiales, como el de la lógica, que diseñamos con ciertos propósitos).
Estas partículas del lenguaje natural son conectores que conectan diversas oraciones
declarativas entre sí. Y así como lo que nos importa de las oraciones declarativas es
la proposición que cada una expresa, lo que nos importa de las partículas del lenguaje
natural es la operación entre proposiciones que expresa.
Así como las operaciones del álgebra de los números —como la multiplicación, la
suma, la resta, la exponenciación, el logaritmo, etcétera— tienen una definición, así
también las operaciones lógicas. Los lógicos han considerado dos aspectos con los que
se podría definir a estas operaciones:
• Aspecto semántico, y
• aspecto demostrativo.
Vamos a revisar ambos aspectos en sendos capítulos (capítulo 6 y capítulo 8, respecti-
vamente).
Mientras tanto, hay otro aspecto que podemos analogar entre constantes aritméticas
y lógicas. En el álgebra del bachillerato, decimos que una fórmula como «x + 2» es «una
suma», y que una fórmula como «a × x» es «un producto» o «una multiplicación». ¿Qué
determina que les llamemos así? Es decir: ¿Qué hace que «x + 2» sea una suma (en lugar
de, digamos, una resta, o una división) y que «a × x» sea un producto en lugar de una
suma u otra operación? La respuesta es obvia: Lo que lo determina es qué operación
tiene la fórmula. Si tiene una suma, es una suma; si tiene un producto, es una multiplica-
ción —si tiene varias operaciones, como suma, resta, multiplicación y exponenciación,
es un polinomio, etc. Lo importante es esto: las operaciones que contenga la fórmula
determinan qué tipo de fórmula es, qué tipo de operación se le está aplicando a esos
números.
Lo mismo sucede con las constantes lógicas: ellas determinan qué tipo de proposi-
ción estamos considerando. Es decir: las constantes lógicas definen la forma lógica de
una proposición. Por ejemplo, diremos que una proposición «es una proposición condi-

77
cional» si su operación es un condicional material. (Mejor dicho, con un concepto que
revisaremos en la sección 4.3.4: si su conectiva principal es el condicional.)
Por ahora, este concepto de forma lógica puede parecer muy abstracto, o quizá hasta
vago. Es mejor revisarlo «en vivo», verlo en acción; así que es mejor que comencemos
a ver ejemplos de ello.
Mientras tanto, de todo lo dicho aquí, recuerda que las constantes lógicas son:
• Constantes: a diferencia de las variables, no cambian su valor: siempre significan
lo mismo;
• Lógicas: en varios sentidos:
1. Son operaciones entre proposiciones, que se definen de dos formas (semántica y
demostrativamente, que veremos en capítulos posteriores).
2. Ellas proveen la forma lógica de una proposición, como veremos en la sección
4.3.2 y siguientes.
3. Al determinar la estructura lógica de una proposición, y como un argumen-
to está compuesto de proposiciones (premisas y conclusión) conectadas me-
diante una inferencia, las conectivas lógicas también determinan la forma
lógica de los argumentos deductivos.
4. Por lo anterior, y debido a que un argumento es válido en virtud de su forma
lógica (recuerda la definición 10 y la sección 2.6.2), ellas determinan qué
inferencias son lógicamente válidas (profundizaremos en esto en capítulos
posteriores).
• Modelan ciertas partículas del lenguaje natural, que revisaremos en esta sección.
Además de lo que he dicho, la noción de forma lógica y de constante lógica han provo-
cado intensos y profundos debates en los fundamentos filosóficos de la lógica. Desafor-
tunadamente, no podemos revisarlos aquí con la profundidad que merecen. Pero dejo
algo de bibliografía recomendada en la siguiente nota.1

4.1.3. La negación

El símbolo de la negación, ¬, se utiliza para representar a la operación de negar ló-


gicamente a una proposición. El resultado de esta operación es la negación de esa
proposición.
La negación es una conectiva monádica, en un sentido que ahora vamos a definir.
Definición 19: Conectiva monádica
Una conectiva es monádica cuando se aplica a una sola proposición. A
las conectivas monádicas también se les conoce como unarias.

78
De hecho, la negación es la única conectiva monádica de la lógica que estamos apren-
diendo.

Negaciones en el lenguaje natural

En Español tenemos distintas palabras con las que podemos expresar la negación
lógica de una proposición. Veamos ejemplos.2

Todas las oraciones de la siguiente lista expresan la misma proposición: la nega-


ción lógica de la proposición expresada por «La justicia consiste en una distribución
equitativa de los recursos».
• La justicia no consiste en una distribución equitativa de los recursos.
• No es cierto que la justicia consista en una distribución equitativa de los re-
cursos.
• Es falso que la justicia consista en una distribución equitativa de los recursos.
• No es el caso que la justicia consista en una distribución equitativa de los
recursos.
• No sucede que la justicia consista en una distribución equitativa de los recur-
ejemplo 11

sos.
Algunas frases más largas, que podrían tener alguna carga retórica extra, también
son representables por la negación lógica:
• Sería mentir el afirmar que la justicia consiste en una distribución equitativa
de los recursos.
• La justicia será cualquier cosa, menos una distribución equitativa de los re-
cursos.
• Nadie sensato podría creer que la justicia consista en una distribución equi-
tativa de los recursos.
Quien use estas frases seguramente querrá decir algo más que la proposición ex-
presada, quizá algún giro retórico o implicatura que la persona que escuche podrá
detectar (en el contexto y si es suficientemente avezada). Pero la lógica no modela
todo en el lenguaje; sólo su aspecto proposicional. Es por eso que esos aspectos
quedan fuera del modelo.

Negaciones y adversativos

Un tipo de frases que se podrían confundir como expresiones de la negación lógica


son los adversativos, como «pero», «sin embargo», «mas», «si bien», «aunque» o «a
pesar de». Es natural pensar que estas expresan negaciones, pues expresan algún tipo
de contrariedad; pero la mayoría de ellas (1) no son negaciones, sino conjunciones, y
(2) no expresan negación lógica.

79
Las conjunciones adversativas En general, la negación lógica se suele confundir con
contraponen dos oraciones. Es- contrariedad. Las proposiciones incompatibles (como
ta contraposición puede ser Hoy es martes y Hoy es miércoles) son (al menos) con-
una restricción de la oración trarias. Pero la contrariedad no es suficiente para la
contrapuesta sobre la primera negación lógica de una proposición.
o una incompatibilidad total.

La negación lógica es exhaustiva y exclusiva

Hablando con exactitud, la negación lógica es


exhaustiva y excluyente. Explicaré estos conceptos en sendas definiciones.
Definición 20: Exhaustividad
Dada cualquier proposición p , ella y su negación lógica (¬p ) son exhausti-
vas: no hay otra posibilidad. Al menos una de las dos tiene que ser verdad.

Por poner un ejemplo, Hoy es martes y Hoy es miércoles no son exhaustivas porque hay
otras cinco posibilidades. Pero Hoy es martes y Hoy no es martes sí lo son: no hay una
tercera posibilidad (por ejemplo, si es miércoles, o sábado, será verdad que Hoy no es
martes). Ahora veamos la noción de exclusividad.
Definición 21: Exclusividad
Dada cualquier proposición p , ella y su negación lógica (¬p ) son exclu-
sivas, es decir, son incompatibles. No pueden ser verdad en la misma
circunstancia: al menos una de las dos tiene que ser falsa.

Por ejemplo, Firulais es un perro y Firulais es un gris no son excluyentes. En cambio,


Firulais es un perro y Firulais es un delfín, sí lo son (sin embargo, una no es la negación
lógica de la otra, pues no son exhaustivas.)

Negación Lógica = Exclusiva + Exhaustiva


¿Pueden ambas ser F? — Sí −→ No son exhaustivas
¿Pueden ambas ser V? — Sí −→ No son exclusivas
¿Pueden ambas ser F? — No −→ Sí son exhaustivas
¿Pueden ambas ser V? — No −→ Sí son exclusivas

Cuadro 4.1: Cómo reconocer una negación lógica

En general, con cada par de proposiciones hay dos opciones:


1. Ambas podrían ser simultáneamente verdaderas.
2. Ambas podrían ser simultáneamente falsas.
Cuando una proposición es la negación de otra, el requisito de exclusividad cancela la

80
alternativa (1) y el requisito de exhaustividad cancela la alternativa (2). Es decir, una
proposición y su negación no podrían jamás ser simultáneamente verdaderas ni simultá-
neamente falsas. Por ello decimos que una es la contradictoria de la otra. En el cuadro
4.1 resumo los criterios para encontrar si dos proposiciones son contradictorias.
Podemos representar a la negación como partiendo el conjunto de todas las posibi-
lidades —el conjunto de todas las situaciones o escenarios posibles— en dos: en una
parte, se da la proposición; en la otra, su negación lógica. Estas partes no se cruzan
(¡son exclusivas!), y no hay una tercera región (¡son exhaustiva!) Considera la propo-
sición expresada por «Mi botella de agua es azul». Pintemos de azul el conjunto de las
situaciones en las que es verdad, y dejemos en blanco aquellas en las que no es verdad:
nos resultaría algo como la figura 4.1.
Pero que «Mi botella de agua es azul» sea falsa es compatible con otras varias posi-
bilidades: que mi botella sea negra, o rosa, o que no tenga botella de agua. Por ello,
«Mi botella de agua es azul» y «Mi botella de agua es rosa» no son contradictorias: son
contrarias (su verdad se excluye), pero no son exhaustivas, porque hay varias otras po-
sibilidades: que sea negra, verde, o que yo no tenga botella, por ejemplo. La negación
lógica de una proposición solamente es su contradictoria.

Mi botella de agua es azul

¬ Mi botella de agua es azul

Figura 4.1: La negación lógica es exhaustiva y exclusiva.

4.1.4. La conjunción

La conjunción o símbolo «ampersand», &, se utiliza para representar la conjunción


lógica de dos proposiciones.
La conjunción, y las demás conectivas que veremos abajo, son conectivas diádicas,
en el sentido que sigue.

81
Definición 22: Conectiva diádica
Una conectiva es diádica cuando se aplica a dos proposiciones. A las co-
nectivas diádicas también se les conoce como binarias.

Conjunciones en el Español

En Español tenemos distintas palabras con las que podemos expresar la conjunción
lógica. Por ejemplo, todas las oraciones de la siguiente lista expresan la misma propo-
sición: la conjunción lógica de las proposiciones: El ser humano es indeciso y La libertad
es la esencia del ser humano.3

• El ser humano es indeciso y la libertad es la esencia del ser humano.


ejemplo 12

• El ser humano es indeciso y la libertad es su esencia.


• Tanto el ser humano es indeciso como la libertad, su esencia.
• Tanto el ser humano es indeciso como la libertad es su esencia.
• El ser humano es indeciso, además, la libertad es su esencia.
• El ser humano es indeciso, ésta es su esencia.

Conjunciones adversativas

Algunas conjunciones son adversativas: «pero», «sin embargo», «mas», «aunque», «em-
pero», «antes bien», «si bien», «no obstante», etc. Estas no son negaciones, sino con-
junciones. Aunque parezcan contraponer dos oraciones, en el nivel lógico sólo afirman
ambas proposiciones. Es decir, el modelo lógico abstrae las características de los adver-
sativos que van más allá de la conjunción. Por ejemplo:
ejemplo 13

• El ser humano es indeciso pero la libertad es su esencia.


• Aunque el ser humano es indeciso, la libertad es su esencia.
• El ser humano es indeciso; sin embargo, la libertad es su esencia.
• Si bien el ser humano es indeciso, la libertad es su esencia.
• El ser humano es indeciso, mas la libertad es su esencia.

Si nos quedamos en el nivel lógico, todas estas expresan la conjunción de las propo-
siciones mencionadas.

Aspectos que no representa la conjunción veritativo-funcional

Hay que notar que la conjunción lógica no expresa:4

82
Orden temporal Usualmente, al decir cosas como «Pedro se inscribió y ganó la carre-
ra», queremos comunicar que, primero, Pedro se inscribió, y que después, ganó la
carrera. Esto se pierde en la representación lógica. La proposición expresada por
«Pedro se inscribió & ganó la carrera» no implica ningún orden temporal. Es la
misma proposición que: «Pedro ganó la carrera & se inscribió en ella».
Orden causal A veces, usamos las conjunciones para hablar de causas y efectos. Por
ejemplo, cuando digo «Comí en la calle y me dio una infección», podría querer
implicar que mi enfermedad fue a causa de haber comido en la calle. Pero la
conjunción lógica no refleja eso. En el nivel puramente lógico, es igual lo anterior
que: Me dio una infección y comí en la calle.
Relevancia Muchas veces, unir oraciones con conjunciones supone que hay alguna
relación de relevancia entre ellas: que tales oraciones «tienen algo que ver» entre
sí. Pero esto no se requiere con la conjunción lógica. Puedo decir, por ejemplo,
que Hoy comí pasta y también se ofreció una prueba de la hipótesis de Riemann, aunque
una cosa no sea relevante para la otra.
Listas En el Español a veces se usan las conjunciones, como «y», para construir listas de
cosas o tareas, como una lista de supermercado o de un grupo de la escuela. (Por
ejemplo, puedo hacer una lista de pendientes: Pasear al perro y comprar detergente.)
Pero estas no son representables mediante una conjunción lógica, porque esta sólo
conecta proposiciones, no cosas o tareas.
Preguntas retóricas También usamos a la conjunción «y» para introducir preguntas
retóricas, como: «Yo no voy a ir, ¿y?». Pero este tampoco es un uso que pueda
representarse por la conjunción lógica, pues tampoco conecta proposiciones.

4.1.5. La disyunción inclusiva

La disyunción, ∨, se utiliza para representar la disyunción lógica de dos proposiciones.

Disyunciones en el Español

En Español tenemos distintas palabras con las que podemos expresar la disyunción
lógica. A veces usamos una simple «o» entre las oraciones en disyunción, como en:
Iremos al cine o iremos al concierto.
Pero también a veces usamos el «o bien . . . o bien . . . », como en:
O bien la naturaleza del ser humano es accesible y podemos hacer ciencia de ello, o bien esa
naturaleza es inexpugnable y no es cognoscible por la ciencia.
Otra manera de expresar la disyunción es con «ya sea»:

83
Ya sea que aceptemos el premio o que lo rechacemos, iremos a la premiación.
A veces dejamos las disyunciones implícitas: Podemos ir a bailar, a cenar, al cine, o quedar-
nos en casa. Por supuesto, hay otras formas de expresar disyunciones en el español.

Disyunciones exclusiva e inclusiva

En Español solemos usar la disyunción exclusiva, que es la que usamos cuando exis-
ten dos opciones incompatibles. Por ejemplo: «O estás conmigo o estás contra mi», o
«Entrega todas tus tareas o vas a reprobar»; también: «O comemos pizza o comemos
sushi». De hecho, la disyunción exclusiva se puede definir mediante otras conectivas,
como veremos después.
Pero la disyunción que usaremos en lógica es inclusiva: permite que ambas proposi-
ciones —que ambos disyuntos— sean verdaderos. Cuando usemos la disyunción lógica
no vamos a suponer de entrada que los disyuntos son incompatibles. Si lo son, serán
debido a las oraciones en disyunción en ese caso; pero no debido a la disyunción misma.
Vamos a ver la diferencia entre las disyunciones inclusiva y exclusiva. Recuerda que
las conectivas lógicas son operaciones. Una disyunción, en particular, va a tomar dos
valores y nos devolverá otro valor: el resultado de la operación de esos valores. Las
disyunciones exclusiva e inclusiva difieren respecto a qué valor devuelven cuando se
toman dos proposiciones que son verdaderas, y respecto a qué valor devuelven cuando
se toman dos proposiciones que son falsas. Esto se ve en el cuadro 4.2.

Disyunción inclusiva VS Disyunción exclusiva


Casos posibles Disyunción inclusiva Disyunción exclusiva
Primer disyunto V, segundo disyunto F V V
Primer disyunto F, segundo disyunto V V V
Primer disyunto F, segundo disyunto F F F
Primer disyunto V, segundo disyunto V V F

Cuadro 4.2: Las disyunciones veritativo-funcionales.

La razón de esta diferencia es que una disyunción exclusiva es verdadera solamente


cuando una, pero no la otra, de las proposiciones en disyunción es verdadera: la verdad
de una excluye a la verdad de la otra. En cambio, una disyunción inclusiva es verdadera
cuando una o ambas proposiciones en disyunción son verdaderas: la verdad de la
disyunción puede incluir la verdad de las dos proposiciones.
La disyunción que estaremos usando en LC0 es la inclusiva.

84
Cuando «o» no es una disyunción veritativo-funcional

Raymundo Morado distingue distintos usos del «o» en Español que no significan una
disyunción inclusiva ni una exclusiva, como:
• Alternativas en preguntas, como en «¿Té o café?». No es una disyunción lógica
porque no conecta proposiciones.
• Alternativas en mandatos, como en «¡La bolsa o la vida!». Tampoco es una dis-
yunción lógica porque tampoco conecta proposiciones.

4.1.6. El condicional material

La herradura, «⊃», se utiliza para representar al condicional material entre dos pro-
posiciones. Tenemos nombres específicos para las dos partes del condicional material:
Definición 23: Antecedente y consecuente

Dado un condicional material con la forma A ⊃ B, decimos que A es su


antecedente, y que B es su consecuente.

Si una fórmula que tiene la forma de condicional material es verdadera, su anteceden-


te es condición suficiente para su consecuente, y su consecuente es condición necesaria
para su antecedente (figura 4.2).
suficiente para

A ⊃ B

requerido para

Figura 4.2: Suficiencia: La verdad del antecedente basta (pero no se requiere) para la verdad
del consecuente. Necesidad: La verdad del consecuente se requiere (pero no basta) para la
verdad del consecuente.

Para graduarse de la Universidad, se requieren varias cosas: tener un trabajo recep-


cional (por ejemplo, una tesis), aprobar todas las materias del programa, etcétera.
ejemplo 14

Por ello, es verdad decir:


V: Te titulas ⊃ apruebas todas las materias del programa.
Y esto es verdad porque la verdad de «apruebas todas las materias del programa»
se requiere, se necesita para, la verdad de «Te titulas».
En cambio, esto es falso:
F: Apruebas todas las materias del programa ⊃ te titulas.

85
Y es falso porque no basta aprobar todas las materias del programa para titularse:
tienes que cumplir otras varias condiciones, como hacer un servicio social, etcétera.

Este es otro par de ejemplos, que espero que puedas ver por qué los he clasificado
así:
V: Aprendes a andar en bici ⊃ tienes una bici disponible
F: Tienes una bici disponible ⊃ Aprendes a andar en bici

Condicionales en el lenguaje natural

Hay que distinguir diversos usos de los términos condicionales en el Español. Por ejem-
plo, a veces utilizamos oraciones condicionales para indicar un argumento:
Si los policías son parte del Estado, entonces podemos inferir que sus acciones también son
responsabilidad del Estado.
A veces las utilizamos para indicar relaciones causales, de influencia, o de dependen-
cia:
Si comieras sanamente, mejoraría tu salud.
Además, solemos dar por sentado que las proposiciones relacionadas por un con-
dicional tienen alguna relación de relevancia entre ellas—o, como se suele decir, que
«tienen algo que ver». Por ello, nos sonaría muy extraño que alguien dijera algo como:
Si comes sanamente, el área de un círculo es 𝜋 × r 2 .
Pero resulta que un condicional material no requiere ninguna relación de relevancia
entre su antecedente y su consecuente, por lo que de hecho es verdadero decir que si
comes sanamente ⊃ el área de un círculo es 𝜋 × r 2 , o que la luna es de queso ⊃ 2+2=4.

Qué sí es un condicional material

En general, un condicional material es una relación muy débil entre su antecedente y


consecuente; pues no representa ninguno de los siguientes sentidos:
• Una relación de causa-efecto — como en «si fumas, te dañarás»;
• una sucesión temporal — como en «si salgo, cierro la puerta»;
• una relación de relevancia — de manera que dos proposiciones que no tienen
nada que ver entre sí, pueden formar un condicional material verdadero,
• una consecuencia lógica — es decir, que las premisas impliquen lógicamente a la
conclusión,
• una relación de conexión hipotética o subjuntiva — como en: «si hubiésemos partido
antes, no hubiéramos llegado tarde».

86
Todos los ejemplos anteriores se pueden formalizar con un condicional material, sólo
que perderemos los significados especificados. Por ejemplo, decir «Tú fumas ⊃ Tú te
dañas» no conserva el sentido de causalidad que estaba presente en el primer ejemplo.
Pero, aún así, es un condicional material verdadero (como se puede confirmar después
de leer el siguiente capítulo).
Como lo veremos en el siguiente capítulo, un condicional material solamente es la
siguiente relación:
Si el antecedente es verdadero, también lo es el consecuente.
Que es la misma relación que:
Si el consecuente es falso, también lo es el antecedente.
Que es la misma relación que:
No sucede que el antecedente sea verdadero y el consecuente sea falso.
Por supuesto, esto es solamente si de hecho se da la relación de condicional material
entre antecedente y consecuente. Es decir: sólo si la fórmula con forma de condicional
material es verdadera. Si la relación no se da —si esa fórmula es falsa— entonces el
antecedente puede darse sin el consecuente (recuerda la figura 4.2).

Todos los siguientes son condicionales materiales verdaderos, aunque falle alguna
característica (o varias) características de los condicionales que solemos usar en el
Español:
ejemplo 15

• 2+2=4 ⊃ la luna no es de queso. (falla relevancia)


• Hitler inició la Segunda Guerra Mundial ⊃ la Guerra Fría inició entre 1946 y
1947. (falla sucesión temporal)
• Como un sándwich de queso ⊃ soy de sexo masculino. (fallan causalidad y
relevancia)
Y son verdaderos porque no sucede que el antecedente sea verdadero y el con-
secuente sea falso.

Condicionales e indicadores de argumento

También es muy importante insistir en la diferencia entre un indicador o marcador de


conclusión (concepto que introdujimos en la sección 2.3.2) y una expresión que refiere
a un condicional material. Veamos.
La presencia de un marcador de conclusión nos está indicando esto:
Existe un argumento válido mediante el cual la conclusión se infiere de las
premisas.
Mientras tanto, la presencia de una expresión que se refiera a (o que modelemos con)

87
un condicional material, sólo indica esto:
No sucede que el antecedente sea verdadero y el consecuente sea falso.
Por ello, es crucial distinguir entre oraciones como:
Comer y nutrirse son derechos humanos; por lo tanto, el comer es un derecho,
que indican argumentos; de oraciones como:
Si comer y nutrirse son derechos humanos, entonces el comer es un derecho,
que indican condicionales materiales. El primero es verdadero solamente si hay un
argumento válido con el cual «el comer es un derecho» se pueda inferir de «comer y
nutrirse son derechos humanos». Mientras tanto, el segundo es verdadero solamente si
no sucede que: «comer y nutrirse son derechos humanos» sea verdada, pero «el comer
es un derecho» sea falsa. ¡Esta última opción no habla de ningún argumento!
Otra manera de verlo es así: el condicional material se define mediante su tabla de
verdad, que veremos en la sección 6.4. Mientras tanto, que un argumento sea válido
se define en la definición 10, y para comprobar que un argumento lo sea, se usan los
métodos semánticos y demostrativos que veremos en futuros capítulos.
Ejercicio # 11
De las siguientes oraciones, di cuáles son expresiones condicionales, y cuáles ex-
presan un argumento (al tener un indicador de conclusión).

1 Si encontramos oro, nos lo llevare- 7 Si compraste con garantía, entonces


mos. puedes reclamar por tus derechos.
2 Si alguien descubre algo, y ese des- 8 Las normas morales son convencio-
cubrimiento es original, se sigue que el nes, y si las convenciones son constructos
descubrimiento le pertenece. humanos, se sigue que las normas morales
5 Si me llamas, te contestaré. son constructos humanos.
6 Pienso, luego, existo.

¿Por qué es el condicional una relación tan «débil» o tan «delgada»? Porque, original-
mente, se diseñó para tratar relaciones condicionales en las matemáticas.5 Es verdad
que en el Español tenemos condicionales mucho más sofisticados que el condicional
material —pero recordemos que estamos usando a la lógica matemática como un mode-
lo de un fenómeno concreto. Y los modelos suelen ignorar ciertos aspectos de aquéllo
que modelan, pues es imposible capturarlo todo.
De hecho, se han desarrollado sistemas lógicos que intentan recuperar algunas pro-
piedades de los condicionales del Español que quedan fuera de LC0, pero estos sistemas
caen fuera del alcance de este libro.6
Dicho todo lo anterior, podemos usar el condicional material para formalizar varias

88
frases del español, entendiendo que, en algunos casos, la formalización no va a cap-
turar todos los aspectos lógicos de las locuciones formalizadas. Por ejemplo, todas las
siguientes oraciones se formalizarían como «A ⊃ B»:

Si A, entonces B. Si A, B.
A implica B. B es implicada por A.
Basta que A para que B. Que A es suficiente para que B.
B es necesario [o se necesita] para A. A requiere que B.
B es sine qua non de A. A sólo si B.
Que A conlleva que B. A trae aparejado B.
A trae por consecuencia a B. B, dado que A.
B, cuando A. Cuando A, B.
Suponiendo sin conceder que A, B. No ocurre que A sin que B.
B, toda vez que A. B, pues A.
B, en virtud de A. A causa que B.
B, por causa de A. B, porque A.

Las últimas cinco locuciones —«pues», «en virtud de», «causa que», «por causa de», y
«porque»— son locuciones que indican relaciones de explicación, influencia o dependencia.
Pero estas relaciones son más complejas que la relación indicada por el condicional
material, por lo que usar a este para formalizar locuciones como las anteriores, supone
ignorar características que no pueden formalizarse en la lógica clásica. Se han propuesto
lógicas no clásicas para sistematizar las inferencias válidas con estas locuciones, que no
vamos a revisar aquí.7
Otro par de frases que podemos formalizar con un condicional material son:
B, en toda ocasión en que A. A, siempre que B.
Sin embargo, hay que notar que el uso de «siempre que» en el segundo ejemplo no
significa «en toda ocasión». Como se ve en el primer ejemplo, «en toda ocasión en
que» se utiliza para el antecedente. Entonces, el sentido de «siempre que» del segundo
ejemplo es el de un requisito, una condición necesaria; como cuando decimos «Pasarás
la materia siempre que entregues todas las tareas». En este caso, queremos decir: «Se
requiere entregar todas las tareas para pasar la materia». Por lo tanto, en este sentido,
«A, siempre que B» se formalizaría «A ⊃ B».

4.1.7. El bicondicional material

Las tres líneas, ≡, se utiliza para representar a la equivalencia material entre dos
proposiciones, también llamado bicondicional material.

89
Esta conectiva es una equivalencia: un tipo de igualdad. Cuando se pone entre dos
proposiciones, nos dice que las dos proposiciones son equivalentes: son iguales en cierto
sentido. ¿En qué sentido? En su valor de verdad. Dos proposiciones materialmente
equivalentes van a ser iguales respecto a su «materia»; es decir, una fórmula con la
forma: A ≡ B nos dice que las fórmulas a cada lado—A y B—tienen el mismo valor de
verdad: o son ambas verdaderas, o son ambas falsas.

Bicondicionales en el español

En Español tenemos distintas palabras que podemos simbolizar con la equivalencia


material. Por ejemplo:
• «. . . siempre y cuando . . . »
• «. . . si y solamente si . . . »
• «es lo mismo decir que . . . que decir que . . . »
• «si . . . , pasa . . . , y si no, no»
Además, un bicondicional se puede ver como dos implicaciones materiales: «de ida» y
«de regreso». Es decir: para decir algo como «p siempre y cuando q » también podemos
decir algo como «p implica (materialmente) a q , y q también implica a p». Por eso, en
algunos sistemas de notación donde se utiliza una flecha para el condicional (del tipo
de: «p ⇒ q »), suelen usar una flecha doble para el bicondicional (como: «p ⇔ q »).
En este libro no estamos usando esa notación, sino la herradura para el condicional
y las tres rayas para el bicondicional. Pero estas tres rayas nos pueden recordar que
el bicondicional es un tipo de igualdad (simbolizada: «=»): una igualdad de valor de
verdad.

Qué no nos dice un bicondicional

Como vimos arriba, le decimos «material» porque el bicondicional nos dice que las pro-
posiciones equivalentes son idénticas en su «materia»: en su valor de verdad. Pero esto
no significa que las proposiciones equivalentes sean iguales en sentidos más estrictos.
Un sentido más estricto de equivalencia es la equivalencia lógica, que revisaremos en
secciones posteriores (6.8 y 8.4).
Otro sentido de equivalencia es la equivalencia de significado: la que se da cuando dos
oraciones distintas significan exactamente lo mismo. El criterio para decir cuándo dos
oraciones expresan el mismo mensaje todavía es muy controvertido en la semántica.
Sin embargo, es claro que dos oraciones pueden expresar proposiciones materialmente
equivalentes sin que expresen la misma proposición. Una de las razones de ello es que
el bicondicional material no requiere relevancia entre las proposiciones equivalentes. Por

90
ejemplo, la proposición expresada por:

2+2=4

es verdadera (¡sorpresa!), como lo es la proposición expresada por:


Marzo tiene 31 días
Como ambas son verdaderas, esto significa que ambas son materialmente equivalentes.
Entonces, podemos usar el bicondicional para expresar la siguiente proposición, que es
verdad:
Dos más dos es igual a cuatro, siempre y cuando marzo tenga 31 días.
Suena «extraño». . . ¡pero es lógicamente correcto! Y suena extraño porque las dos pro-
posiciones no tienen mucho «que ver» entre sí: no hay una relación de relevancia entre
ellas. Pero como con las demás conectivas que hemos visto, no se requiere que el bicon-
dicional relacione proposiciones relevantes una para la otra. Para que sea verdad una
proposición con un bicondicional, solamente requerimos que las dos proposiciones que
conecta tengan el mismo valor de verdad.
En general, el bicondicional y las demás conectivas no «ven» los significados de las
proposiciones: solamente su valor de verdad.

Ya tenemos frente a nosotros los símbolos con que escribiremos el lenguaje de LC0, y
la manera usual en que estos modelan conectivas del Español. Falta ver cómo escribir en
ese lenguaje de manera que «tenga sentido». A eso pasaremos, después de hablar sobre
la notación. En el siguiente capítulo trataremos más con la relación entre este lenguaje
y el lenguaje natural del que es un modelo.

4.2. Sistemas de notación

Una notación es un sistema de símbolos para referirse a objetos previamente definidos.


En la lógica formal podemos encontrar distintos símbolos para las conectivas que usa-
remos, para las variables proposicionales, e incluso distintas reglas de formación (esto lo
revisaremos en la sección 4.4). Un cambio de notación no altera el contenido del sistema
lógico. Sólo lo expresa con distintos símbolos. (Así como la misma oración del Español
puede expresarse con letra de molde o letra manuscrita, o con distintas tipografías, sin
que eso haga que la oración sea distinta.)
Para las variables proposicionales, aunque es usual utilizar letras desde la p, algunos
autores utilizan letras minúsculas numeradas con subíndices:

p1 p5 q3 s9 ...

91
Tipo Conectiva Nombre Expresiones del Español Características
•Exhaustiva •Excluyen-
Monádica ¬ Negación «No» •«Es falso que»
te
•A-temporal •Sin rele-
& Conjunción «Y» •«También»
vancia •Sin orden
Diádicas
∨ Disyunción «O» •«Ya sea. . . ya sea. . . » •Inclusiva
Bicondicional «Siempre y cuando» •«Si y •Material: no es necesa-

material solamente si» rio
•Material: no es necesa-
rio •El antecedente bas-
Condicional «Si. . . entonces. . . » ta para el consecuente

material •«. . . implica que. . . » •El consecuente se re-
quiere para el antece-
dente

Cuadro 4.4: Las conectivas lógicas de LC0.

o, cuando se hace con extremo rigor, algunos8 usan la misma letra pero con distintos
números de primas:
p ′ p ′′′′ p ′′ . . .
y otros prefieren usar mayúsculas, a veces sin preferencia por alguna letra o letras par-
ticulares:
A W C L ...
En general, es una cuestión arbitraria qué símbolos usar como variables proposicionales.
Podemos elegir cualquiera, siempre que la convención sea conocida por las personas
involucradas o al menos, sea fácil de adivinar.
Algo parecido sucede para las meta-variables: las variables que toman fórmulas como
valores (ver la definición 24, abajo). Algunos autores (como yo) usamos las mayúsculas
sin serifas:
A B C ...

mientras que otros, si es que ya han usado mayúsculas para las variables proposiciona-
les, usan letras minúsculas.9 Algunos utilizan letra manuscrita,10 como:

A B C ...

y otros,11 letras griegas:


𝛼 𝜙 ...

De nuevo, estas decisiones son muy arbitrarias, y lo único que importa es que conoz-
camos la convención y la sigamos de manera sistemática.

92
Para las conectivas también existen notaciones alternativas. Para la disyunción la
más usual es la «v» estilizada, ∨, pero seguro hay otras. Para la conjunción se utilizan
cualquiera de los siguientes símbolos (aquí usaremos el primero):

& ∧ •

o incluso se deja implícita, sólo concatenando los conyuntos, como en:

pq

El condicional material también tiene distintas notaciones. Aquí usaremos la primera


de la siguiente lista de ejemplos:

⊃ > → ⇒

De manera correspondiente, el bicondicional material puede denotarse por:

≡ <> ↔ ⇔

y aquí usaremos el primer símbolo.


Finalmente, la negación también tiene distintos símbolos usuales, como:

¬ ∼ –

y aquí usaremos el primero.


Como con las variables y meta-variables, no es esencial elegir uno u otro sistema
notacional. Lo importante es definir uno y dejar una convención clara y sistemática.
Podemos cambiarla por motivos puramente prácticos, como qué caracteres son los más
fáciles de escribir en un medio dado.12

4.3. Las fórmulas de LC0

En el Español tenemos palabras, frases y oraciones. Eso quiere decir que no toda combi-
nación de símbolos del alfabeto es parte del español. Por ejemplo, la cadena de símbolos:
pAm;AbbRRampóK
no es parte del Español, aunque use su alfabeto. O la siguiente cadena de palabras:
brilla Rojo la ambiente Secante
tampoco es parte del Español, aunque use palabras hechas de su alfabeto.
Las reglas de la gramática y la sintaxis del Español nos permiten formar palabras,
frases y oraciones a partir de su alfabeto; mientras que eliminamos como «agramáticas»
aquellas cadenas de estos símbolos que no cumplan con ellas.

93
Esa misma es la función de las reglas de formación (o, como a veces también se les
llama, «la gramática») de LC0. Sólo que ahora no hablaremos de «palabras», «frases»
ni «oraciones», sino de fórmulas.13
Otra manera de verlo es que contaremos como fórmula del lenguaje de LC0 a una
cadena de símbolos que puede tener un valor de verdad (ya sea verdadero o falso).
Son las «frases» que, en lógica, «significan algo». Las cadenas de símbolos que no sean
fórmulas no pueden tener ningún valor de verdad: no pueden ser ni verdaderas ni falsas.
(Tal como decir «brilla Rojo la ambiente Secante» no es ni verdad ni falsedad —¡pues
no significa nada!)
Antes de definir las reglas, introduzcamos el concepto de meta-variable:
Definición 24: Metavariable
Una meta-variable en nuestro sistema es una variable que toma valores
en el conjunto de fórmulas del lenguaje. Por lo tanto, representa fórmulas
atómicas (que son variables proposicionales, de ahí «meta-variable») y a
fórmulas moleculares de cualquier tipo.

Usaremos letras mayúsculas sin serifas,14 como «A» o «B» como meta-variables. Ahora
ya podemos definir las reglas de formación de nuestro sistema lógico:
Definición 25: Reglas de formación de LC0

R1. Toda variable proposicional es una fórmula.


R2. Si A es una fórmula, entonces ¬( A) también es una fórmula.
R3. Si A y B son fórmulas, entonces todas las siguientes son fórmulas:
1. ( A) & ( B) 3. ( A) ∨ ( B)
2. ( A) ⊃ ( B) 4. ( A) ≡ ( B)
R4. Nada más que lo especificado por las reglas R1-R3 es una fórmula.

Esas son las 4 reglas que definen el lenguaje de LC0 (aunque la tercera tenga cuatro
casos). Simplemente nos dicen qué cadenas de símbolos cuentan como fórmulas de
nuestro lenguaje. Además, gracias a la regla de clausura—la regla R4 de arriba—que
nos dice que nada más pertenece a nuestro lenguaje, sabemos que cualquier cosa que
no cumpla con nuestras reglas, no estará en nuestro lenguaje.
Estas reglas no tienen una conexión directa con los valores de verdad, es decir, no nos
dicen qué fórmulas son verdaderas o falsas. Solo nos dicen qué cuenta como fórmula
en nuestro lenguaje. Por lo tanto, son más bien un requisito: para que algo pueda tener
valor de verdad en LC0, debe ser una fórmula—es decir, cumplir con las reglas de
formación.

94
4.3.1. Explicación de las reglas

Según la primera regla, las variables proposicionales—como p, q y r —ya son fórmulas


(«oraciones») del lenguaje de la lógica. Eso significa que toda variable proposicional ya
puede ser interpretada como verdadera o falsa.
En las reglas R2 y R3 pasa algo importante: usamos metavariables, es decir, las
letras A y B, para denotar cualesquiera fórmulas. Una metavariable simplemente es
una variable que toma como valores a otras variables o fórmulas. Es decir, A puede
denotar a la fórmula:
p ⊃ r,
o a la fórmula:
(s & ¬¬q ) ⊃ t ,
o también a la fórmula:
p
o a:
((s & ¬¬q ) ⊃ t ) ∨ p
Es decir: A puede denotar a cualquier fórmula (lo mismo para B).
Esto se conoce como recursión: las reglas nos permiten construir fórmulas, y luego,
si aplicamos esas mismas reglas otra vez, podemos construir más fórmulas a partir
de esas otras. La recursión, entonces, básicamente es el proceso de aplicar una regla a
cualquier resultado de haber aplicado esa regla antes. (Por ejemplo, aplicaría un proceso
recursivo si comenzara a hacer pasteles, y una vez terminado, aplicara la misma receta
para hacer otro pastel, pero esta vez ¡usando los pasteles que ya hice como ingredientes!
Y luego, con varios de esos pasteles de pasteles, hiciera un nuevo pastel tomándolos
como ingredientes. . . Y así sucesivamente.)
Las reglas de formación son recursivas porque nos dan fórmulas a partir de las ató-
micas (las letras «solitas»), y con esas fórmulas nos dan fórmulas complejas metiendo
conectivas, y otra vez: con esas fórmulas complejas nos dan más fórmulas complejas, y
con esas otras, y con esas otras, otras más, etc.
Ejercicio # 12
Di si las siguientes cadenas de símbolos son o no fórmulas de LC0, y si una no lo es,
menciona qué regla de formación es la que no cumple:
1 p 6 (q ∨ s & t )
2 p¬q 7 (r )
3 !p ∨ q 8 ¬(q ∨ r ) ∨ q
4 p ⊃ (¬r ⊃ q ) 9 ¬(p ≡ t ) ⊃ (p ≡ t )
5 (q ≡ ¬r ) ⊃ (s & t ) 10 t ∨ q ⊃ (s ∨ q )

95
4.3.2. Atómicas y moleculares

Las reglas de la definición 25 determinan el conjunto de las fórmulas de LC0. Dentro de


estas, podemos distinguir dos tipos de fórmulas: las atómicas y las moleculares. Primero
veremos una definición informal de estos conceptos.
Las fórmulas atómicas son aquéllas que no tienen conectivas lógicas. Es decir, son
las variables proposicionales. Las fórmulas moleculares son las que contienen conectivas
lógicas, ya sea la negación, que es unaria, o cualquiera de las binarias. (Por lo tanto,
las fórmulas como: ¬p son moleculares, aunque sólo contengan a la negación.)
Podemos dar una definición más rigurosa de estos conceptos, pero para ello vamos
a necesitar del concepto de subfórmula.

4.3.3. Subfórmulas

Poniendo la idea de manera laxa, podemos decir que las subfórmulas de una fórmula A
son las fórmulas que aparecen en A.
Por ejemplo, en la fórmula:
(p ∨ r ) ⊃ (¬q ≡ s )
podemos encontrar a
¬q ≡ s
entre sus subfórmulas, pero también a:

p ∨r

y a p y r , así como a ¬q , a q misma, y a s . Por supuesto, p∨ no es una subfórmula, pues


ni siquiera es una fórmula. Se suele contar a la fórmula entera como una subfórmula
de sí misma (como un caso «límite», digámoslo así.)
La siguiente es una definición recursiva de las subfórmulas:
Definición 26: Subfórmula
Donde A es una fórmula, sus subfórmulas son:
1. Si A es una letra proposicional, A es su única subfórmula.
2. Si A es una fórmula con la forma ¬B, sus subfórmulas son (además
de ella misma, ¬B) las subfórmulas de B.
3. Si A es una fórmula con la forma B ∨ C, o de la forma B & C, o de
la forma B ⊃ C, o de la forma B ≡ C, sus subfórmulas son (además
de ella misma), B y sus subfórmulas, y C y sus subfórmulas.

Ahora ya podemos definir rigurosamente los conceptos de la subsección anterior:

96
Definición 27: Fórmula atómica
Una fórmula atómica de LC0 es una fórmula que no contiene subfórmulas
(además de sí misma). Por lo tanto, no contiene conectivas proposiciona-
les. Es decir, las fórmulas atómicas son las variables proposicionales.

Definición 28: Fórmula molecular


Una fórmula molecular de LC0 es una fórmula que contiene subfórmulas.
Por lo tanto, contiene conectivas proposicionales.

Ejercicio # 13
Obtén todas las subfórmulas de las siguiente fórmulas (recuerda que la fórmula entera
también es subfórmula de sí misma).
1 s ∨ (t ⊃ r ) 6 s ∨ [t ≡ (p & q )]
2 [s ≡ (¬q ∨ r )] ⊃ [(q ≡ t ) & ¬p] 7 (p ∨ r ) ⊃ (q & s )
3 [(q ≡ r ) ∨ ¬s ] ≡ [(p ∨ r ) ⊃ ¬q ] 8 (s ⊃ r ) & (p ⊃ r )
4 ¬s ⊃ p 9 (p & t ) ⊃ s
5 p ⊃r 10 (p ⊃ r ) ⊃ ¬s

4.3.4. La conectiva principal de una fórmula y convenciones

Debemos notar algo importante: todas las conectivas binarias siempre van a quedar en-
medio de las fórmulas que conectan, mientras que la conectiva monádica —la negación—
queda siempre hasta delante. La negación siempre afectará a la fórmula inmediata a su
derecha, mientras que las conectivas binarias unen las fórmulas inmediatas a sus lados
izquierdo y derecho.
(Gracias a este hecho, sabemos «de entrada» que las siguientes cadenas de símbolos
nunca van a contar como fórmulas:

p¬q &r r ¬(q ∨ s ) ≡ (q & ¬r )

La primera porque usa la negación, que es monádica —es decir, que sólo se «pega»
a una fórmula— como si fuera diádica; la segunda porque usa una conectiva diádica
como si fuera monádica; la tercera porque también usa mal la negación, y la cuarta
porque la equivalencia material siempre debe conectar al menos dos fórmulas, y ahí
sólo está conectando a una —a saber, a «(q & ¬r )».)
En general, toda fórmula molecular tiene su conectiva principal, que es la que deter-
mina si la fórmula es una negación de otra fórmula, una conjunción de otras dos, una
equivalencia entre dos fórmulas, etc.

97
La conectiva principal es la que está «hasta afuera» de todos los paréntesis. Por ejem-
plo, en la fórmula:
(p ≡ ¬q ) ∨ ¬(r ⊃ s )
la conectiva principal es la disyunción, porque está hasta afuera, aunque en medio, de
los paréntesis. En cambio, en:

¬ (p ≡ ¬q ) ∨ ¬(r ⊃ s )

la conectiva principal es la negación, que niega a toda la fórmula que le sigue.


Una vez que encontramos la conectiva principal de una fórmula, lo que une deben
ser subfórmulas. Estas, a su vez, pueden ser o fórmulas moleculares, o variables pro-
posicionales. Por ejemplo, en la primera fórmula de arriba podemos encontrar dos
subfórmulas:
p ≡ ¬q ,
y:
¬(r ⊃ s )
Ambas fórmulas tienen sus propias conectivas principales. La primera tiene al bicondi-
cional material; la segunda, a la negación.
Veamos otro ejemplo. La fórmula:

(p ∨ s ) ⊃ ¬(q ∨ r )

tiene al condicional material como conectiva principal, por lo que una manera correcta
de leerlo es:
Si p o s , entonces es falso que: q o r .
Nota que leímos tomando primero a la conectiva que está hasta afuera de todos los
paréntesis—en este caso, «⊃»—y después, yendo por sus subfórmulas de izquierda a
derecha, empezando con cada una de ellas por su conectiva principal. Por eso, después
de empezar con la conectiva principal, vamos con su subfórmula:

(p ∨ s ),

que leemos «Si p o s », donde el «si» es la primera parte del condicional que está enmedio
de esta y la siguiente subfórmula:
¬(q ∨ r ),
que leemos «entonces es falso que: q o r », pues el «entonces» es la segunda parte del
condicional. Seguimos con la conectiva principal de esa subfórmula: «es falso que»,
para terminar con la conectiva principal de la siguiente subfórmula, (q ∨ r ), y que
leemos: «q o r ».

98
Dos convenciones

Ya sabemos que la conectiva principal siempre va a quedar «hasta afuera» de los parén-
tesis, ya sea enmedio (si es una conectiva binaria) o hasta la izquierda, si es la negación.
Ahora vamos a notar dos hechos y hacer dos correspondientes convenciones.
El primer hecho es que, en las reglas de formación de la definición 25, a partir de,
por ejemplo, una variable proposicional como q , podemos construir su negación, que
quedaría: ¬(q ). Los paréntesis en esta fórmula son innecesarios, pues sabemos que la
negación está negando a q , así que podríamos escribir la misma fórmula simplemente
como «¬q ». Pero a veces se vuelven necesarios, como en este ejemplo:

¬(q ∨ r ), (4.1)

en el que sí necesitamos los paréntesis. Si no los tuviéramos—es decir, si sólo tuviéra-


mos:
¬q ∨ r,
no sería claro si tenemos la fórmula 4.1, o la siguiente:

(¬q ) ∨ r (4.2)

Estas fórmulas son muy distintas: 4.1 es una fórmula negada (a su vez, esa fórmula es
una disyunción), mientras que 4.2 es una disyunción de dos fórmulas (una de las cuales
está negada). Es decir, necesitamos los paréntesis para desambiguar entre fórmulas:
para decir cuál de las opciones posibles es la que queremos decir.
A partir de lo dicho vamos a establecer la primera convención. Es decir, el primer acuer-
do acerca de cómo escribir y leer fórmulas, que no es parte de las reglas de formación,
sino cuestión de pura utilidad.
Convención 1 (Paréntesis innecesarios). Si los paréntesis de una fórmula con conectivas
lógicas no son necesarios para reconocer su conectiva principal, podemos eliminarlos.
El segundo hecho es que a veces utilizar muchos paréntesis se vuelve confuso. En
casos como:
¬(¬¬q ∨ (¬r ≡ ¬s )) ⊃ ((¬p) & (r ∨ s )) (4.3)
puede resultar confuso saber si estamos frente a una negación o a un condicional. Por
lo tanto, usaremos los corchetes como sustitutos de los paréntesis siempre que sea útil;
pero los pondremos siempre hasta afuera de toda la fórmula. De esta manera, la fórmula
4.3 quedaría así:
¬[¬¬q ∨ (¬r ≡ ¬s )] ⊃ [(¬p) & (r ∨ s )] (4.4)
que es un poco más fácil de leer.
Dado ello, la segunda convención notacional es la siguiente:

99
Convención 2 (Corchetes). Si los paréntesis de una fórmula hacen difícil leerla, sustituire-
mos paréntesis con corchetes.
Ejercicio # 14
Considera el diálogo Fedón de Platón. De este, extrae 10 oraciones declarativas, y for-
malízalas con las conectivas y variables proposicionales.

4.4. Notación polaca

Un sistema de notación (cf. arriba, la sección 4.2) que ha resultado importante, es la


así llamada «notación polaca», inventada por el gran lógico polaco del siglo XX, Jan
Łukasiewicz. Su característica principal es que es una notación prefijo incluso para las
conectivas diádicas, a diferencia de la notación infijo que es la que usamos normalmente.
Es decir: en nuestra notación, las conectivas diádicas se usan enmedio de las fórmulas
(pero la negación se pone antes de ellas). En la notación polaca, incluso las conectivas
diádicas se ponen antes.
En la siguiente tabla, comparamos la notación que usaremos en este libro con la
notación de Łukasiewicz:
Notación usual Notación polaca
¬p Np
p &q Kpq
p ∨q Apq
p ⊃q Cpq
p ≡q Epq
La ventaja de la notación polaca sobre la que nosotros usamos, es que en la primera
no son necesarios paréntesis ni corchetes, pues todas las conectivas se ponen «enfrente»
de la fórmula.
El «truco» con la notación polaca es simplemente que, con ella, las fórmulas se escriben
como se leen.
Por ejemplo, la fórmula:
¬(p & q )
que leemos: «es falso que: p y q », se escribiría, en la notación de Łukasiewicz, así:
N K pq
Mientras que la fórmula:
¬p & q
que leeríamos: «no-p y q », sería:
K N pq

100
A su vez, la fórmula:
p & ¬q
que pronunciaríamos: «p y no-q », se escribiría así:

K pN q

Otro ejemplo sería el siguiente. La fórmula:

q ≡ (p ∨ r ),

que leeríamos: «la equivalencia entre q y la disyunción entre p y r », se escribe justamente


así:
Eq Apr

Por poner otro ejemplo,15 la fórmula

[p ⊃ (q ∨ r )] ⊃ ¬p

sería, en la notación de Łukasiewicz:

C C pAqr N p,

lo cual también coincide con la manera de leer la fórmula: «el condicional entre el
condicional entre p y: o q o r , y no-p».

4.5. ¿Cómo saber que algo es una fórmula?

Después de un tiempo de práctica, es fácil reconocer una cadena de símbolos como


fórmula de LC0 o no. Pero al inicio esto puede no ser tan sencillo.
Una manera de demostrar que una cadena de símbolos es una fórmula es construyéndola
mediante las reglas de formación del lenguaje, como veremos en el siguiente ejemplo.

Supongamos que queremos estar completamente seguros de si una cadena de sím-


bolos del lenguaje es una fórmula. Por ejemplo, la cadena:
ejemplo 16

¬(p & q ) ⊃ q

La intentamos construir mediante nuestras reglas de formación (definición 25):


1. Por R1, q es fórmula.
2. Por R1, p es fórmula.
3. Por R3 caso 1, aplicada a las líneas 1 y 2 de arriba, p & q es fórmula.
4. Por R2 aplicada a 3, ¬(p & q ) es fórmula.

101
5. Por R2.3 en 1 y 3, ¬(p & q ) ⊃ q es fórmula.
¡Lo logré! Entonces sí es fórmula. (Se lee: «si no es el caso que p y q , entonces q »).

Será útil revisar otro ejemplo.

Mismo problema, mismo procedimiento, ahora con la cadena:

∨p (q & ¬r )

Veamos:
ejemplo 17

1. q es fórmula (por R1)


2. p es fórmula (por R1)
3. r es fórmula (por R1)
4. ¬r es fórmula (por R2 aplicado a 3)
5. q & ¬r es fórmula (por R3.1 aplicado a 1 y 4)
6. p ∨ (q & ¬r ) es fórmula (por R3.2 aplicado a 2 y 5)
Pero nota que la fórmula del paso 6—p ∨ (q & ¬r ) —no es la cadena de símbolos
con la que empecé. No pude construir la cadena que tenía arriba.

En casos como el ejemplo 17, en que no tenemos una fórmula, intentar construirla
con las reglas no es suficiente, pues si no es una fórmula, nunca vamos a lograrlo.
Podemos usar el árbol genealógico de una fórmula.16 Por ejemplo, dada la fórmula:

¬(q ⊃ r ) ≡ (s ∨ ¬q )

su árbol genealógico sería la figura 4.3.

¬(q ⊃ r ) ≡ (s ∨ ¬q )

¬(q ⊃ r ) (s ∨ ¬q )

q ⊃r s ¬q

q r q

Figura 4.3: Árbol genealógico de la fórmula «¬(q ⊃ r ) ≡ (s ∨ ¬q )».

102
Ahora consideremos la cadena de símbolos de arriba, ∨p (q & ¬r ) , de la que nos
preguntábamos si era una fórmula. Intentaríamos construir su árbol genealógico así:
ejemplo 18
∨p (q & ¬r )

p
Como vemos, apenas intentamos poner las dos fórmulas que deberían estar para la
disyunción, sólo logramos poner una; lo cual significa que no tenemos una fórmula
ahí.

Vamos a dar la definición formal de árbol genealógico; utiliza algunos conceptos de


teoría de gráficas que no hemos revisado, pero incluso sin ellos, es bastante claro a qué
se refiere.
Definición 29: Árbol genealógico

El árbol genealógico de una fórmula es una gráfica cuyo nodo raíz es la


misma fórmula, tal que: si la fórmula es una variable proposicional, el árbol
no tiene más nodos; si la fórmula es una negación, tendrá un único nodo
descendiente inmediato: la fórmula negada; y si la fórmula tiene a una co-
nectiva binaria como conectiva principal, tendrá dos nodos descendientes
inmediatos: a la izquierda, la subfórmula a la izquierda de la conectiva, y
a la derecha, la subfórmula a la derecha de la conectiva. Se sigue recur-
sivamente hasta llegar a las fórmulas atómicas.

En los siguientes ejercicios vamos a practicar varios de los conceptos de las últimas
secciones.
Ejercicio # 15
A . Di cuál es la conectiva principal de las siguientes cadenas de símbolos. Si alguna
no es fórmula, justifica por qué.
1. [(¬t ⊃ ¬r ) ≡ (¬q ⊃ s )] & [¬t ⊃ ¬(p ∨ q )]
2. ¬(t ⊃ p) & [(q ∨ r ) ≡ ((t ⊃ r ) ∨ (s & q ))]
3. ¬s ∨ p & q
4. (q ∨ ¬s ≡ [¬q ∨ (r ⊃ p)
5. [(q ≡ r ) ∨ ¬s ] ≡ [(p ∨ r ) ⊃ ¬q ]
B . Escribe las siguientes fórmulas, que están en la notación polaca, en la notación que
hemos estado usando.
1. ApN r
2. N K q N s
3. EC ts K pN q

103
4. K K q N r Epq
5. C K N q N r N EN q N r
C . Toma la siguiente cadena de símbolos:

¬p ⊃ q ≡ ¬s & t

y utiliza los paréntesis para desambiguarla y obtener, en cada caso:


1. Una negación de una proposición
2. un condicional material entre dos proposiciones,
3. una equivalencia entre dos proposiciones,
4. una conjunción de dos proposiciones.
(Pista: El número de paréntesis de toda fórmula siempre debe resultar par: mismo nú-
mero de paréntesis izquierdos que derechos.)

104
Proyecto del capítulo:
Antecedentes d *
Problema d *

Resumen del capítulo


⋆ El lenguaje de LC0 consiste en:
• Alfabeto
• Reglas de formación
⋆ Podemos clasificar a las fórmulas en:
• Atómicas
• Moleculares
⋆ Toda fórmula molecular va a tener una conectiva principal.
⋆ Existen diversos sistemas de notación, como:
• El que usamos nosotros
• Notación polaca

Notas

1. Un texto muy introductorio y muy breve es Estrada González 2005. Otro recomendable es Gómez Torren-
te 2000, aunque este es más avanzado. Algunas referencias clásicas para estos temas son la Conceptografía
de Frege (en Frege 2016), la conferencia «La lógica como la esencia de la filosofía» de Russell (en Russell
1914/1964), y el Tractatus Logico-Philosophicus de Wittgenstein (Wittgenstein 1921/2012). Para introduccio-
nes recientes Cohnitz & Estrada González 2019 es recomendable, aunque está en inglés. Dos artículos
enciclopédicos importantes son MacFarlane 2017 y Pietroski 2016.

2. Para ver más ejemplos, ver Raymundo Morado, «Conectivas Lógicas», manuscrito. Disponible en su sitio
web.

3. Para ver más ejemplos, ver Raymundo Morado, «Conectivas Lógicas», manuscrito. Disponible en su sitio
web.

4. Ver Raymundo Morado, «Conectivas lógicas».

5. Incluso como modelo del razonamiento en matemáticas, el condicional material ingnora algo que ciertos
lógicos pensaban que también estaba presente: la aparente necesidad de la conexión entre los enunciados
de las matemáticas y sus consecuencias.

105
6. Ver Palau et al.(2004).

7. Por ejemplo: Lewis, Counterfactuals; Schnieder, «A Logic for ‘Because’ »; Fine, «Guide to Ground».

8. Como Geoffrey Hunter, Metalogic, capítulo 17.

9. Como Copi, Lógica Simbólica.

10. Como Mendelson, 1997.

11. Como Badesa, Jané y Jansana, 1998.

12. En realidad, existen problemas muy interesantes en la interacción entre las propiedades lógicas de un
sistema y las características de la notación con la que lo describimos; problemas que, desafortunadamente,
no podemos tratar aquí. Para un buen inicio, ver «Símbolos y Notación Lógica», de Axel Barceló, en su
blog Conceptual.

13. Algunos autores usan «fórmulas bien formadas», que abrevian con «fbf» (o con «wff», por la expresión
en inglés: well formed formula), pero aquí no seguiremos esa convención.

14. Las serifas son las «patitas» en las letras. Una fuente con serifas, como la que estoy usando en este libro,
tiene «patitas», que puedes ver en la letra: «p», mientras que sin serifas, se ve así: «p».

15. El mismo que usa Alonzo Church, Introduction to Mathematical Logic, Princeton University Press, 1956, p.
38.

16. Comparar con Badesa, Jané y Jansana, Elementos de Lógica Formal, Ariel, pp. 129-130.

106
capítulo

La interpretación de LC0

Contenidos del capítulo

Ejemplo: Movimiento rectilíneo uniforme 108


Del lenguaje formal al natural: interpretación 109
Del lenguaje natural al formal: formalización 112

Objetivos de aprendizaje
1. Que comprendas el concepto de interpretación del lenguaje formal.
2. Que comprendas el concepto de formalización del lenguaje natural.

107
a lógica LC0 es un sistema lógico (definición 14), pero, como vimos en la sec-

L ción 3, lo usamos como un modelo de la argumentación. Lo primero quiere


decir que es un lenguaje, definido con ciertos símbolos y reglas de formación, y
además esos símbolos tienen una definición semántica: en este caso, mediante las tablas
de verdad que veremos en el siguiente capítulo. Además, algunas de estas fórmulas se
infieren válidamente de otras, como veremos en un capítulo posterior. Pero todo esto es
a nivel formal, matemático.
Lo segundo —es decir: que usamos al sistema de la lógica como un modelo de la
argumentación— quiere decir que utilizaremos sus fórmulas como representaciones de
proposiciones del lenguaje natural. Como ya vimos en la sección 4.1, las conectivas
proposicionales se usan como modelos de algunas conectivas del lenguaje natural, y las
variables proposicionales se utilizan como modelos de las proposiciones atómicas. Un
modelo es una representación. En este breve capítulo vamos a hacer explícitas las dos
«caras» de esta representación. Empecemos con un ejemplo.

5.1. Ejemplo: Movimiento rectilíneo uniforme

Tomaremos un ejemplo del modelado matemático que nos dan desde la educación
media, un típico problema de la materia de Física:
Dos pueblos que están a una distancia de 20 km uno del otro están unidos
por una carretera recta. Joselito, un ciclista, va de un pueblo al otro; su
velocidad es constante, de 10 m/s. ¿Cuánto tiempo tardará en llegar de un
pueblo al otro?
Este sería el problema. De este, tenemos que extraer los datos, que son las magnitudes
relevantes para poder resolverlo:
Distancia: 20 km (rectilíneos)
Velocidad: 10 m/s (constante o uniforme)
Y esta sería la «fórmula» o ley que usaremos para calcular, con los datos, una solución
al problema:
x = x 0 + vt (5.1)
Esta ecuación nos dice que la posición del objeto en un determinado momento, x, es
igual a la posición inicial (en algún momento anterior), x 0 , más: la multiplicación de la
velocidad con que se ha movido, v , por el tiempo transcurrido, t .
Ya tenemos los ingredientes básicos. ¿Qué falta?
Primero, pasar los datos al lenguaje matemático en el que está escrita la ley. (En el
modelo de la lógica, esto corresponde a la formalización.) Segundo, usar la ley para
calcular el resultado. Para ello usamos técnicas matemáticas—en este caso, álgebra y

108
aritmética. (Esto corresponde a las distintas técnicas que veremos después para demos-
trar validez o invalidez de un argumento.) Tercero, «traducir de regreso» el resultado,
de manera que el resultado, que era puramente matemático, sea ahora una respuesta al
problema físico. (Esto corresponde a la interpretación de fórmulas del sistema lógico
con proposiciones expresadas en el lenguaje natural.)
Entonces, formalizamos:
x 0 = El pueblo del que sale Joselito.
x = El pueblo al que va Joselito = x 0 + 20, 000 (pues habíamos dicho que estaba a
20 km del primero, y estamos usando unidades en metros).
v = 10 m/s
t = incógnita
Después, usamos álgebra para despejar la variable que no concemos en la ecuación
5.1:
x − x0
t= (5.2)
v
Es decir,
20, 000m
t=
(10 ms )
Ya teniendo esto, usamos aritmética para encontrar el resultado:
t = 2,000 s = 33.333 . . . min (5.3)
Esta (un tiempo de 33 minutos y un tercio, es decir, 33 minutos y 20 segundos) nos da
la respuesta al problema original, pues la ecuación 5.3 nos da no sólo un número, sino
una cantidad física de tiempo.
El problema que acabamos de ver y su resolución es un ejemplo más del modelado
matemático, pero haciendo explícito el proceso que esquematizamos en la sección 3,
con la figura 3.1. En la figura 5.1 hay un esquema menos abstracto.

5.2. Del lenguaje formal al natural: interpretación

A grandes rasgos, interpretar una fórmula es proveer una proposición, expresada en


el lenguaje natural, que puede ser representada por tal fórmula.
Siendo un poco más rigurosos, una interpretación de una fórmula A consiste en una
función de interpretación, que podemos dar simplemente como una lista de cada una
de sus variables proposicionales, junto con la proposición simple que formalizan. Por
ejemplo, a la fórmula:
p ⊃ (q ∨ r )
podemos interpretarla con la proposición:

109
Problema

formalización

interpretación

Datos Leyes

matemáticas

Resultado

Figura 5.1: Esquema del uso de modelos en física.

Si salimos el viernes, o vamos al cine o vamos a cenar


Como también veremos con la formalización, existen interpretaciones más o menos
perspicuas que otras. Decimos que una interpretación es perspicua cuando la fórmula
«recorta» de la manera más fina posible la forma lógica con la que la interpretamos.
¿Qué significa esto?
Consideremos otra vez la fórmula p ⊃ (q ∨ r ). La podemos interpretar con la propo-
sición:
Si no salimos el jueves, o jugamos videojuegos o pedimos pizza y vemos una película
Pues interpretaríamos así:
• p = No salimos el jueves,
• q = Jugamos videojuegos,
• r = Pedimos pizza y vemos una película.
Pero esta interpretación no es la más perspicua posible. ¿Por qué? Porque las propo-
siciones con que interpretamos a p y a r no son atómicas: contienen partículas que, a
su vez, podríamos representar lógicamente. Es decir: la forma lógica de la proposición
expresada por «Si no salimos el jueves, o jugamos videojuegos o pedimos pizza y vemos una
película», no es exactamente la de la fórmula p ⊃ (q ∨ r )—aunque puede serlo si es que
pasamos por alto cierta estructura en las proposiciones.
Entonces, la interpretación de la fórmula: «p ⊃ (q ∨ r )» con la proposición:
Si salimos el viernes, o vamos al cine o vamos a cenar

110
es más perspicua que la interpretación con la proposición:
Si no salimos el jueves, o jugamos videojuegos o pedimos pizza y vemos una película,
pues la segunda tiene conectivas lógicas que no se representan en la fórmula.
De hecho, hablando para todos los casos, tenemos esta definición:
Definición 30: Interpretación perspicua

Una interpretación perspicua de una fórmula interpreta a las atómicas en


esa fórmula sólo con proposiciones simples, y a las conectivas de esa
fórmula con sus correspondientes conectivas de la lógica formal.

Vamos a ejemplificar el proceso de interpretar una fórmula; después de ello, ejercita-


remos el concepto.

Supongamos que me dan esta fórmula:


(¬p ∨ r ) ⊃ ¬s
La interpreto primero interpretando sus variables proposicionales con cualquier pro-
ejemplo 19

posición atómica que yo prefiera:


p : Hace buen día.
q : Viene tu mamá.
r : Vamos al cine.
Para, finalmente, dar la interpretación de la fórmula entera, usando la interpretación
de las atómicas y de las conectivas:
Interpretación Si o no hace buen día o viene tu mamá, entonces no vamos al
cine.

Ejercicio # 16
Interpreta de manera perspicua cada una de las 10 fórmulas siguientes:
1. p & s 6. (q & r ) ∨ (t & s )
2. t ⊃ ¬p 7. (q ⊃ ¬s ) ≡ (t ∨ ¬r )
3. q ≡ (p & r ) 8. (r ≡ ¬s ) ⊃ (q & ¬r )
4. q ≡ (p & ¬r ) 9. [q ∨ (r ∨ s )] ≡ ¬(t & r )
5. (t ∨ s ) ⊃ (p & ¬p) 10. 9 ∨ ¬ 8

111
5.3. Del lenguaje natural al formal: formalización

«Formalizar una proposición» significa representarla en el lenguaje de la lógica formal.


Se dice que una formalización es perspicua cuando la fórmula tiene la estructura lógica
más fina que puede representar de la proposición. Veamos qué quiere decir esto.
La proposición expresada por la siguiente oración:
O pedimos pizza y cenamos en casa, o vamos al café y cenamos ahí
podría formalizarse con una simple variable proposicional:
• O pedimos pizza y cenamos en casa, o vamos al café y cenamos ahí = p,
pero, obviamente, esto es muy poco satisfactorio. Una opción más satisfactoria, al ser
más perspicua, sería formalizarla con:

p ∨ q,

tomando:
• Pedimos pizza y cenamos en casa = p,
• Vamos al café y cenamos ahí = q .
Pero esta opción tampoco es la más perspicua, pues otra vez estamos ignorando conec-
tivas lógicas dentro de las proposiciones que le asignamos a las atómicas. De hecho, la
opción más perspicua sería:
(p & r ) ∨ (q & s ),
tomando:
• Pedimos pizza = p,
• Cenamos en casa = r ,
• Vamos al café = q ,
• Cenamos [en el café] = s .
Esta es la opción más perspicua porque le hemos asignado proposiciones simples
a las fórmulas atómicas, haciendo corresponder las conectivas en la proposición
molecular con las de la fórmula.
En general,
Definición 31: Formalización perspicua

Una formalización perspicua de una proposición p expresada en el len-


guaje natural, formaliza a las proposiciones atómicas presentes en p sólo
con fórmulas atómicas, y a las conectivas lógicas de esa proposición con
sus correspondientes conectivas de la lógica formal.

112
Para formalizar, hay que seguir los siguientes pasos:
Primero Organiza los argumentos en premisas y conclusiones: primero las premisas,
luego un indicador de inferencia, y finalmente, la conclusión. Recuerda que un
argumento puede tener su conclusión al inicio, en medio o al final. (Puedes revisar
este video para recordar.)
Segundo Formaliza cada proposición. Recuerda que esto consiste en definir una inter-
pretación: una variable proposicional para cada proposición atómica, y entonces
extraer las conectivas que están presentes en las fórmulas complejas; finalmente,
ofrecer una fórmula que (dadas las conectivas en esa proposición y el diccionario)
represente esa proposición.
Tercero Arregla las fórmulas en orden, de acuerdo a los dos pasos anteriores: enumera
las premisas, y en la siguiente línea pon un símbolo de «por lo tanto» (es decir:
∴) seguido de la conclusión.

Supongamos que me dan este argumento:


Si la libertad no existe, tampoco la creación. Si la creación no existe,
el arte no es posible. Por lo tanto, si la libertad no existe, el arte no es
posible.
Lo formalizaría primero, distinguiendo premisas y conclusión:
Premisa 1. Si la libertad no existe, tampoco la creación.
Premisa 2. Si la creación no existe, el arte no es posible.
ejemplo 20

Conclusión. Si la libertad no existe, el arte no es posible.


Para hacer un ejercicio, no siempre es necesario entregar este primer paso de dis-
tinguir premisas y conclusión, pero es muy útil hacerlo.
Como segundo paso, defino una interpretación:
p : La libertad existe.
q : La creación existe.
r : El arte es posible.
Tercero, enumero premisas y conclusión formalizadas, con lo cual termino mi trabajo:
1. ¬p ⊃ ¬q .
2. ¬ ⊃ ¬r .
∴ ¬p ⊃ ¬r .

Ejercicio # 17
Formaliza los siguientes argumentos.
• El arte es mimesis y el arte es katarsis. Pero el arte es mimesis y katarsis siempre y
cuando: el artista busca representar y, también, busca expresar. Si el artista busca
expresar, entonces el arte es subjetivo. Si el artista busca representar, entonces

113
el arte es objetivo. Por lo tanto, el arte es subjetivo y objetivo.
• Si me ruegas, tenemos un gran futuro. Pues basta que me ruegues para que
te perdone; pero te perdono siempre y cuando no lo vuelvas a hacer; y si no lo
vuelves a hacer, tenemos un gran futuro.
• Pasaré el examen de idiomas y me graduaré. Me graduaré, lo que requiere que
termine los créditos. O dejo el trabajo o no termino los créditos. O sea que, en
definitiva, todo lo anterior conlleva que voy a pasar el examen y voy a dejar el
trabajo.
• Si te quiere, te trata bien. Pero si te trata bien, esperará reciprocidad. De ahí que,
si te quiere, esperará reciprocidad y le importará tu bienestar. Pues no va a pasar
que: espere reciprocidad y no le importa tu bienestar.

A veces no es totalmente obvio cómo formalizar un argumento, pues pueden ocurrir


una o más de estas circunstancias:
• El argumento a formalizar puede contener aclaraciones que forman parte del
contexto del argumento, no del argumento mismo.
• El argumento puede contener premisas implícitas, que deben hacerse explícitas
para demostrar la validez.
• Puede ser necesario parafrasear lo dicho en el texto, para que se «ajuste» al modelo
que nos da LC0.
• En todavía otros casos, es necesario parafrasear mucho para poder encontrar el
«núcleo», por así decir, del argumento, lo que el autor parece querer decir.
Antes de cerrar el capítulo, vamos a hacer varios ejercicios de formalización con
algunos argumentos tomados de textos reales de filosofía.
Ejercicio # 18
Formaliza los siguientes argumentos. Puedes usar la misma interpretación para los
cinco argumentos (es decir, las mismas variables proposicionales para las mismas pro-
posiciones atómicas). En el caso del argumento de Mill (tercer argumento de abajo), que
debe parafrasearse mucho, pongo la paráfrasis entre paréntesis, y eso es lo que hay que
formalizar.
1. Si conocer es percibir, entonces: conozco algo si y solamente si percibo lo co-
nocido. Si recuerdo algo y lo que recuerdo está bien guardado en la memoria,
conozco lo que recuerdo. Si recuerdo algo y cierro los ojos, entonces (de todos
modos) conozco lo que recuerdo. Pero: si conozco algo siempre y cuando per-
cibo lo conocido, entonces: si cierro los ojos y recuerdo algo, no conozco lo que
recuerdo. Por lo tanto, conocer no es percibir. (Platón, Teeteto, 163b-164b)
2. Cada una de las tres propuestas (que consideraré) no triunfa sin que tenga éxito el

114
programa de nominalización de Field (o algo muy parecido a ello). Así que, al final,
esas tres propuestas no son caminos fáciles. (Premisa implícita: las tres propues-
tas son caminos fáciles si y solamente si: triunfan y no tiene éxito el programa de
nominalización de Field.) (Mark Colyvan, ‘There is No Easy Road to Nominalism’,
Mind, 2010)
3. Él [Kant] establece, en el tratado en cuestión [Fundamentación de la Metafísica
de las Costumbres], un primer principio universal como origen y fundamento de la
obligación moral; es éste: Obra de manera que tu norma de acción sea admitida
como ley por todos los seres racionales. Pero, cuando empieza a deducir de este
precepto cualesquiera de los deberes actuales de moralidad, fracasa, casi grotes-
camente, en la demostración de que habría alguna contradicción, alguna imposi-
bilidad lógica (por no decir física) en la adopción por todos los seres racionales de
las reglas de conducta más atrozmente inmorales. Todo cuanto demuestra que
las consecuencias de su adopción universal serían tales que nadie se decidiría a
incurrir en ellas. (Paráfrasis: El principio de Kant es compatible con la adopción
de las reglas de conducta inmorales. Si eso pasa, entonces nadie actúa bajo ese
principio. Si nadie se actúa bajo el principio de Kant, entonces este no es origen
y fundamento de la obligación moral. Ergo, el principio de Kant no es origen y
fundamento de la obligación moral.) (John Stuart Mill, El Utilitarismo, capítulo I)
4. Hay compuestos. Una sustancia compuesta es un agregado de simples. Por lo
tanto, hay sustancias simples. (Premisa implícita: Si una sustancia compuesta es
un agregado de simples, y hay sustancias compuestas, entonces hay simples.)
(Leibniz, Monadología, §1)
5. Pero ¿no cree que hay suficientes casos registrados de personas que creen que
han oído cómo Satán les hablaba dentro de su corazón, del mismo modo que
los místicos afirman a Dios? Y ahora no hablo de una visión exterior, hablo de
una experiencia puramente mental. Ésa parece ser una experiencia de la misma
clase que la experiencia de Dios de los místicos, y no veo por qué, por lo que nos
dicen los místicos, no se puede sostener el mismo argumento en favor de Satán.
(Paráfrasis: Si hay personas que creen que les ha hablado Satán, entonces: si
los místicos infieren la existencia de Dios a partir de sus experiencias, entonces
podemos inferir la existencia de Satán a partir de la experiencia de las personas
que creen que les habla Satán. Si podemos inferir la existencia de Satán a partir de
la experiencia de las personas que creen que les habla, entonces el argumento de
los místicos es inválido. Hay personas que creen que les ha hablado Satán. Por lo
tanto, el argumento de los místicos es inválido.) (Bertrand Russell: «La existencia
de Dios», debate con F.C. Copleston)

115
Proyecto del capítulo:
Antecedentes d *
Problema d *

Notas

116
capítulo

6
Definición semánti-
ca por tablas de verdad

Contenidos del capítulo

Concepto de función 118


Veritativo-funcionalidad y tablas de verdad 120
Presupuestos clasicistas en las tablas de verdad 122
Las tablas de verdad de las conectivas 122
Asignación de valores 124
Tablas para fórmulas con varias conectivas 125
Clasificación semántica de las fórmulas 129
Equivalencia e implicación lógica: Semántica 133

Objetivos de aprendizaje
1.
2.

117
as conectivas lógicas son, al nivel de la gramática de LC0, símbolos que co-

L nectan fórmulas entre sí (cf. el capítulo 4). Al nivel de la semántica formal,


estos símbolos representan funciones de valores de verdad. (Al nivel del mo-
delado, estas conectivas representan partículas del lenguaje: cap. 5). De igual forma,
las variables proposicionales son, a nivel del lenguaje, símbolos; pero al nivel de la se-
mántica formal, variables que pueden tomar uno y sólo uno de dos valores posibles:
V y F —verdadero y falso. (Y las usamos, por supuesto, para modelar proposiciones
atómicas.)
Vamos a definir la noción de función, y después la de función de valores de verdad.

6.1. Concepto de función

Como veremos abajo (en la sección 6.4), cada una de las conectivas lógicas es una
función de valores de verdad. Primero definamos qué es una función.
Definición 32: Función
Una función es una regla de asociación entre dos conjuntos, de manera
que, para cada entrada (elemento del primer conjunto) le corresponde una
única «salida» (elemento del segundo). Que una función sea una regla
significa que hay una manera de especificarla —de definirla— de una vez
para siempre.

Una manera útil de pensar a las funciones es como «máquinas», que toman a la entra-
da, la «procesan» de acuerdo a la regla que las define, y nos devuelven el resultado. Vamos
a ilustrar esto gráficamente, en la figura 6.1.1 Usaremos x como variable para los ele-
mentos de la entrada, y f como variable para las funciones. Entonces, f (x) va a ser la
función aplicada a x, que es idéntica al resultado.

Figura 6.1: Una función puede verse como una máquina.

Dijimos que una función es una regla de asociación entre dos conjuntos, lo cual nos ser-
virá por ahora. La idea es que una función asocia elementos «de dos conjuntos» porque

118
toma elementos de un conjunto —el conjunto de las entradas— y nos devuelve elemen-
tos del segundo conjunto—el conjunto de las salidas. (Aunque, de hecho, el conjunto de
entradas y el de las salidas pueden ser el mismo, de manera que la función tome entra-
das en un conjunto, las «procese» y nos devuelva valores del mismo conjunto. En este
sentido, la función «va» de un conjunto a ese mismo conjunto, solo que «tomándolo»
dos veces.)
La notación que se usa para definir de qué conjunto tomamos la entrada y de cuál la
salida de una función f , es la siguiente:

f : E −→ S,

donde E es el conjunto de las entradas y S el de las salidas. Por ejemplo, si tomamos


la función sucesor, que para cada número natural nos da ese número sumándole 1,
tendríamos:
sucesor : ℕ −→ ℕ

Sólo nos falta la notación para la regla que define a la función. En muchos ámbitos,
es usual definir a las funciones—especificar las reglas—con esta notación (fíjate que
también es una flecha, pero con una «colita», y que no va de conjuntos a conjuntos, sino
de entradas al valor correspondiente):

f (x) ↦−→ y,

donde y es el valor que resulta de aplicarle f a una entrada x, y en el que definimos la


regla. Por ejemplo, para el caso de la función sucesor, escribiríamos:

s uce sor (x) ↦−→ x + 1

Otra notación usual (en algunos ámbitos) para definir una función es así:

f (x) := y

Por ejemplo,
s uce sor (x) := x + 1

Dijimos que una función es una regla de asociación entre dos conjuntos, de manera
que a un elemento del primer conjunto le corresponde uno, y un único elemento del
segundo. Todas las funciones que vimos arriba cumplen con esto—¡si no, no serían
funciones! Si una «función» nos devuelve cero, dos o más valores para una misma
entrada, se dice que «no está bien definida», y en realidad no cuenta como función.

119
Ejercicio # 19
I Dime si las siguientes reglas definen a una función o no, y por qué.
1. Para todo papá, devuelve su hijo.
2. Para todo papá, devuelve su hijo primogénito.
3. Para auto vendido, devuelve su más reciente dueño.
4. Para cada mano de una persona, devuelve su otra mano.
5. Para toda persona, devuelve una con la que haya tenido una amistad.
6. Para todo papá, devuelve su hijo.
7. Para cada país del planeta, devuelve un idioma que se hable ahí.
8. Para cada ciudad del país, devuelve su montaña más grande.
9. Para cada Copa Mundial de futbol, devuelve su ganador.
10. Para cada país del planeta, devuelve su capital.

II Dame diez ejemplos de funciones. Para cada uno, puedes ya sea definir su regla
(como en los casos de arriba), o poner una función matemática explícita (como: « f (x) =
x 3 »).

6.2. Veritativo-funcionalidad y tablas de verdad

Las conectivas lógicas proposicionales son operaciones con valores de verdad: funcio-
nes (def. 32) que toman uno (la negación) o dos (las demás) valores de verdad, y regre-
san exactamente un valor de verdad. Se dice, entonces, que son conectivas veritativo-
funcionales.
Por ejemplo, la negación es una función que toma un valor de verdad—el de la fórmula
negada—y nos devuelve un único valor de verdad: el de la fórmula negativa. Denotemos
con un «dos» en negritas al conjunto de los dos valores de verdad: 2 = {V, F}. Entonces,
usando la notación de la sección anterior para funciones, diríamos:
¬ : 2 −→ 2
Es decir: la negación toma uno de los dos valores de verdad, y nos da otro de los valores
de verdad. ¿Cuál es la regla que define a esta función?
Bueno, pues que la negación de una fórmula falsa es verdadera, y que la negación
de una fórmula verdadera, es falsa. Lo primero lo podríamos poner, usando una de las
notaciones de la sección anterior,
¬(V) ↦−→ F
o lo que es lo mismo, usando la otra:
¬(V) := F

120
Mientras que la segunda parte sería también: ¬(F) ↦−→ V, o igualmente: ¬(F) := V.
Ahora bien, tenemos también conectivas binarias. Por ejemplo, la disyunción, que es
una función que toma dos valores de verdad: el de cada uno de los disyuntos, y nos
devuelve un único valor de verdad: el de la fórmula disyuntiva. Entonces, la disyunción
va desde 2 «dos veces»—porque toma dos valores como entrada—a 2 «una vez», porque
regresa un solo resultado. Usando «×» para decir cuántas veces toma valores de un
conjunto, escribiríamos:
∨ : 2 × 2 −→ 2
Y podríamos usar notaciones (maneras de escribir los conceptos: secc. 4.2) como las
anteriores para cada uno de sus casos. Por ejemplo:

∨(V, F) ↦−→ V

Pero para el caso de las conectivas lógicas, lo usual es definirlas mediante su tabla
de verdad, que nos dice, para cada posible combinación de valores de verdad de las
proposiciones conectadas, qué valor de verdad tiene la proposición compuesta (com-
pleja, molecular) resultante. Es decir: las tablas de verdad nos definen a las conectivas
semánticamente —pues dan su semántica formal— y de manera explícita, pues dan todas
sus posibles maneras de operar con sus entradas.
Las tablas de verdad son un caso particular del concepto de tabla de función en ma-
temáticas. Una tabla de función nos dice, para cada entrada de la función, el resultado
de aplicar esta función a esa entrada.
Como veremos ahora, las funciones de LC0 tienen un número muy pequeño de po-
sibles entradas, definido por los dos valores de verdad. Pero esto no pasa siempre. Por
ejemplo, al aprender aritmética nos enseñan las tablas de multiplicar: para cada número
entero del 0 al 10, estas tablas nos dan el resultado de multiplicarlo por cada número
entero del 0 al 10. Incluyen, entonces, ejemplos como «3 × 3 = 9» o «5 × 7 = 35». Pero
sería imposible dar la tabla de función completa para la multiplicación—¡Por el sencillo
hecho de que esta es infinita! Tendría que incluir no sólo los números del 0 al 10. . . ¡Sino
la tabla de todo número, y además, no sólo multiplicar cada uno de los números por
un número del 0 al 10, sino por cada uno de todos los números! Nunca acabaríamos de
escribir, y menos de aprender, estas tablas. Por ello, es mucho más sencillo aprenderse
las reglas básicas —las tablas de multiplicar de la escuela primaria—, y luego aprender
un algoritmo —una serie de reglas— para utilizar estas tablas al multiplicar cualquier
número que nos presenten. Este es el tipo de procedimiento que utilizaremos aquí.
Por otro lado (y como veremos después: en el capítulo 8), las definiciones de las
conectivas mediante las tablas son equivalentes con la validez de ciertos esquemas de
inferencia. Pero primero, vamos a definir estas tablas. Y para ello, primero pongamos
sus presupuestos filósofico-matemáticos sobre la mesa.2

121
6.3. Presupuestos clasicistas en las tablas de verdad

Las tablas de verdad de LC0 se definen bajo cuatro presupuestos esenciales:


• Existen dos y sólo dos valores de verdad.
• Toda proposición tiene al menos un valor de verdad.
• Ninguna proposición tiene más de un valor de verdad.
• Las conectivas son veritativo-funcionales.
Probablemente debamos agregar al menos dos supuestos más, pero ahora vamos enfo-
carnos en estos.3
Les llamo «presupuestos clasicistas» porque son presupuestos que definen lo que sig-
nifica que las tablas que vamos a ver sean tablas de la conectivas de la lógica clásica,
es decir, de LC0. Las conectivas (de orden cero) de muchas lógicas no clásicas (cf. la
sección 3.5) no siguen estos presupuestos. Por ejemplo: algunas aceptan conectivas que
no son veritativo-funcionales,4 otras rechazan que ninguna proposición tenga más de
un valor de verdad,5 y otras rechazan que sólo haya dos valores de verdad.6

6.4. Las tablas de verdad de las conectivas

De nuevo: una tabla de verdad nos dice, para cada posible combinación de valores
de verdad de las proposiciones conectadas, qué valor de verdad tiene la proposición
compuesta (compleja, molecular) resultante. Entonces necesitamos exponer todas las
posibles combinaciones de valores de verdad. Vamos a dar una definición rigurosa.
Definición 33: Tabla de verdad
Una tabla de verdad es una matriz: un arreglo de valores en columnas y
filas.
Las columnas (verticales) corresponden a las una fórmulas atómicas (va-
riables proposicionales) y a las conectivas: una columna por cada una de
las atómicas y por cada una de las conectivas.
Las filas (horizontales) corresponden a las posibles combinaciones de va-
lores de verdad: cada fila tendrá: en la columna que corresponde a una
atómica, un valor de verdad, y en la columna que le corresponde a una co-
nectiva, el valor de verdad que tiene la fórmula molecular que corresponde
con esa conectiva.
Dada una fórmula con n atómicas, la tabla que le corresponde va a tener
2n filas; dada una fórmula con un número n de atómicas y un número p de
conectivas lógicas, la tabla que le corresponde va a tener un número n + p

122
de columnas. Entonces, a cada fórmula con n atómicas y p conectivas, le
corresponderá una matriz de dimensión (2n ) × (n + p) .

Vamos a dar la tabla de verdad de cada conectiva. Diremos que esta tabla define
semánticamente a la conectiva: nos dice cómo se define la función de valores de verdad
que es «el aspecto semántico» de la conectiva.
Además, para cada tabla, vamos a dar una regla mnemotécnica, que resume lo esen-
cial de la tabla y que nos permite construirla sin recordar mucho más.

6.4.1. La tabla de verdad de la negación

¬ A
F V
V F
La negación invierte los valores: negación de V es F; negación de F es V.

6.4.2. La tabla de verdad de la conjunción

A & B
V V V
V F F
F F V
F F F
La conjunción sólo es verdadera cuando ambas proposiciones son verdaderas (y
es falsa en todos los demás casos: cuando una es falsa y cuando ambas son falsas).

6.4.3. La tabla de verdad de la disyunción inclusiva

A ∨ B
V V V
V V F
F V V
F F F
La disyunción es falsa sólo cuando ambas proposiciones son falsas (y es verdadera
en los demás casos: cuando ambas son verdaderas, o cuando solo una es verdadera).

123
6.4.4. La tabla de verdad de la equivalencia material

A ≡ B
V V V
V F F
F F V
F V F
La equivalencia material sólo es verdadera cuando ambas proposiciones tienen
el mismo valor de verdad: o ambas falsas, o ambas verdaderas. Si una tiene un valor
y la otra el otro, el bicondicional es falso.

6.4.5. La tabla de verdad de la implicación material

A ⊃ B
V V V
V F F
F V V
F V F
La implicación material es falsa sólo cuando el antecedente es verdadero y el
consecuente es falso. En todos los demás casos (los dos casos con antecedente falso;
antecedente verdadero y consecuente verdadero), es verdadero.

6.5. Asignación de valores

Como dijimos antes, una tabla nos da todas las posibles combinaciones de valores de
verdad de las fórmulas atómicas de una fórmula, y mediante la definición semántica de
cada conectiva, nos da todas los posibles valores de verdad en cada una de esas posibles
combinaciones. Cada una de estas posibles combinaciones de valores de verdad de las
fórmulas atómicas —es decir, cada renglón de una tabla— es lo que llamamos una
asignación, definida como sigue.
Definición 34: Asignación de valores de verdad

Una asignación de valores de verdad a una fórmula es simplemente un


renglón de su tabla de verdad. Es decir, es darle un valor de verdad a
cada variable proposicional. Como el valor de verdad de una fórmula es-
tá determinada por (1) el valor de verdad de cada una de sus fórmulas
atómicas (variables proposicionales) y (2) la definición de las constantes
lógicas (mediante sus tablas), una asignación de valores a las variables

124
proposicionales de una fórmula determina el valor de la fórmula completa.

6.6. Tablas para fórmulas con varias conectivas

Las tablas de la sección 6.4 nos dan la definición semántica de cada conectiva. Por lo
tanto, sólo nos dicen cómo «actúa», cómo opera cada conectiva con dos valores—si es
una conectiva binaria—o con uno—si es la conectiva unaria, la negación. Pero ahora
vamos a extender esta definición para poder evaluar fórmulas con varias conectivas. La
extensión consiste en definir el siguiente algoritmo.
Definición 35: Tablas de fórmulas con más de una conectiva
Para construir la tabla de verdad de una fórmula que tiene más de una
conectiva lógica, hay que aplicar las tres reglas siguientes.
Dos a la n Calculo 2n (2 a la n -ésima potencia), donde n = número de
variables proposicionales distintas en mi fórmula: si una misma va-
riable aparece más de una vez, no la cuento. El número resultante
es el número de filas que va a tener mi tabla de verdad.7
Mitad de la mitad Ya teniendo mis 2n filas de la tabla, para mi primera
letra proposicional (empezando por la que está hasta la izquierda)
pongo la primera mitad (es decir, mis primeras « (2n ) a la mitad»
o: (2n )/2) de esas filas todas verdaderas, y la segunda mitad todas
falsas. Para la siguiente letra (hacia la derecha), la mitad de la mitad
de la primera V, la otra mitad de mitad F, la siguiente mitad de mitad
V, y la siguiente y última mitad de mitad F. Si hay más letras, hago lo
mismo: para la tercera letra, pongo la mitad de la segunda V, la otra
mitad F. . . Y así me voy hasta la última letra. Si he hecho todo bien,
a la última letra que no se repita sólo me resta asignarle una V, la
siguiente F, y así: es decir, la asignación quedará «una y una» en la
última letra que no se repita. Nota: si una misma letra se repite en
la fórmula, simplemente copio la misma columna de la primera vez
que aparece en todas las demás columnas en las que aparezca.
De adentro hacia afuera, usando las tablas básicas Ya que ten-
go todas las filas de mis letras (es decir, de mis sub-fórmulas ató-
micas), aplico mis tablas de verdad básicas, empezando «de aden-
tro hacia afuera». Para ello, primero descubro cuál es la conectiva
principal de mi fórmula. Esa es la conectiva que voy a calcular al fi-
nal. Después me voy a las sub-fórmulas, y para cada una, descubro
su conectiva principal. Sigo así hasta llegar a las sub-fórmulas que

125
están «más adentro» (que ya no tienen sub-fórmulas). Empiezo por
esas.8
Al haber calculado la columna bajo la conectiva principal he terminado mi
tabla de la fórmula compleja.

Veamos un ejemplo.

Supongamos que tengo esta fórmula:

r & (s ∨ ¬p)

Para construir su tabla, sigo los pasos de la definición 35.


Primero aplico la regla «Dos a la n ». Cuento el número de letras distintas: r,s , p ,
que es 3. Entonces,
2n = 23 = 2 × 2 × 2 = 8,
por lo que mi tabla va a tener 8 renglones o filas. Y como tiene 3 letras y 3 conectivas,
va a tener 6 columnas, una para cada una:

r & (s ∨ ¬ p
ejemplo 21

Ya tengo las filas y columnas, me falta llenarlas. Esto lo hago con mi regla «Mitad
de la mitad». Empiezo por la columna más hasta la izquierda, rellenando con Vs la
primera mitad de las filas y con Fs la segunda:

r & (s ∨ ¬ p
V
V
V
V
F
F
F
F
Continuo con la letra inmediatamente a la derecha. Empiezo rellenando con Vs la
mitad de las filas que rellené con Vs en la primera columna, la siguiente con Fs, y

126
así hasta terminar la tabla. 
r & (s ∨ ¬ p
V V
V V
V F
V F
F V
F V
F F
F F
Y siguiendo con la misma regla, termino con la última columna:

r & (s ∨ ¬ p
V V V
V V F
V F V
V F F
F V V
F V F
F F V
F F F
En resumen: por la regla «2n », como la fórmula tiene 3 variables proposicionales dis-
tintas, puse 23 = 8 renglones. Por la regla «mitad de la mitad», relleno la columna de
la primera letra a la izquierda así: la primera mitad de renglones con V, y la segunda
mitad con F —es decir: cuatro renglones V, y los últimos cuatro con F. Usando la
misma regla, paso con la letra inmediatamente a la derecha: s . Como la mitad de 4
es 2, las dos primeras filas en la columna de s van con V, las siguientes dos con F, y
así hasta terminar. Y termino con la última letra: p . La mitad de 2 es 1, así que ahora
empiezo con V y me voy uno y uno hasta terminar la columna.
Ya tengo todas las posibles asignaciones a esa fórmula: todas las posibles combi-
naciones de los valores de verdad a las variables proposicionales. Ahora aplico mi
regla «De adentro hacia afuera, usando las tablas básicas».
¿Cuál es la conectiva principal de esta fórmula? La conjunción. Esa la evalúo al final.
La conectiva más «hasta adentro» es la negación.
Entonces, primero aplico mi tabla para la negación a la fila de p : veo sus valores de
verdad y entonces aplico la tabla: donde hay V, la negación es F, etc. Voy a poner en
verde los valores de la columna o columnas que estamos tomando para los valores
de la columna de la conectiva que los toma, que estarán en rojo. Quedaría así:

127

r & (s ∨ ¬ p
V V F V
V V V F
V F F V
V F V F
F V F V
F V V F
F F F V
F F V F
Entonces aplico la tabla de la siguiente conectiva, que en este caso es ∨, la disyun-
ción. Para ella, tomo los valores de las fórmulas que conecta, que en este caso es s
y ¬p , y aplico la tabla de la ∨. (Por ejemplo, en el renglón en que s es V y ¬p es F,
voy a poner que s ∨ ¬p es V, porque así está en la tabla de la disyunción. Y así en
cada renglón.) Me quedará esto:

r & (s ∨ ¬ p
V V V F V
V V V V F
V F F F V
V F V V F
F V V F V
F V V V F
F F F F V
F F V V F
Finalmente, tomo mi conectiva principal, que en este caso es la conjunción &, y
calculo usando su tabla y los valores de las fórmulas que conecta, que en este caso
son r y (s ∨ ¬p) .

r & (s ∨ ¬ p
V V V V F V
V V V V V F
V F F F F V
V V F V V F
F F V V F V
F F V V V F
F F F F F V
F F F V V F

128
Ejercicio # 20
Realiza la tabla de verdad de cada una de las siguientes fórmulas:
1. p & s 6. (q & r ) ∨ (t & s )
2. t ⊃ ¬p 7. (q ⊃ ¬s ) ≡ (t ∨ ¬r )
3. q ≡ (p & r ) 8. (r ≡ ¬s ) ⊃ (q & ¬r )
4. q ≡ (p & ¬r ) 9. [q ∨ (r ∨ s )] ≡ ¬(t & r )
5. (t ∨ s ) ⊃ (p & ¬p) 10. 9 ∨ ¬ 8

6.7. Clasificación semántica de las fórmulas

Las fórmulas de LC0 se pueden dividir exclusiva y exhaustivamente en tres categorías,


dependiendo de qué valor de verdad puedan tener en distintas «circunstancias» —en
distintas asignaciones.
Como sólo hay dos valores de verdad, toda fórmula de LC0 va a cumplir una y sólo
una de las siguientes opciones: o bien es V en toda asignación, o bien es F en toda
asignación, o bien es V en algunas asignaciones, pero F en otras.
Las primeras, entonces, son fórmulas que son V en toda posible circunstancia —o, como
también se suele decir: son V en todo mundo posible. A estas se les llama verdades lógicas
de LC0, tautologías, o también fórmulas lógicamente necesarias —en el sentido en que son
fórmulas que, por pura lógica, tienen que ser verdad. Definamos, entonces:
Definición 36: Tautología

Una fórmula es una tautología cuando es V en toda posible asignación.

A las segundas, que son F en toda posible asignación —en toda circunstancia— se les
llama contradicciones. (Sería mejor decir que son auto-contradicciones.) Son lógicamente
imposibles —es decir, por pura lógica, tienen que ser falsas; también se dice que son las
falsedades lógicas del sistema LC0.
Definición 37: Contradicción
Una fórmula es una contradicción si es F en toda posible asignación.

Finalmente, el tercer tipo de fórmulas —que son V en ciertas circunstancias pero F


en otras— se conocen como contingencias, pues son «lógicamente contingentes» en el
sentido de no ser necesarias: ni necesariamente verdaderas, ni necesariamente falsas.

129
Definición 38: Contingencia

Una fórmula es una contingencia cuando es V en al menos una asigna-


cion y F en al menos otra asignación.

A su vez, a las fórmulas contingentes y a las fórmulas tautológicas se les llama satisfa-
cibles, pues son verdaderas en al menos una asignación (las tautológicas, por supuesto,
además son verdaderas en todas). Se usa este término porque se dice que una asignación
«satisface» una fórmula cuando esta es verdadera en esa asignación. A las fórmulas sa-
tisfacibles también se le puede llamar coherentes o consistentes. Por otro lado, de las
tautologías y contradicciones se dice que son fórmulas lógicamente necesarias, pues
tienen el mismo valor de verdad en toda posible circunstancia.
Vamos a resumir todos estos conceptos en el cuadro 6.1.

Tipo Definición ¿Necesaria? ¿Consistente?


Tautología Es V en toda asignación ✓ ✓
Es V en al menos una asignación y
Contingencia × ✓
F en al menos otra asignación
Contradicción Es F en toda asignación ✓ ×

Cuadro 6.1: Clasificación semántica de las fórmulas de LC0.

Estos conceptos nos serán útiles para diversos fines, como veremos en la siguien-
te sección y en el siguiente capítulo. Por lo pronto, después de hacer unos ejercicios,
notaremos dos aplicaciones inmediatas, en sendas subsecciones.
Ejercicio # 21
Para cada una de las siguientes fórmulas, construye su tabla de verdad y con base en
ello, di si son tautología, contingencia o contradicción:
1 p ⊃ ¬q 2 [¬q & (r ⊃ q )] & r 3 (r ∨ t ) ⊃ (s ∨ ¬t )

4 q ∨ ¬q 5 t ≡ (p ≡ ¬t ) 6 (p ∨ q ) ⊃ (¬p ⊃ q )

6.7.1. Los «principios lógicos»

Es usual escuchar que existen «principios lógicos supremos», a veces también llamados
«leyes lógicas». Algunos de estos vienen desde Aristóteles,9 y se conservan en LC0 co-
mo fórmulas tautológicas. Vamos a formularlos usando meta-variables, pues cualquier
fórmula de LC0 que sea un caso de ellas va a ser una tautología.
• Principio de no contradicción: ¬( A & ¬A).

130
• Principio de tercero excluido: A ∨ ¬A.
• Principio de identidad: A ⊃ A.
(En realidad, el último principio se suele formular diciendo que «A = A». Pero esto, si
se toma literalmente, pertenece no a la lógica de orden cero —que no tiene el símbolo de
identidad, «=»—, sino a la lógica de primer orden con identidad: diría que todo objeto
es idéntico consigo.10 Si relajamos la noción de identidad, para que signifique algo más
general —equivalencia— entonces quizá podríamos leerlo como: «toda proposición es
equivalente consigo», es decir: A ≡ A. Pero esta última se sigue del principio como lo puse
arriba y de ciertas propiedades de la equivalencia material que revisaremos después.)
No es obvio en qué sentido estas son las «leyes» o «principios supremos». Cada fór-
mula que sea un caso de cualquiera de las tres formas listadas, será tautológica —eso
es verdad. Pero muchas otras fórmulas son tautológicas, aunque tengan una apariencia
muy distinta a cualquiera de estas tres —como: (p ∨ q ) ⊃ ¬(¬q & ¬p).
Quizá, en realidad, lo que sucede es que la tautologicidad de las fórmulas con las
formas de los tres «principios» es un reflejo de los presupuestos clasicistas que enunciamos
antes (sección 6.3).11 Básicamente, toda fórmula del tipo: ¬( A & ¬A) va a ser tautológica
debido a que ninguna fórmula puede tener más de un solo valor de verdad. Pero también
porque la negación y la conjunción se definen de las maneras que vimos en la sección
6.4. Algo parecido sucede con los otros dos «principios».
Sin embargo, resultaría entonces que los «principios» per se no son los que reflejan,
por así decir, la «esencia» de LC0 —los que definen la clasicalidad, digamos—, sino que
son tanto los presupuestos clasicistas —que haya sólo dos valores de verdad, que cada
proposición tenga uno y sólo uno de ellos, y que las conectivas sean todas veritativo-
funcionales— como las definiciones de cada conectiva, los que contienen, o mejor, los
que definen, esta esencia de la clasicalidad.
Ejercicio # 22
¿Cómo podrías demostrar que todos los casos de los tres «principios lógicos» son tau-
tologías? Responde y justifica tu respuesta. Después de ello, demuéstralo.

6.7.2. Las «paradojas» de la implicación material *

Al introducir el condicional en la sección 4.1.6, notamos que este no comparte muchas


características del condicional «si . . . entonces . . . » del Español. Esto se ve más claro al
conocer algunas tautologías que chocan contra la interpretación del condicional mate-
rial como un orden temporal o causal, o como una relación de relevancia entre las dos
proposiciones conectadas. Que sean tautologías significa que son verdades lógicas de
LC0, por lo que sólo una lógica distinta podría hacerlas falsas.

131
Estas tautologías se conocen como «paradojas» de la implicación material porque chocan
contra el sentido común, por la manera en que, en el Español, solemos usar las palabras
«si. . . entonces . . . ». Por ejemplo, las siguientes fórmulas:
A ⊃ ( B ⊃ A) ¬ A ⊃ ( A ⊃ B)
(¬A & A) ⊃ B A ⊃ ( B ∨ ¬ B)
A ⊃ ( B ⊃ B) ( A ⊃ B) ∨ ( B ⊃ A )
Dando interpretaciones de estos esquemas de fórmula en el lenguaje natural, podemos
ver lo extraño que suenan a nuestro «oído lógico». Por ejemplo, una interpretación de
la fórmula «A ⊃ ( B ⊃ A)» es:
Si estoy enfermo, entonces: si estoy sano, estoy enfermo.
Esta interpretación muestra que el condicional material no recupera el sentido causal
del «si . . . entonces . . . » del Español, pues no afirmaríamos la oración de arriba debido
a que parece decir que hay alguna relación causal entre estar sano y enfermo. De igual
forma, una posible interpretación de la fórmula «( A ⊃ B) ∨ ( B ⊃ A)» es:
Si la Luna es de queso entonces 2+2=4, o si 2+2=4 entonces la Luna es de queso.
Esta interpretación muestra que el condicional material no recupera una característica
del «si . . . entonces . . . » del Español: unir a proposiciones que tienen «algo que ver», es
decir, que guardan alguna relación de relevancia entre sí: ciertamente ¡que la Luna sea
de queso no parece tener nada que ver con que 2+2=4!
Según algunos lógicos, este tipo de ejemplos son «paradójicos» o—hablando más
estrictamente—extraños precisamente por ello. Esto ha llevado a la creación de sistemas
de lógica que buscan evitar que las fórmulas «paradójicas» de arriba resulten, como
resultan ser en LC0, verdades lógicas. Los primeros sistemas de lógica modal surgieron
así, de hecho; pero hoy en día se estudian lógicas de la relevancia; que no estudiaremos
aquí.12
Ejercicio # 23
Para cada una de las fórmulas que representan una «paradoja» del condicional ma-
terial, da al menos una manera en la que «choque» contra una manera usual de utilizar
el las palabras «si. . . entonces . . . » en el Español. Por ejemplo,
A ⊃ A choca con el uso del «si. . . entonces . . . » como orden temporal (es
decir, a veces decimos «Si A entonces B» para querer decir, entre otras
cosas, que A está antes que B); pues ninguna proposición puede suceder
antes que ella misma.

132
6.8. Equivalencia e implicación lógica: Semántica

Un condicional material no representa una relación lógicamente necesaria entre dos pro-
posiciones: que una afirmación del tipo «Si p, entonces q » sea verdadera (donde el
condicional es material), no nos dice que haya algún vínculo muy «estrecho» entre es-
tas fórmulas. Sólo nos dice que no sucede que la primera sea verdadera, pero no la
segunda. Pero estas fórmulas pueden no tener «nada que ver»: pueden no hablar sobre
lo mismo. Y también puede ser que una no se siga lógicamente de la otra, que no haya
inferencia válida que pase de la una a la otra.
De igual forma, una equivalencia material entre dos proposiciones no es una relación
muy estrecha entre ambas: sólo nos dice que o ambas son verdaderas, o ambas son
falsas; es decir, que ambas resultan tener el mismo valor de verdad. Pero de nuevo,
estas proposiciones pueden no tener «nada que ver» entre sí, ni ser realmente «la misma»
proposición: lo único que tienen idéntico es su valor de verdad.
Con las tablas de verdad y el concepto de tautología podemos definir dos relaciones
más «estrechas» entre proposiciones. Vamos a definir la equivalencia y la implicación
lógica entre dos proposiciones. Las que veremos son versiones semánticas de estos
conceptos; en un capítulo posterior veremos las versiones definidas con la teoría de la
demostración.

Definición 39: Equivalencia lógica (versión semántica)

Dos fórmulas, A y B, son semánticamente equivalentes siempre y cuan-


do: la fórmula A ≡ B sea tautológica.

Cuando dos proposiciones son lógicamente equivalentes según esta definición, ambas
son verdaderas en exactamente los mismos casos y falsas en exactamente los mismos casos. Esto
lo sabemos porque, si su bicondicional es tautológico, significa que en toda asignación
en que la primera sea V, la segunda también lo será; y en toda asignación en que la
primera sea F, también lo será la segunda.
Resulta que la mayoría de las fórmulas semánticamente equivalentes no «se ven igual»:
tienen conectivas distintas, o incluso pueden incluir atómicas distintas. Pero que sean
semánticamente equivalentes sólo significa que tienen las mismas condiciones de verdad:
que son verdaderas en los mismos casos, y falsas en los mismos casos. Es decir: que el
bicondicional A ≡ B es lógicamente necesario —verdadero en toda posible asignación:
tautológico.
La siguiente definición nos dice qué significa, según LC0, que una fórmula implique
lógicamente a otra.

133
Definición 40: Implicación lógica—versión semántica

Una fórmula, A, implica lógicamente a otra fórmula, B, siempre y cuando:


la fórmula A ⊃ B sea tautológica.

Cuando una fórmula implique semánticamente a otra, según la definición de arriba,


lo que va a suceder es que: en todo caso en el que la primera sea verdad, también lo será la
segunda. Decimos entonces que la implicación es lógicamente necesaria. Es decir: que el
condicional material A ⊃ B es verdadero en toda posible asignación —es decir, que es
tautológico.

6.8.1. Equivalencia e implicación lógica: Notación

Introducimos la notación para los conceptos que acabamos de definir.:


Implicación semántica Si A implica semánticamente a B, escribimos: A ⊨ B.
Equivalencia semántica Si A y B son semánticamente equivalentes, escribimos: A ⊨⊨
B.
Por ahora no vamos a usar esta notación, pero es importante que sepas a qué se refiere.

6.8.2. Algunas consecuencias de las definiciones anteriores

A partir de las definiciones 36-40, y de las tablas de las conectivas, es fácil demostrar
los siguientes teoremas.
Teorema 1. Toda fórmula de LC0 es o una tautología, o una contingencia, o una contradicción,
y no es más de una de ellas. Es decir: la clasificación semántica de las fórmulas es exhaustiva y
excluyente.

Demostración. Sea A cualquier fórmula de LC0. Consideremos su tabla de verdad —es


decir: si A es molecular, la columna debajo de su conectiva principal; si es atómica,
la columna debajo de ella misma. Hay sólo tres opciones: que todas las filas en esa
columna sean V, que todas sean F, o que haya al menos una V junto con al menos
una F. Ninguna tabla va a cumplir más de una de estas opciones. El teorema se sigue
entonces por las definiciones 36, 37 y 38. Q.E.D.

Teorema 2. Toda tautología es la negación de una contradicción, y toda contradicción es la


negación de una tautología.
Teorema 3. La negación de una contingencia es una contingencia.
Teorema 4. Cada tautología es lógicamente equivalente a cualquier otra tautología.
Teorema 5. Cada contradicción es lógicamente equivalente a cualquier otra contradicción.

134
Teorema 6. Toda proposición se implica lógicamente a sí misma. (Corolario: Toda proposición
es lógicamente equivalente a sí misma.)
Teorema 7. Toda proposición implica lógicamente a cualquier tautología.
Teorema 8. Una contradicción implica lógicamente a cualquier proposición (tautológica, con-
tradictoria o contingente).
Teorema 9. Si A implica lógicamente a B y B es una contradicción, entonces A también es una
contradicción.
Teorema 10. Si A implica lógicamente a B y A es una tautología, entonces B también es una
tautología.
Teorema 11. Si A implica lógicamente a B y B es una contingencia, entonces: o A es una
contradicción, o A también es una contingencia.

Demostración. Supongamos que A implica lógicamente a B y que B es una contingencia.


Ahora demostraremos que se sigue el consecuente. Por el teorema 10, si A fuera una
tautología, también lo sería B. Por lo tanto, A no puede ser una tautología. Las únicas dos
opciones restantes (por el teorema 1) es que sea o contingencia o contradicción. Q.E.D.

Otra demostración posible sería esta:

Demostración. Supongamos que A implica lógicamente a B y que B es una contingencia.


Entonces, por la definición 40 y la tabla de verdad del condicional, en la tabla de la
fórmula «A ⊃ B» sucede esto: en todas las filas de la columna de B en donde hay una F,
también hay una F en la columna de A. Sabemos que hay al menos una F bajo B, pues
es una contingencia. Pero no podría haber ni una F en la columna de A si esta fuera una
tautología. Por lo tanto, A debe ser o una contradicción o una contingencia. Q.E.D.

Teorema 12. La conjunción, la disyunción, y la implicación material de dos tautologías, es


una tautología.
Teorema 13. La conjunción y la disyunción de dos contradicciones, es una contradicción.
Teorema 14. El condicional material de dos contradicciones, es una tautología.
Teorema 15. La conjunción de dos contingencias puede ser una contingencia o una contradic-
ción (ejemplo: las contingencias p y ¬p), pero nunca será una tautología. La disyunción de dos
contingencias puede ser una contingencia o una tautología (ejemplo: las contingencias p y ¬p),
pero nunca será una contradicción. La implicación entre dos contingencias puede ser una contin-
gencia o una tautología, pero nunca será una contradicción. La equivalencia material entre dos
contingencias puede ser una contingencia, una contradicción o una tautología.

135
Ejercicio # 24
Hay algunas fórmulas que tienen las siguientes tablas de verdad. Ahora no importa qué
fórmulas sean esas, solamente te pongo la columna de la conectiva principal.
Usando las definiciones 39 y 40, dime cuál es lógicamente equivalente con cuál y
cuál implica lógicamente a cuál.
(Recuerda que, por ejemplo, toda tautología es implicada lógicamente por toda otra fórmula,
y los demás hechos mencionados en esta sección.)

1 2 3 4 5 6 7 8 9 10

V V V V F F V F V V
V V V F F F F F F F
V V F F F V V F F F
V F F F V V F F F F

Por ejemplo: la fórmula con la tabla 3 implica a la fórmula 2 (porque si le hago la tabla al
condicional 3 ⊃ 2 , me va a salir V en todo renglón, por lo que será una tautología).

136
Proyecto del capítulo
Antecedentes d Una demostración matemática es un argumento deductivo a par-
tir de las suposiciones básicas y las definiciones. Como la estudiaremos en este
libro (capítulo 8), un argumento demostrativo se compone de una lista de las
suposiciones básicas —las premisas—, seguida de su conclusión, seguida de la
lista de los pasos que se siguen para inferir conclusiones intermedias a partir de
las premisas, hasta llegar a su conclusión. Pero también puede componerse de
una enunciación, utilizando el lenguaje natural, de cada uno de esos pasos. Este
es el formato que utilizamos en las pocas demostraciones que enunciamos en la
sección 6.8.2.
Problema d Utilizando las definiciones de tautología, contradicción, contingencia,
y de la equivalencia e implicación lógica en sus versiones semánticas (definiciones
36-40), además de las tablas de verdad de las conectivas, demuestra los teoremas
de la sección 6.8.2 para los que no se ofreció una demostración. Explica cada
paso, como se hizo en las demostraciones de los teoremas 1 y 11.

Resumen del capítulo


Notas

1. He tomado esta gráfica de Proofs and Fundamentals: A first course in abstract mathematics, 2da edición, por
Ethan D. Bloch, página 130; editorial Springer, 2011.

2. Para mayor detalle, ver Barceló 2015; Estrada 2011: «¿Cuánta filosofía hay en una tabla de verdad?».

3. Como nota Luis Estrada (2011), se requiere una quinta suposición:

• No todas las oraciones son verdaderas (o falsas) en todo caso.

Y probablemente Luis estaría de acuerdo en incluir una sexta suposición:

• Los valores de verdad tienen un orden «natural»: V > F,

donde este orden refleja el hecho de que los argumentos válidos (def. 10) son aquellos que preservan
verdad, en lugar de falsedad. Se puede argumentar que esta sexta suposición también subyace a las

137
tablas de verdad de LC0, sobre la base de que LC0 es una álgebra de Boole, que tiene, por definición,
un orden natural como el que se refleja en la sexta suposición, y que a su vez, se ve reflejado en la
definición de las operaciones booleanas que corresponden con nuestras conectivas. Quizá otra manera
de argumentarlo sea notar que las extensiones de LC0 que aceptan más valores de verdad utilizan este
supuesto para proceder de la manera más «conservadora» posible en la extensión de las tablas de las
nuevas conectivas, ver Barceló 2015.

4. Como las lógicas intensionales o modales; ver Hughes & Cresswell 1993.

5. Como las lógicas tensoriales de Lorenzo Peña (1993: capítulos 2 y 3), o la interpretación de los gluts en
ciertas lógicas multivaluadas (ver capítulos 7-9 de Priest 2008).

6. Como las lógicas trivaluadas K3 y Ł3 , o la lógica de infinitos valores Łℵ . Ver capítulos 7, 11, 11a de Priest
2008.

7. Recordatorio: «2n » significa el numero 2 por sí mismo n veces. No significa multiplicar 2 por n. Por ejemplo,
26 es la multiplicación: 2 × 2 × 2 × 2 × 2 × 2, no 2 × 6.

8. Recordatorio: la conectiva principal es la que conecta todas las sub-fórmulas. Por ejemplo: en (¬p ∨ (r ≡ s )),
la conectiva principal es ∨, y las siguientes son ¬ y ≡; a estas las calculo primero (empezando por la que
quiera) y al final calculo la principal. En ¬(r ⊃ s ) la conectiva principal es ¬, ésta la calculo después de
⊃.

9. Metafísica, Libro IV.

10. En la notación que usaremos al revisar la lógica de primer orden con identidad, LC1=, lo escribiríamos
así: ∀x (x = x).

11. Para una opinión como esta, ver Copi y Cohen, Introducción a la Lógica, secc. 8.10.

12. Ver Palau (et al.) 2004; Priest 2008.

138
capítulo

7
Métodos semánticos para
comprobar validez e invalidez

Contenidos del capítulo

Método del condicional asociado 140


Método de asignación de valores 143

Objetivos de aprendizaje
1.
2.

139
os métodos semánticos son métodos basados en la semántica formal de LC0,

L es decir, en las tablas de verdad de las conectivas y de las fórmulas con más
de una conectiva. La ventaja de estos métodos es que nos permiten comprobar
tanto la validez como la invalidez de los argumentos formalizados en LC0; mientras que
los métodos demostrativos que veremos en el siguiente capítulo, en general, sólo nos
permiten comprobar la validez de un argumento.

7.1. Método del condicional asociado

El primer método semántico es el método del condicional asociado. Esto supone el


concepto de condicional asociado a una fórmula, que veremos ahora.1
Definición 41: Condicional asociado a un argumento

Consideremos un argumento con n premisas: P 1 ,P 2 , . . . P n y una conclu-


sión: C . Entonces, el condicional asociado a ese argumento es la fórmula
que tiene, como antecedente, la conjunción de todas las n premisas, y
como consecuente, a la conclusión. Es decir, va a tener la forma:

[((P 1 & P 2 ) & P 3 ) . . . & P n] ⊃ C .

Ya que tenemos el concepto de condicional asociado a un argumento, podemos com-


prender el método semántico. Lo vamos a definir mediante un algoritmo, es decir, me-
diante una serie de pasos.

Definición 42: Método del condicional asociado


1. Tomo el condicional asociado a mi argumento.
2. Le hago la tabla de verdad a ese condicional.
3. Si la tabla me dice que el condicional es tautología, el argumento
es válido. De otra manera, el argumento es inválido.

Vamos a ver este método en acción en el siguiente ejemplo resuelto.

Consideremos el siguiente argumento:


1. p ⊃ q
ejemplo 22

2. q ⊃ r
∴q ⊃p
Vamos a comprobar su validez mediante el método del condicional asociado.
El primer paso es construir su condicional asociado, que sería este:

[(p ⊃ q ) & (q ⊃ r )] ⊃ (q ⊃ p)

140
Y vamos a hacerle su tabla de verdad. Usando la regla «2n », como son 3 variables
distintas, sé que n = 3; por lo que necesitaremos 23 = 8 filas, y una columna por
cada letra y conectiva. Empezamos con las atómicas, usando la regla «mitad de la
mitad»:
[(p ⊃ q) & (q ⊃ r )] ⊃ (q ⊃ p)
V V V V V V
V V V F V V
V F F V F V
V F F F F V
F V V V V F
F V V F V F
F F F V F F
F F F F F F
Sigo con las conectivas de más adentro, usando la regla «de adentro hacia afuera,
usando las tablas básicas»:
[(p ⊃ q) & (q ⊃ r )] ⊃ (q ⊃ p)
V V V V V V V V V
V V V V F F V V V
V F F F V V F V V
V F F F V F F V V
F V V V V V V F F
F V V V F F V F F
F V F F V V F V F
F V F F V F F V F
Y ahora evaluamos la conectiva más hacia afuera, que todavía no es la principal—la
conjunción. Esta «se alimenta» con las conectivas de más adentro: los condicionales
materiales en el antecedente de la fórmula, cuyas columnas están en verde:
[(p ⊃ q) & (q ⊃ r )] ⊃ (q ⊃ p)
V V V V V V V V V V
V V V F V F F V V V
V F F F F V V F V V
V F F F F V F F V V
F V V V V V V V F F
F V V F V F F V F F
F V F V F V V F V F
F V F V F V F F V F
La tabla completa quedaría así, con la columna de la conectiva principal en azul: el
condicional material. Este condicional «se alimenta» de, por un lado, la conjunción,
que es la conectiva principal del antecedente, y por el otro, la conectiva principal del
consecuente, que es el condicional material:

141
[(p ⊃ q) & (q ⊃ r )] ⊃ (q ⊃ p)
V V V V V V V V V V V
V V V F V F F V V V V
V F F F F V V V F V V
V F F F F V F V F V V
F V V V V V V F V F F
F V V F V F F V V F F
F V F V F V V V F V F
F V F V F V F V F V F
Resulta que hay al menos una asignación en la que la fórmula es V—por ejemplo,
la primera, contando de abajo hacia arriba—, pero que también hay al menos una
asignación en la que es F: la quinta. Es decir: el condicional asociado al argumento
es contingente. Eso significa que el argumento es inválido: no en todo caso posible
en el que las premisas son todas verdaderas, lo es también la conclusión. Ese caso
es precisamente la quinta asignación.

Ejercicio # 25
Formaliza los siguientes argumentos (dejando de lado el contexto que no forme parte
de ellos, y poniendo las premisas o conclusión, si es que alguno tuviera estas implícitas),
y demuestra su validez o invalidez mediante el método del condicional asociado.
1. Si el yo es trascendental, no podemos referirnos a él. Pero si el yo es empírico, no
persiste a través del tiempo. Sin embargo, podemos referirnos al yo y este persiste
a través del tiempo. Por lo tanto, el yo no es ni trascendental ni empírico.
2. Si tomamos la primera ruta, nos van a cobrar peaje y vamos a pagarlo. Y si to-
mamos la segunda ruta (que es por la libre), pasaremos por el pueblo que te dije.
Pero ni vamos a pagar peaje ni vamos a pasar por ese pueblo (por razones que
luego te cuento). Como bien sabes, para llegar a la boda sólo hay dos rutas, es
decir: que lleguemos a la boda requiere que o tomemos la primera ruta o tomemos
la segunda. ¿Puedes ver qué estoy concluyendo?
3. Para que las propuestas nominalistas triunfen se requiere que el argumento pla-
tonista de Quine sea desactivado. Para hacer esto último, se requiere demostrar
que el uso de las matemáticas en las ciencias empíricas es, en última instancia,
prescindible. Pero este uso es prescindible siempre y cuando el poder predicti-
vo y explicativo de las teorías no se pierda junto con la nominalización. Se sigue
que, para que las propuestas nominalistas triunfen, se requiere que las teorías
preserven su poder predictivo y explicativo con la nominalización.
4. La virtud es el máximo bien de la vida, y se consigue mediante el examen de la
propia conciencia. Que la virtud sea el máximo bien implica que la filosofía tiene

142
un valor importante, y o bien se consigue como hemos dicho, o bien nuestros
presupuestos están equivocados. Por ello, basta que la filosofía tenga un valor
importante para que nuestros presupuestos estén equivocados.
5. Es evidente que si la teoría cuántica solamente consiste en la ecuación de Schrö-
dinger, entonces no hay lugar para la probabilidad en ella. Pues si la teoría sola-
mente contiene a la ecuación de Schrödinger, entonces un sistema puede evolu-
cionar a una superposición de estados con una función de onda que no colapsará.
Pero si esto sucede, entonces la función de onda evoluciona de manera determi-
nista. Y que la función de onda evoluciona de manera determinista basta para que
no haya lugar en la teoría cuántica para la probabilidad.

7.1.1. Limitaciones del método del condicional asociado

El método del condicional asociado es un método sencillo de entender—sólo hago el


condicional asociado al argumento, y reviso si es o no una tautología—, pero puede
fácilmente volverse muy complejo y, por ello, impráctico.
La razón es que el tamaño de una tabla crece exponencialmente con las letras de la
fórmula correspondiente. Es decir: debido que la tabla de una fórmula con n variables
proposicionales distintas tiene 2n filas (renglones), cada variable distinta multiplica por
dos el número de filas de la fórmula. Esto hace que el número de filas de una fórmula
como:
[p ∨ (q ≡ r )] ⊃ [(s ∨ t ) & u],
que tiene 6 letras distintas, tenga 26 = 64 renglones. Una con 7 letras tendrá, entonces,
una tabla con 128 filas. Pero hacer una tabla con 64 renglones se vuelve impráctico —
¡ni hablar de una con 128!
Entonces, este método no es perfecto—tiene una limitante: aplicarlo a fórmulas con
muchas variables proposicionales se vuelve prácticamente irrealizable. El siguiente mé-
todo supera este defecto.

7.2. Método de asignación de valores

El método de asignación de valores no requiere usar la tabla del condicional asociado.


Es decir, no pondremos explícitamente todo el «espacio de posibilidades» del condicio-
nal asociado, que es lo que hace la tabla (y lo que, a final de cuentas, es el responsable
del crecimiento exponencial del que hablamos arriba).
A grandes rasgos, el método consiste en una reducción al absurdo: suponer la negación
de lo que queremos demostrar. Queremos demostrar que un argumento dado es válido,

143
así que vamos a suponer que no lo es. Es decir (por la definición 10), vamos a suponer
que todas sus premisas son verdaderas y que su conclusión es falsa. Si a partir de
esta suposición llegamos a una incoherencia, tenemos certeza de que la suposición
era falsa: que es falso que el argumento sea inválido—es decir, tenemos certeza de
que el argumento es válido. (Pues para cada argumento, sólo hay dos posibilidades,
exhaustivas y excluyentes: o que sea válido, o que sea inválido.)
¿Cómo podríamos llegar a esa incoherencia?
Básicamente, actuando bajo la suposición de la invalidez del argumento, y siguiendo
las tablas de verdad de las conectivas. Ya teniendo la suposición, intento asignarle va-
lores de verdad a cada fórmula de manera que sea coherente con la suposición. Es decir:
de manera que cada atómica tenga un y sólo un valor de verdad, y que cada fórmula
obedezca las tablas de verdad de las conectivas. Si logro construir la asignación de ma-
nera coherente, el argumento es inválido—pues he mostrado que hay una asignación
en la que las premisas son verdaderas, pero no la conclusión. Si no es coherente, he
demostrado su validez—pues he demostrado que suponer la verdad de las premisas
y la falsedad de su conclusión, me lleva o a asignar dos valores distintos a la misma
atómica, o a ir en contra de las tablas de las conectivas.
Vamos a verlo con más detalle.
Definición 43: Método de Asignaciones

Todo argumento se compone de n premisas y conclusión, por lo que va a


tener la forma:
P1
..
.
Pn
C
Entonces usamos el siguiente algoritmo:
1. Le asigno V a la conectiva principal de cada una de las premisas,
y F a la conectiva principal de la conclusión (si el argumento tiene
premisas y/o conclusión atómicas, hago la misma asignación). Es
decir: Supongo, de entrada, que el argumento es inválido.
2. Me fijo cuál de las fórmulas—ya sea la conclusión o una de las
premisas—tiene menos posibilidades: es decir, dada la asignación
que tiene (V si es premisa, F si es la conclusión), y la tabla de ver-
dad de su conectiva principal, ¿cuál es la que tiene menos renglones
que satisfagan esa asignación? Tomo esa; o, si hay empate, tomo
cualquiera. (Ver el cuadro de la página 146).
3. Si no he llegado a ninguna incoherencia, sigo asignando valores
de verdad de acuerdo con las tablas de las conectivas, y bajo las

144
suposiciones del paso anterior.
4. Continuo hasta que: o llegue a una incoherencia (es decir: hasta
que le asigne dos valores distintos a la misma atómica, o hasta que
tenga que asignarle valores a una fórmula molecular de manera que
no siga la tabla de la conectiva), o haya terminado con las atómicas.
5. Si llego a una incoherencia, el argumento es válido. Si no llego a una
incoherencia y puedo hacer la asignación completa, el argumento
es inválido.
6. Si he demostrado que el argumento es inválido, la asignación que
he construido de hecho me da uno de los renglones de la tabla de
verdad del condicional asociado en que éste es falso.

Contando posibilidades

¿Cómo puedo contar el número de posibilidades de cada conectiva? Depende de la


conectiva y del valor de verdad de la fórmula en la asignación que estoy considerando.
Por ejemplo. Si considero una asignación en la que las dos fórmulas:
p ∨q y p &q
son V, ¿cuál de las dos tiene menos posibilidades? La idea sería empezar con esa en el
método de asignaciones.
A partir de ver la tabla de verdad de cada conectiva, puedo ver lo siguiente. La
respuesta es que la segunda tiene menos: una conjunción es verdadera en un único
caso: cuando ambos conyuntos son verdaderos. Pero una disyunción es verdadera en
tres casos: cuando el primer conyunto (pero no el segundo) es verdadero, cuando el
segundo (pero no el primero) es verdadero, o cuando ambos son verdaderos.
De igual forma, el condicional es V en tres casos, el bicondicional en dos, y la ne-
gación en uno. Por lo tanto, si quisiera saber con cuál empezar para el método de
asignaciones, suponiendo que estoy considerando a las premisas, debería empezar con
la conjunción o la negación, seguir con el bicondicional, y finalmente con la disyunción
o el condicional.
Mientras tanto, la conjunción es F en tres casos, mientras que el bicondicional es
falso en dos; pero la negación, el condicional y la disyunción sólo son falsos en un caso
(aunque cada uno en distintos casos, claro está).
Vamos a resumir todo esto –el número de asignaciones en que una conectiva es
verdadera o falsas según su tabla de verdad— en el cuadro 7.2.
De nuevo, la idea es siempre empezar a usar el método de asignaciones por la premisa
que tenga menos posibilidades de ser V, o por la conclusión, si es la que tiene menos

145
Conectiva o var. # verdades # falsedades
atómica 1 1
¬ 1 1
∨ 3 1
& 1 3
⊃ 3 1
≡ 2 2

Cuadro 7.1: Contando posibilidades.

posibilidades, pero en este caso de ser F.

Consideremos el argumento:
1. p ⊃ q
2. q ⊃ r
∴q ⊃p
Según el primer paso, asigno V a cada premisa y F a cada conclusión:
1. p ⊃ q = V
2. q ⊃ r = V
∴q ⊃p =F
Según el segundo paso, sigo con la fórmula que sea me cierre más posibilidades.
En este caso, es la conclusión, pues el condicional sólo es F en un caso:
1. p ⊃ q = V
2. q ⊃ r = V
ejemplo 23

∴ q ⊃ p = F; q =V y p =F.
Según el tercer paso, copio lo que ya tengo hasta ahora en las otras líneas:
1. p ⊃ q = V; p =F y q =V
2. q ⊃ r = V; q =V
∴ q ⊃ p = F; q =V y p =F.
Según el cuarto paso, reviso. En este caso, no he caído en incoherencia: si 1 es V,
eso significa que el condicional (que es la conectiva principal) es V, pero ya tengo que
p es F y que q es V, eso es coherente con la V del condicional: el condicional es V
si tiene antecedente F y consecuente V. Además, en 2 tampoco tengo incoherencia,
al menos no todavía: un condicional puede ser V si su antecedente es V.
Solo resta terminar con la premisa 2. Si el condicional es V y si antencedente es V,
su consecuente también tiene que ser V (pues, si fuera F, el condicional sería F).
Así que asigno:
1. p ⊃ q = V; p =F y q =V
2. q ⊃ r = V; q =V y r =V
∴ q ⊃ p = F; q =V y p =F.

146
No hay ninguna incoherencia. Por lo tanto, el argumento es inválido.
De hecho, vale la pena revisar que este método no sólo me da el mismo resultado
que el método del condicional asociado, sino que me proporciona la asignación que
demuestra la invalidez del argumento: es decir, la asignación en la que las premisas
son todas verdaderas, pero no la conclusión. Si revisamos la tabla de la página 141,
podemos ver que la asignación que obtuve por este método: p =F, q =V, r =V, es
precisamente la quinta asignación de la tabla del condicional asociado al argumento;
en esa asignación, el condicional asociado es falso, mostrando también la invalidez
del argumento.
...................................................................................
Consideremos este otro argumento:
1. p&q
2. q ≡ (r ∨ s )
∴ r ∨s
Aplico mi primer paso:
1. p&q = V
2. q ≡ (r ∨ s ) = V
∴ r ∨s =F
Para aplicar mi segundo paso, la premisa 2 no es buena idea: el bicondicional es V
en dos casos (ambas fórmulas V, o ambas F). En cambio, puedo empezar (da igual)
por la conclusión o la premisa 1: la conclusión, siendo una disyunción, solo es F en
un caso, y la premisa 1, siendo conjunción, solo es V en un caso. Empecemos (para
el ejemplo) por la primera premisa. Según la tabla, la conjunción sólo es V cuando
ambos conyuntos lo son, así que:
1. p&q = V; p es V, q es V
2. q ≡ (r ∨ s ) = V
∴ r ∨s =F
Aplico mi tercer paso, copiando lo que ya tengo para q :
1. p&q = V; p es V, q es V
2. q ≡ (r ∨ s ) = V; q es V
∴ r ∨s =F
Reviso. No hay incoherencia, así que sigo:
1. p&q = V; p es V, q es V
2. q ≡ (r ∨ s ) = V; q es V, (r ∨ s ) es V
∴ r ∨s =F
Esto porque el bicondicional sólo es V si ambos tienen el mismo valor, y ya sabía
que q es V.
Pero ahora sí puedo ver que hay incoherencia: (r vs ) es V, según lo que puse en
la premisa 2, pero según lo que había puesto en la conclusión, (r vs ) es F. Le he
asignado dos valores a la misma fórmula. Por lo tanto, el argumento es válido y ya

147
terminé.

En resumen. Tenemos un argumento ya formalizado, con premisas distinguidas de la


conclusión. Entonces el método funciona así:
1. Asigno V a la conectiva principal de cada una de las premisas.
2. Asigno F a la conectiva principal de la conclusión.
3. Si, dada las asignaciones a premisas y conclusión como arriba, puedo asignar
coherentemente valores a las atómicas, entonces el argumento es inválido (pues ese
sería un caso en que las premisas son todas V y la conclusión es F). Si no puedo—
si, al intentar asignar valores a las atómicas, de manera que las premisas sean V y
la conclusión F (usando las conectivas), le tengo que asignar dos valores distintos
a una atómica—entonces el argumento es válido (pues al suponer que hay un caso
de premisas V y conclusión F, llego a una incoherencia).
4. Consejo: empiezo por las fórmulas cuya conectiva tenga menos casos con el valor
asignado. Por ejemplo, si mi conclusión es un condicional, como (según el paso
2) debo asignarle F, empiezo por esa: el condicional sólo es F en un solo caso.
En cambio, si fuera una conjunción, no empiezo por esa, porque hay tres casos
en los que una conjunción es F (una F y la otra V, una V y la otra F, ambos
conyuntos F).
Ejercicio # 26
I Formaliza los siguientes argumentos, y demuestra su validez o invalidez mediante
el método de asignación de valores.
1. Si el determinismo es verdadero, entonces no soy libre. Si el indeterminismo es
verdadero, tampoco soy libre. O el determinismo es verdadero o el indeterminismo
es verdadero. Por lo tanto, no soy libre.
2. No soy libre. Esto se sigue si partimos de que vivimos en un sistema político co-
rrupto; además, si vivimos en un sistema político corrupto, entonces nuestra ca-
pacidad de decisión está muy limitada. Si nuestra capacidad de decisión está muy
limitada, entonces mi capacidad de decisión está muy limitada. Y si eso sucede,
entonces no soy libre.
3. Partiendo de que no soy libre, se puede concluir que no puedo transformar la
realidad. Pues, además, si no soy libre, no puedo actuar. Y si no puedo actuar, no
puedo transformar la realidad.
4. Si el determinismo es verdad, entonces: si ocurrió el pasado, entonces solo hay
una historia futura posible. Si solo hay una historia futura posible, entonces no hay
opciones abiertas. Si no hay opciones abiertas, no soy libre. Concluyo que no soy
libre. Pues, además de lo anterior, es verdad tanto que ocurrió el pasado, como

148
que el determinismo es verdad.
5. Si el determinismo es compatible con que haya libertad, y si el indeterminismo
(también) es compatible con la libertad, entonces hay libertad. Si hay libertad, en-
tonces mi vida tiene sentido. Por lo tanto, si o el determinismo o el indeterminismo
son verdaderos, mi vida tiene sentido.
II Interpreta los siguientes argumentos y comprueba su validez o invalidez mediante
el método del condicional asociado.
A B C D
1. p ≡ ¬s 1. s ⊃ q 1. s ⊃ q 1. r ∨ s
2. s ∨ t 2. q 2. s & q 2. ¬r ⊃ q
3. p & q /∴s 3. ¬s / ∴ ¬r ⊃ (s ∨ q )
/∴t /∴q

7.2.1. Limitaciones del método de asignación de valores

El método de asignaciones funciona bien cuando en las premisas tenemos fórmulas que
pueden ser verdaderas «de pocas maneras» y en la conclusión tenemos una fórmula que
puede ser falsa «de pocas maneras» (según lo expuesto en el cuadro 7.2).
Pero el método se hace engorroso cuando esto no sucede. Consideremos el siguiente
argumento:
1. p ⊃ ¬s
2. ¬s ⊃ (t ∨ q )
3. t ⊃ r
/ ∴t &r
Para usar el método de asignaciones, suponemos que el argumento es inválido, es decir,
que hay al menos una asignación bajo la cual las premisas son verdaderas, pero la
conclusión es falsa:
1. p ⊃ ¬s V
2. ¬s ⊃ (t ∨ q ) V
3. t ⊃ r V
/ ∴t &r F
Continuo asignando el valor de verdad de cada fórmula a su conectiva principal:
1. p ⊃ ¬s V
V
2. ¬s ⊃ (t ∨ q ) V
V
3. t ⊃ r V
V
/ ∴t &r F
F
Muy bien. Lo siguiente sería usar las tablas de verdad para asignar valores a las

149
subfórmulas en todas sus apariciones. ¿Por dónde empezar?
Bueno, sé que la conjunción «t & r » es falsa. Pero—recordando la tabla de verdad de
la conjunción—eso me deja tres posibilidades: que t sea falsa pero r no, que r sea falsa
pero t no, o que ambas sean falsas. Empezar por la conclusión, entonces, no me ayuda
mucho, pues no puedo obtener mucha información sobre las subfórmulas.
¿Y si empiezo por las premisas? Eso tampoco me ayudaría mucho: las tres son con-
dicionales materiales, y por tanto (según su tabla de verdad) tienen tres maneras de
ser verdaderos: que su antecedente sea falso pero su consecuente verdadero, que ambos
sean verdaderos, o que ambos sean falsos.
Es decir: ya sea que empiece por premisas o por conclusión, no puedo cerrar muchas
posibilidades abiertas, porque en ambos casos tengo tres maneras de asignar valores.
Esta es una limitación práctica del método: cuando en las premisas tenemos fórmulas
que pueden ser verdaderas «de varias maneras» y en la conclusión tenemos una fórmula
que puede ser falsa «de varias maneras» (de nuevo, según el cuadro 7.2), el método no
es tan práctico.
Hay dos opciones: usar otro método—como el del condicional asociado de la sec-
ción 7.1, o la deducción natural del siguiente capítulo—o seguir usando el método de
asignaciones, aunque este se vuelve más engorroso.

7.2.2. Asignaciones para argumentos con varias posibilidades

Cuando nos encontramos con argumentos como el de la subsección anterior, en los


que las premisas tienen varias posibilidades de ser verdaderas, y la conclusión varias de
ser falsa, no es tan fácil ir cerrando las posibilidades abiertas. Tenemos que considerar
varias asignaciones—varios renglones de la tabla de cada fórmula—a la vez.
Recordemos el argumento que estábamos usando como ejemplo, ya habiendo hecho
la suposición inicial de que es inválido y habiendo colocado los valores de verdad en
cada conectiva principal:
1. p ⊃ ¬s V
V
2. ¬s ⊃ (t ∨ q ) V
V
3. t ⊃ r V
V
/ ∴t &r F
F
Ahora vamos al siguiente paso: usar la tabla de verdad de las conectivas para con-
siderar las posibilidades. Como tanto para premisas como para conclusión tengo tres
posibilidades, no importa con cuál empiece. Empecemos con la conclusión, que tiene
tres formas de ser falsa:

150
∴ t & r F
V F F
F F V
F F F
Lo que tenemos que hacer es considerar cada una de las posibles asignaciones
en las premisas. En nuestro ejemplo, esto significa considerar tres posibilidades: la
posibilidad de que t sea verdadera pero r no, la posibilidad de que t sea falsa pero r
no, y la posibilidad de que ambos sean falsas.
Ahora bien, extendiendo lo que ya sucedía antes: si en al menos una de las tres asig-
nacones puedo tener verdaderas las premisas pero falsa la conclusión (sin contravenir
las tablas de verdad o asignar dos valores a más de una atómica), el argumento es
inválido. Pero, si para cada una de las posibles asignaciones en las que la conclusión
es falsa, no puedo hacer verdaderas a las premisas sin caer en una incoherencia (con-
travenir las tablas o asignar dos valores a una misma variable), entonces el argumento
es válido.
Hay que fijarse en lo que acabamos de ver: basta con una asignación coherente
para demostrar la invalidez; pero para mostrar la validez no basta con que una de las
posibilidades me lleve a incoherencia, tienen que ser todas.
En nuestro ejemplo, esto requiere que las tres asignaciones que hacen falsa a la con-
clusión, me lleven a asignaciones incoherentes en las premisas.
Consideremos la primera de las tres, en la que: t es V y r es F. Usaré esta para las
premisas, copiando los valores donde aparezcan las letras:
1. p ⊃ ¬s V
V
2. ¬s ⊃ ( t ∨ q ) V
V V
3. t ⊃ r V
V V F
/ ∴ t &r F
V F F
¡Listo! En la premisa 3, asigné V a t , F a r , pero V al condicional: t ⊃ r . Eso es
incompatible con la tabla, es decir, es una incoherencia.
Pero no he terminado. Eso sólo muestra que una de las tres posibles asignaciones que
hacen falsa a la conclusión lleva a una incoherencia. Pero quedan dos.
Consideremos la siguiente, en la que t es F pero no r , y usemos eso para asignar esos
valores en donde quiera que aparezcan esas letras en las premisas:
1. p ⊃ ¬s V
V
2. ¬s ⊃ (t ∨ q ) V
V F
3. t ⊃ r V
F V V
/∴t &r F
F F V

151
No hay más apariciones de t ni de r . Además, hasta ahora no he llegado a ninguna
incoherencia. Y sigo teniendo tres maneras en que cada una de las premisas podría ser
verdadera.
En este caso, esta asignación me muestra la invalidez del argumento, pues (1) no
he llegado a ninguna incoherencia, y (2) nada en las suposiciones iniciales—que las
premisas son verdaderas y la conclusión es falsa—me obligan a hacer más asignaciones.
Ahora tengo total libertad: puedo hacer las siguientes asignaciones «como yo quiera»,
respetando las tablas, y llegaré a una asignación para todas las atómicas que me muestra
la invalidez. Por ejemplo, rellenando (con verde) las atómicas que faltan, y respetando
las tablas, tendría:
1. p ⊃ ¬ s V
F V FV
2. ¬ s ⊃ (t ∨ q ) V
FV V F F F
3. t ⊃ r V
F V V
/∴t &r F
F F V
Como había predicho, pude completar la tabla de manera coherente, pues toda la infor-
mación que tenía no me obligaba o impedía hacer estas asignaciones. Esto significa que
el argumento es inválido: hay al menos una asignación coherente en la que las premisas
son verdaderas pero al conclusión es falsa.
Ejercicio # 27
Formaliza los siguientes argumentos y comprueba su validez o invalidez utilizando
el método de asignaciones. Si es necesario, utiliza el método extendido, considerando
cada una de las posibilidades para una de las premisas o la conclusión.
(Recuerda: Basta una asignación coherente (bajo la suposición de premisas verda-
deras y conclusión falsa) para demostrar invalidez, pero se requiere que todas las asig-
naciones sean incoherentes (bajo la misma suposición) para demostrar validez. Si el
argumento es tal que en una premisa o en la conclusión sólo hay una posible asigna-
ción (para hacerla verdadera o falsa, según corresponda), esto ya cuenta como todas
las asignaciones.)
1. Si conocer es percibir, entonces: conozco algo si y solamente si percibo lo co-
nocido. Si recuerdo algo y lo que recuerdo está bien guardado en la memoria,
conozco lo que recuerdo. Si recuerdo algo y cierro los ojos, entonces (de todos
modos) conozco lo que recuerdo. Pero: si conozco algo siempre y cuando per-
cibo lo conocido, entonces: si cierro los ojos y recuerdo algo, no conozco lo que
recuerdo. Por lo tanto, conocer no es percibir. (Platón, Teeteto, 163b-164b)
2. Cada una de las tres propuestas (que consideraré) no triunfa sin que tenga éxito el
programa de nominalización de Field (o algo muy parecido a ello). Así que, al final,
esas tres propuestas no son caminos fáciles. (Premisa implícita: las tres propues-

152
tas son caminos fáciles si y solamente si: triunfan y no tiene éxito el programa de
nominalización de Field.) (Mark Colyvan, ‘There is No Easy Road to Nominalism’,
Mind, 2010)
3. Él [Kant] establece, en el tratado en cuestión [Fundamentación de la Metafísica
de las Costumbres], un primer principio universal como origen y fundamento de la
obligación moral; es éste: Obra de manera que tu norma de acción sea admitida
como ley por todos los seres racionales. Pero, cuando empieza a deducir de este
precepto cualesquiera de los deberes actuales de moralidad, fracasa, casi grotes-
camente, en la demostración de que habría alguna contradicción, alguna imposi-
bilidad lógica (por no decir física) en la adopción por todos los seres racionales de
las reglas de conducta más atrozmente inmorales. Todo cuanto demuestra que
las consecuencias de su adopción universal serían tales que nadie se decidiría a
incurrir en ellas. (Paráfrasis: El principio de Kant es compatible con la adopción
de las reglas de conducta inmorales. Si eso pasa, entonces nadie actúa bajo ese
principio. Si nadie se actúa bajo el principio de Kant, entonces este no es origen
y fundamento de la obligación moral. Ergo, el principio de Kant no es origen y
fundamento de la obligación moral.) (John Stuart Mill, El Utilitarismo, cap. I)
4. Hay compuestos. Una sustancia compuesta es un agregado de simples. Por lo
tanto, hay sustancias simples. (Premisa implícita: Si una sustancia compuesta es
un agregado de simples, y hay sustancias compuestas, entonces hay simples.)
(Leibniz, Monadología, §1)
5. Pero ¿no cree que hay suficientes casos registrados de personas que creen que
han oído cómo Satán les hablaba dentro de su corazón, del mismo modo que
los místicos afirman a Dios? Y ahora no hablo de una visión exterior, hablo de
una experiencia puramente mental. Ésa parece ser una experiencia de la misma
clase que la experiencia de Dios de los místicos, y no veo por qué, por lo que nos
dicen los místicos, no se puede sostener el mismo argumento en favor de Satán.
(Paráfrasis: Si hay personas que creen que les ha hablado Satán, entonces: si
los místicos infieren la existencia de Dios a partir de sus experiencias, entonces
podemos inferir la existencia de Satán a partir de la experiencia de las personas
que creen que les habla Satán. Si podemos inferir la existencia de Satán a partir de
la experiencia de las personas que creen que les habla, entonces el argumento de
los místicos es inválido. Hay personas que creen que les ha hablado Satán. Por lo
tanto, el argumento de los místicos es inválido.) (Bertrand Russell: «La existencia
de Dios», debate con F.C. Copleston)

153
Proyecto del capítulo:
Antecedentes d *
Problema d *

Notas

1. Es útil recordar que en este texto sólo estamos tratando con argumentos que tienen un número finito
de premisas, y una sola conclusión. (Tomamos a los argumentos que tienen varias conclusiones como
siendo, en realidad, varios argumentos «encadenados»: es decir, como los polisilogismos de la definición
7).

154
capítulo

8
Métodos demostrativos
para comprobar validez

Contenidos del capítulo

Los diferentes métodos demostrativos 156


Noción de regla de transformación 159
Deducción Natural para LC0 160
Equivalencia e implicación lógica: Demostrativa 195

Objetivos de aprendizaje
1.
2.

155
omo hemos dicho anteriormente, el objetivo principal de la aplicación de la

C lógica matemática a la argumentación —es decir, de la lógica como modelo—


es el diseñar, entender y aplicar métodos matemáticos para demostrar la vali-
dez o invalidez de los argumentos en el lenguaje natural. En el capítulo pasado (cap.
7), vimos un par de tales métodos: el del condicional asociado y el de asignación de valores.
Dijimos que estos son métodos semánticos debido a que se basan en la definición semán-
tica de las conectivas—en su tabla de verdad, que las define como funciones de valores
de verdad.
Lo que vamos a ver aquí es otra manera de definir a las conectivas: es una definición
inferencial (no semántica) de ellas. Esto quiere decir que definiremos a las conectivas
no mediante sus tablas de verdad, sino mediante las inferencias válidas que involucran a
tales conectivas.
(Se puede demostrar —aunque esto pertenece a la metalógica de LC0— que esta defi-
nición inferencial es equivalente a la definición semántica.)
Todo esto se inscribe dentro del sistema lógico (definición 14) que es LC0, así:
 

 – Alfabeto (def. 15)


 – Lenguaje: – Reglas de formación (def. 25)

Sistema Lógico LC0

 – Teoría de modelos: Tablas de verdad (def. 33)


 – Teoría de la demostración: Deducción natural

De nuevo, aplicaremos la teoría de la demostración de LC0 —que aquí veremos como
deducción natural— para demostrar la validez de argumentos. Pero antes de ello, daré
un muy breve panorama de maneras alternativas de definir la teoría de la demostración
de LC0.

8.1. Los diferentes métodos demostrativos

Un método de demostración es, a grandes rasgos, un método para demostrar la validez


de un argumento a partir de «reglas» básicas. Usualmente, estas «reglas» son estructuras
de argumentos válidos. Existen distintos tipos de estos métodos, y aquí sólo veremos uno
—la deducción natural. Ahora daré un breve repaso de un par de alternativas, que no
suelen ser contenido obligatorio, pero que serán útiles si continuas estudiando sistemas
de lógica no clásica (que no tratamos en este libro).

8.1.1. Axiomática *

Un sistema axiomático consiste de, primero, un conjunto de axiomas, y segundo, un


conjunto de reglas. Tradicionalmente, se pensaba que los axiomas son «proposiciones
autoevidentes» o «reglas básicas» en algún sentido. A su vez, se ha argumentado que

156
esta «inmediatez» o «fundamentalidad» de los axiomas se debe a que estos dan una
«definición implícita» de los conceptos involucrados en los axiomas.
Por ejemplo, la geometría de Euclides consiste de cinco axiomas, de las cuales se
derivan proposiciones que describen el espacio euclidiano y las figuras geométricas que
existen en este.
Para poder inferir proposiciones a partir de los axiomas, los sistemas axiomáticos de-
ben incluir reglas de inferencia. Estas reglas definen qué tipos de argumentos son válidos,
y usando estos argumentos, se demuestran proposiciones. Como vimos en la página 42,
las proposiciones que se infieren de los axiomas y que tienen una cierta «importancia»
en el contexto en el que se usa ese sistema axiomático, se conocen como teoremas. Las
proposiciones que (aunque también se siguen de los axiomas) se utilizan para demostrar
teoremas, se conocen como lemas. Finalmente, las proposiciones que se siguen «fácil-
mente» de los teoremas se conocen como corolarios. Algunos teoremas que se dejan sin
demostrar en un contexto (pero que son teoremas porque ya se han demostrado en otro
lugar) se les llama «proposiciones» en ese contexto. Como vimos antes, esta clasificación
es más contextual que puramente lógica.
El método axiomático está en el núcleo de la matemática desde Euclides, y se forma-
lizó con el avance de la lógica matemática desde los inicios del siglo XX. Pero también
ha sido utilizado en filosofía, con mayor o menor éxito, al menos desde que Spinoza
escribiera su Ética. Russell y Whitehead utilizaron la axiomática para llevar a cabo su
programa logicista, que buscaba reducir la matemática a la lógica, en los tres volúme-
nes de su Principia Mathematica. Un ejemplo contemporáneo de filosofía axiomática es
el Principia Logico-Metaphysica de Edward Zalta, quien lleva años formalizando una teo-
ría de la modalidad, la identidad, la existencia y los objetos abstractos (como mundos
posibles, objetos matemáticos o formas platónicas).

8.1.2. Cálculo de secuentes *

Un secuente es una fórmula de la forma:


A1 , . . . , An ⊢ B1 , . . . , Bm

donde cada una de las As y cada una de las Bs son fórmulas y n,m ≥ 0: es decir, un
secuente tiene cero o más fórmulas de cada lado del símbolo de implicación lógica, «⊢»
(Kleene 1952: cap. 15). Las fórmulas a la izquierda de este símbolo son el antecedente y
las fórmulas a la derecha son el consecuente del secuente. Si el secuente solamente tiene
una fórmula en su antecedente, su interpretación se reduce a:
A ⊢ B1 ∨ . . . ∨ Bm

y si solamente tiene una fórmula en su consecuente, se reduce a:


A1 & . . . & An ⊢ B

157
Poniendo ambas ideas juntas, si el secuente tiene más de una fórmula de cada lado, lo
leemos como:
A1 & . . . & An ⊢ B1 ∨ . . . ∨ B m
Es decir: las fórmulas en el antecedente se leen en conjunción y las fórmulas en el con-
secuente se leen en disyunción. En general, un secuente se puede leer como expresando
esta idea:
Si todas las fórmulas del antecedente son verdaderas, entonces, necesariamente: alguna fórmula
del consecuente lo es.
Si el antecedente no contiene fórmulas (n = 0), es decir, si el secuente es de la forma:
⊢ B1 , . . . , Bm
entonces se lee al secuente como teniendo un antecedente tautológico; si el consecuente
no contiene fórmulas (m = 0), es decir, si el secuente es de la forma:
A1 , . . . , An ⊢

entonces se lee al secuente como teniendo un consecuente contradictorio.


Las reglas del cálculo de secuentes nos dicen cómo se comporta cada conectiva en
los antecedentes y en los consecuentes. Usemos las letras griegas Δ, Γ para referirnos a
listas de fórmulas. Entonces, tenemos esta regla para la conjunción en el consecuente,
nuestro primer ejemplo:
Γ ⊢ Δ, A Γ ⊢ Δ, B
Γ ⊢ Δ, A & B
Esta regla nos dice lo siguiente:
Si de las fórmulas Γ se siguen o bien las fórmulas Δ o bien la fórmula A, por un lado, y si (por
otro lado) de las fórmulas Γ se siguen o las fórmulas Δ o bien la fórmula B, entonces, de Γ se
siguen o bien Δ o bien la fórmula A & B.
Para poner un segundo ejemplo, esta es la regla para la conjunción en el antecedente:
A, Γ ⊢ Δ
A & B, Γ ⊢ Δ
Esta regla nos dice lo siguiente:
Si de las fórmulas Γ en conjunción con la fórmula A se siguen las fórmulas Δ, entonces, de Γ en
conjunción con la fórmula A & B (para cualquier fórmula B), también se siguen las fórmulas Δ.
Una característica de los sistemas de secuentes es que con ellos es sencillo expresar
reglas estructurales del sistema lógico en cuestión. Estas reglas no se refieren a las pro-
piedades lógicas de las conectivas (como la disyunción o el condicional material), sino
a las propiedades de la misma relación de inferencia ⊢. Por ejemplo, esta es la regla
estructural de contracción en el antecedente:
Γ ⊢ Δ, A, A
Γ ⊢ Δ, A

158
que nos muestra que, si a partir de una serie de fórmulas podemos inferir la fórmula A
dos veces, entonces a partir de la misma serie de fórmulas podemos inferir a la fórmula
A una única vez. Podemos, pues, «contraer» la inferencia.
Los sistemas de secuentes son muy útiles para el estudio de las propiedades metaló-
gicas de un sistema lógico, y también son muy usados para las lógicas no clásicas. Sin
embargo, en este libro no usaremos sistemas de este tipo.

8.1.3. Deducción natural

La deducción natural es el método deductivo que más pretende acercarse a la mane-


ra en la que razonamos «naturalmente»: partiendo de ciertas premisas, y utilizando
argumentos, llegamos a una conclusión.
La deducción natural no utiliza axiomas, pero sí varias reglas de transformación. Estas
son estructuras de argumentos lógicamente válidos (es decir, tal que su condicional aso-
ciado es una tautología en LC0). Suelen suponer (en sus casos más típicos) que partimos
de premisas con cierta estructura, y que nuestro objetivo es llegar a una conclusión.
Las premisas y la conclusión concretas no son parte del sistema de deducción natural,
sino que son dadas por el argumento particular que se modela con la lógica. Lo que sí
es parte son los esquemas, formas o estructuras (se usan los tres nombres para el mismo
concepto) de argumentos válidos. Estos son las reglas del sistema.
Para usar la deducción natural para demostrar la validez de un argumento, inferimos
su conclusión a partir de sus premisas, usando las reglas del sistema de deducción
natural.

8.2. Noción de regla de transformación

Una regla de transformación es un esquema, una estructura, una forma de argumento


válido (cf. la definición 10). Eso quiere decir que cualquier argumento que tenga esa
estructura será un argumento válido. Y como, de hecho, al concatenar argumentos
válidos —es decir, poner uno después del otro, usando la conclusión de uno como
parte de las premisas del siguiente, al modo de un polisilogismo (definición 7)— siempre
tenemos un argumento válido, usar una regla de transformación después de otra para
inferir la conclusión de las premisas, resulta en un argumento válido.
A las reglas de transformación se les llama así porque «transforman» a las premisas
«en» la conclusión.
Existen varias clasificaciones de las reglas de transformación. Revisaremos varias para
el caso de LC0 en secciones posteriores. En los cuadros 8.1, 8.10, y 8.13 resumo varias
clasificaciones posibles de las reglas.

159
8.3. Deducción Natural para LC0

Vamos a definir un sistema de reglas para LC0. De nuevo, estas reglas son estructuras
de argumento válidas, y al usar una después de la otra, resultan en varios argumen-
tos válidos. La deducción natural para LC0 consiste en tomar ciertas fórmulas de LC0
como premisas —fórmulas que encontramos, por ejemplo, al modelar un argumento
concreto— y utilizar estas reglas para llegar a una conclusión específica. Eso demuestra
la validez del argumento modelado, pues a partir de sus premisas, utilizando solamente
argumentos válidos, podemos inferir la conclusión.

8.3.1. La estructura de una demostración

Una demostración de validez usando la deducción natural en LC0 va a tener siempre la


misma estructura: primero las n premisas numeradas y listadas verticalmente; después,
una línea que inicia con el símbolo de «por lo tanto» (∴) que indica que sigue la conclu-
sión; abajo de la conclusión, las conclusiones intermedias a partir de las premisas, usando
las reglas: cada una de estas líneas será, o la repetición de una premisa, o una fórmula
que se sigue de las premisas y/o de las conclusiones intermedias. A su derecha, especi-
ficamos qué regla se usó y a qué líneas se aplicó esta regla. Si la última línea es idéntica
a la conclusión del argumento, hemos demostrado la validez lógica del argumento.
Por ejemplo:
1. (q & r ) & t
∴q
2. (q & r ) E&(1)
3. q E&(2)
Este argumento demuestra la validez del argumento cuya única premisa es la línea 1 y
que tiene como conclusión «q ». La demostración consiste en inferir la línea 2 a partir
de la línea 1, usando la regla de eliminación de la conjunción, que abreviamos «E&»,
y después en inferir la línea 3 usando la misma regla, pero ahora aplicada a la línea
2. Como esta última línea es idéntica a la conclusión, esto demuestra la validez del
argumento.

8.3.2. Sustitución uniforme

Como las reglas que vamos a usar son esquemas de argumentos válidos (estructuras,
formas de ellos), necesitamos una manera de «traducirlas» a argumentos concretos,
formalizados en LC0. Eso es lo que nos da la sustitución uniforme. Veamos.
Cada una de las reglas que vamos a ver está escrita con meta-variables (definición
24), es decir, con variables que representan fórmulas de LC0, tanto atómicas como

160
moleculares.
Por ejemplo, esta es (parte de) la regla de la eliminación de la conjunción que veremos
abajo:

A&B
A

Esta regla nos dice: «Si tienes una fórmula cuya conectiva principal es una conjunción, es
lógicamente válido inferir el conyunto de la izquierda». De nuevo, cualquier argumento
con esta forma va a ser válido, como podemos confirmar muy fácilmente mediante
cualquiera de los dos métodos semánticos del capítulo pasado.
Lo que quiero resaltar es que la regla está escrita con meta-variables porque no nos
habla de un argumento específico, sino de un conjunto de argumentos: de todos aquéllos
que tengan la estructura especificada: una conjunción como premisa, y el conyunto de
la izquierda como conclusión. La regla nos dice, entonces, que todo argumento con esa
estructura va a ser válido.
Por ejemplo, estos dos argumentos:
1.q & r 1.(p ⊃ s ) & (r ∨ t )
/∴q /∴p⊃s
son válidos, pues en ambos hallamos la misma estructura: una premisa cuya conectiva
principal es una conjunción, y una conclusión que es el conyunto a la izquierda de la
conectiva. Revisa ambos argumentos y confirma que comprendes cómo cada uno es un
caso, un ejemplo, de la regla de arriba.
Lo que hemos hecho es utilizar la sustitución uniforme. A partir de la regla escrita
con metavariables, hemos hecho las siguientes sustituciones. Para el primero:
1.q & r = A&B
/∴q = A
Y para el segundo:
1.(p ⊃ s ) & (r ∨ t ) = A&B
/∴p⊃s = A
Ambas sustituciones son uniformes porque, una vez que sustituimos a «A» por una
fórmula—por «q » en la primera, y por «p ⊃ s » en la segunda—, lo seguimos haciendo
en la conclusión. Esto nos asegura que el argumento preserve la estructura de la regla.
Pero, ya habiendo realizado la inferencia, «descargamos» o «reiniciamos» esa sustitu-
ción: podemos volver a usar la regla, pero ahora sustituyéndola con otras fórmulas. Por
ejemplo, en este argumento:

161
1. r & t
2. (t & s ) & (q ∨ p)
∴t
3. r E&(1)
4. (t & s ) E&(2)
5. t E&(4),
hemos aplicado la misma regla: eliminación de la conjunción, sustituida uniformemente
tres veces, a diferentes líneas, que son lo que significan los números entre paréntesis a la
derecha de las líneas de abajo. Es decir: la línea 3 es la conclusión del argumento válido
que tiene como única premisa a la línea 1; la línea 4 también se sigue lógicamente de
la línea 2 y, a su vez, la línea 5 se sigue lógicamente de la línea 4. Todas, claro está,
mediante el mismo esquema válido: la eliminación de la conjunción. Hemos utilizado
ese esquema al sustituirlo uniformemente tres veces. Como la última línea es idéntica
a la conclusión, y llegamos a ella mediante las reglas (por ahora, la única que hemos
visto), esto constituye una demostración de la validez del argumento con las premisas
1 y 2 y con t como conclusión.

8.3.3. Reglas de equivalencia y de inferencia

Una regla de inferencia nos da una inferencia válida —es decir: un argumento que, en
todo posible caso en que sus premisas sean verdaderas, también tendrá conclusión
verdadera.
Escribiremos a las reglas de inferencia así:

A1
..
.
An
C

Donde «A1 » y las demás «A»s son cada una de las premisas de la regla, y C es la
conclusión de la regla. Entre las reglas que veremos, encontraremos reglas que tienen
cero, una, dos, o hasta cuatro premisas (pero todas tienen una sola conclusión).
Mientras tanto, una regla de equivalencia nos da dos inferencias válidas. La primera
inferencia válida es «de abajo hacia arriba», y la segunda es «de arriba hacia abajo»,
leyendo a través de las líneas, por así decirlo. Las escribiremos así:

A
B

Esta regla nos dice que los argumentos:

162
A
B
y:

B
A

son, cada uno, un argumento válido.


Sólo con las reglas de equivalencia podemos hacer sustitución uniforme «dentro»
de las fórmulas de un argumento. Con las de inferencia, no.
Es decir: las reglas de inferencia sólo se pueden aplicar a fórmulas cuya conectiva
principal sea la conectiva que tiene la regla. Con las reglas de equivalencia también
podemos hacer esto, pero además podemos aplicarlas a subfórmulas cuya conectiva
principal tenga esa conectiva. Al aplicarla a una subfórmula, el resto de la fórmula
queda igual.
Es decir: supongamos que tenemos una fórmula A, que contiene a otras fórmulas
como subfórmulas. Por ejemplo, si A fuera la fórmula:

¬(p ∨ r ) & (q ≡ s ),

y si tuviéramos una regla de equivalencia que transformara al primer conyunto (es


decir, a «¬(p ∨ r )»), podríamos usarla para transformar esta fórmula, modificando sólo
ese primer conyunto y dejando todo lo demás igual. Supongamos que lo transformo a
alguna fórmula que llamaremos «B». Entonces la fórmula de arriba quedaría:

B & (q ≡ s ),

transformando sólo el primer conyunto, dejando lo demás idéntico. Recuerda que esto
sólo se puede con reglas de equivalencia. Veremos ejemplos de esto abajo.
Voy a resumir esta primera clasificación de las reglas en el cuadro 8.1.

Tipo de regla Notación Lectura


A1 «C se sigue lógicamente de las fórmulas
De inferencia ..
. A1 , . . . , An »
An
C
«A se sigue lógicamente de B, y B se sigue lógi-
De equivalencia A
camente de A»
B

Cuadro 8.1: Una clasificación de las reglas de deducción natural de LC0.

163
Veamos un par de reglas de equivalencia que formarán parte del sistema que usaremos
aquí, para usarlas en un ejemplo. Estas se conocen como las «Leyes de De Morgan»,1
la primera es la siguiente:

¬( A ∨ B)
¬A & ¬B
Esta regla nos dice que la negación de una disyunción es lógicamente equivalente con la
conjunción de las dos subfórmulas negadas. La segunda ley de De Morgan es su «dual»,
y es esta:

¬( A & B)
¬A ∨ ¬ B
Esta regla nos dice que la negación de una conjunción es lógicamente equivalente a la
disyunción de las dos subfórmulas negadas. Cuando usemos a cualquiera de estas en
una demostración, la abreviaremos como «DeM».
Como son reglas de equivalencia, podemos aplicarlas ya sea a toda la fórmula, o a
una subfórmula también, tanto «de abajo hacia arriba», como «de arriba hacia abajo».

Supongamos que formalizamos un argumento, y nos encontramos que sólo tiene


una premisa, y la siguiente estructura:
1. ¬[¬(r ∨ s ) ∨ q ]
∴ ¬¬r ∨ ¬¬s
Es fácil demostrar este argumento utilizando las tres reglas que ya hemos visto —
E& y las dos DeM—, aplicándolas a las premisas mediante la sustitución uniforme.
Veamos:
1. ¬[¬(r ∨ s ) ∨ q ]
∴ ¬¬r ∨ ¬¬s
ejemplo 24

2. ¬[(¬r & ¬s ) ∨ q ] DeM(1)


3. ¬(¬r & ¬s ) & ¬q DeM(2)
4. ¬(¬r & ¬s ) E&(3)
5. ¬¬r ∨ ¬¬s DeM(4)
Veamos qué sucedió en cada paso.
En la línea 2, utilizamos la primera de las leyes de De Morgan que vimos, de arriba
hacia abajo, y aplicada a una subfórmula de la línea 1. Es decir: usando sólo la
subfórmula «¬(r ∨ s ) » de la línea 1, aplico De Morgan y dejo todo lo demás igual.
Eso me da la línea 2.
En la línea 3, aplicamos otra vez la primera ley de De Morgan, de nuevo de arriba
hacia abajo, pero ahora a toda la fórmula que está en la línea 2.
En la línea 4, apliqué la eliminación de la conjunción a la línea 3: eliminé un conyunto

164
(y la conectiva, obviamente) para quedarme con el otro.
En la línea 5, finalmente, usé la línea 4 para aplicarle una vez más las leyes de De
Morgan. Sólo que, en este caso, utilicé la segunda ley (y de arriba hacia abajo): de la
negación de una conjunción infiero la disyunción de las subfórmulas negadas. Esta
línea es idéntica a la conclusión del argumento, así que he demostrado la validez de
este.
Por supuesto, no en todos los casos las aplicaciones de las reglas van a ser «en
secuencia»: es decir, que la línea 2 resulte de transformar la 1, que la 3 resulte de
transformar la 2, y así. Puede ser que en la línea 25 utilice una fórmula de la línea 7,
por ejemplo.

8.3.4. Reglas de introducción y eliminación

La segunda clasificación de las reglas que vamos a ver es la que las divide en reglas de
introducción y reglas de eliminación.
Las reglas de introducción de una conectiva son esquemas de argumentos válidos en
los que las premisas no necesariamente tienen a la conectiva como conectiva principal,
pero en los que la que la conclusión sí la tiene. Por ejemplo: A / A ∨ B.
Las reglas de eliminación de una conectiva son esquemas de argumentos válidos en
los que al menos una de las premisas tiene a la conectiva como conectiva principal,
pero la conclusión ya no la tiene. Por ejemplo: A & B / A.
Esta clasificación no es exhaustiva: existen reglas que son de una categoría distin-
ta. Pero el primer conjunto de reglas que veremos contiene solamente a las reglas de
introducción y de eliminación para cada conectiva. Empezaremos con las reglas de
eliminación e introducción de la conjunción, que son las más sencillas.

La conjunción

Ya conocemos la primera regla de eliminación: a partir de una conjunción, podemos


inferir cualquiera de sus conyuntos. En realidad sólo vimos una primera versión, en
donde inferimos el conyunto izquierdo, pero inferir el conyunto derecho también es
lógicamente válido. (Pues, como para cualesquiera fórmulas A y B, la conjunción A&B
es lógicamente equivalente con la conjunción B&A —como puedes revisar notando que
el bicondicional entre ellas es tautológico—, en las conjunciones de LC0 no importa el
orden: no importa qué conyunto esté primero.)
Entonces, a las dos siguientes reglas les llamaremos eliminación de la conjunción —de
hecho, hablaré de ellas como si fueran una sola. La abreviaremos, como lo hemos hecho
arriba, con «E&».

165
Definición 44: Eliminación de la Conjunción

A&B A&B
E&
A B

Esta regla nos dicen que un argumento que tenga como premisa a una conjunción,
y como conclusión a cualquiera de los dos conyuntos (pero sólo uno por línea), es
un argumento lógicamente válido: en todo posible caso en que la premisa sea verdad,
también lo será la conclusión.
Es fácil comprobar la validez de esta regla mediante cualquiera de los dos métodos
semánticos del capítulo pasado, pero hagamos una demostración rápida. Supongamos
que una fórmula conjuntiva A & B es verdadera. Por la tabla de verdad de la conjun-
ción, ambos conyuntos, A y B, deben ser verdaderos. Por lo tanto, si la conjunción es
verdadera, necesariamente se sigue que A es verdadera, y necesariamente se sigue que
B es verdadera. Esto demuestra la validez de la regla: para cualesquiera dos fórmulas
(con «p»s y «q »s digamos) de la lógica, si su conjunción es verdadera, cada uno de los
conyuntos debe serlo también.
También hay una regla de introducción de la conjunción. Como la anterior, tiene dos
versiones: una en la que ponemos a la izquierda la primera fórmula que encontramos,
y la otra en la que esa primera fórmula va a la derecha. Esto sólo quiere decir que al
introducir una conjunción, no importa cuál de los conyuntos pongamos a la izquierda
y cuál a la derecha: de nuevo, a las conjunciones de LC0 «no les importa» el orden. A
ambas les llamaremos «I&» y, como con la anterior, las trataré como una sola regla.
Definición 45: Introducción de la Conjunción

A A
B I& B
A&B B&A

Falta ver algo importante que esta notación no deja claro, y que vale para todas
las reglas: las premisas de la regla (A y B) no necesitan estar una inmediatamente
después de la otra. Basta con que aparezcan en la demostración: ya sea en una de las
premisas del argumento que estamos demostrando, ya sea en las líneas después de la
conclusión, que se siguen de las premisas. Es decir: A y B pueden estar separadas por
una línea, o por veinte mil. No importa: mientras hayan aparecido antes, podemos usar
I& para inferir su conjunción. (Obviamente, no podemos usar a la conclusión, pues es

166
a lo que estamos intentando llegar.)
Ejercicio # 28
Utiliza las reglas de eliminación e introducción de la conjunción para demostrar los si-
guientes argumentos.

1. q
1. r & s
I II 2. r
∴s
∴q &r
1. s
1. (q & s ) & (r & t )
III 2. p & q IV
∴r &s
∴p &s
1. [t ⊃ (¬q ∨ r )] & [¬(r ∨ t ) ≡ (m ≡ ¬t )]
1. p & q
2. (q ⊃ t ) & (r ⊃ s )
2. (q ∨ ¬t ) & (¬t ≡ m)
V VI 3. m & ¬t
3. (s ∨ p) & u
4. (m ∨ q ) & ¬(q ⊃ t )
∴ [q & (¬t ≡ m)] & (p & u)
∴ m & {(q ⊃ t ) & [¬(r ∨ t ) ≡ (m ≡ ¬t )]}

La disyunción, 1

La primera regla para la disyunción que veremos es su regla de introducción. Esta es una
de las reglas más sencillas: nos dice que es válido adicionar una disyunción a cualquier
fórmula que ya teníamos. Es decir: si tenemos una fórmula como premisa, podemos
concluir que, o bien esa fórmula es verdadera, o bien cualquiera otra lo es. Esta otra
puede estar a la izquierda o a la derecha de la fórmula que teníamos como premisa. Por
ello, cada una de estas es una regla válida:
Definición 46: Introducción de la Disyunción

A A
I∨
A∨B B∨A

Aquí, A es la premisa. Para demostrar la validez de estas reglas, supongamos que


la premisa es verdadera. Como, por la tabla de verdad de la disyunción, una fórmula
disyuntiva es verdadera si cualquiera, o ambos, de sus disyuntos es verdadero, entonces
la disyunción de A con cualquier otra fórmula va a ser verdadera (pues ya estábamos
asumiendo a A como verdadera). Esa otra fórmula es lo que representa la metavariable
B: esta representa cualquier fórmula.

167
A ambas reglas las trataremos como una sola, y le llamaremos «I∨», o introducción
de la disyunción. Esta nos dice que a partir de una premisa (ya sea una premisa del
argumento o una fórmula que se siga de esas premisas mediante las reglas) podemos
inferir la disyunción con cualquier otra fórmula, a la izquierda o a la derecha.
Por ejemplo, el siguiente argumento es válido, pues la conclusión se sigue de la pre-
misa mediante I∨:
p &r
(p & r ) ∨ [¬¬(m ≡ ¬t ) ⊃ ¬(s ∨ t )]
El disyunto de la derecha no tiene nada que ver con la premisa. Pero la lógica que
estamos aprendiendo no captura relaciones de «tener que ver»: solamente relaciones
de inferencia válida. Este argumento es válido porque usa una regla válida: I∨. Y esta
regla es válida —como puedes comprobar con los métodos semánticos— porque, si
una fórmula es verdadera, la disyunción de esa fórmula con cualquier otra fórmula (a
la izquierda o a la derecha) también lo es. En todo caso lógicamente posible; de ahí la
validez de la regla.
También hay una regla de eliminación de la disyunción, pero es algo más complicada.
Veremos las reglas para el condicional antes —después de unos ejercicios.
Ejercicio # 29
Utiliza la regla de introducción de la disyunción para demostrar los siguientes argumen-
tos.
1. r 1. q
I II
∴ r ∨s ∴ ¬p ∨ q
1. ¬t
1. (p ⊃ ¬m) & (¬t ≡ m)
III 2. q IV
∴ [r ∨ (q & t )] ∨ [(p ⊃ ¬m) & (¬t ≡ m)]
∴ ¬t ∨ (r ⊃ ¬m)

La implicación material, 1

La primera regla de la implicación que veremos aquí es la eliminación del condicional,


que llamaremos, obviamente, «E⊃».
Esta regla —como todas las demás— refleja la definición semántica del condicio-
nal material. Esta definición nos dice que un condicional material sólo es falso cuando
su antecedente es verdadero y su consecuente es falso. En todos los demás casos, el
condicional es verdadero.
Por lo anterior, si sé que un condicional es verdadero, y también sé que su antece-
dente es verdadero, entonces sé que su consecuente debe, también, ser verdadero. Pues

168
si el consecuente fuera falso, entonces el condicional tendría que ser falso: recorde-
mos que un condicional material sólo es falso cuando su antecedente es verdadero y su
consecuente es falso. Esto justifica la regla de eliminación del condicional:
Definición 47: Eliminación del Condicional Material

A⊃B
A E⊃
B

Además de «E⊃», esta regla se conoce por varios otros nombres; un par de ellas
tienen abreviaciones usuales, que pongo al lado:
Modus Ponens M.P.
Modus Ponendo Ponens M.P.P.
Separación

Ejercicio # 30
Utiliza la regla de eliminación de la implicación para demostrar los siguientes argumen-
tos.
1. s ⊃ t 1. (p & q ) ⊃ ¬r
I 2. s II 2. (p & q )
∴t ∴ ¬r
1. (m ≡ ¬r ) 1. [¬(q ∨ ¬t ) ⊃ (r ≡ p)] ⊃ (s ≡ t )
III 2. (m ≡ ¬r ) ⊃ ¬(m ∨ s ) IV 2. [¬(q ∨ ¬t ) ⊃ (r ≡ p)]
∴ ¬(m ∨ s ) ∴ (s ≡ t )

Ejercicio # 31
Para demostrar los siguientes argumentos, utiliza las siguientes reglas (en algunos ar-
gumentos no es necesario usar todas): E&, I&, E ⊃ , I∨.
1. p & q 1. (r ∨ s ) ⊃ q
I 2. q ⊃ s II 2. r
∴s ∴q
1. (q ∨ s ) ⊃ (t & r )
1. s & t
2. s
III 2. (t ∨ r ) ⊃ n IV
3. (s & r ) ⊃ p
∴n
∴p

169
La equivalencia material, 1

La regla de introducción de la equivalencia material es muy sencilla. Se basa en el


hecho de que una equivalencia material es una co-implicación: dos proposiciones son
materialmente equivalentes cuando una implica materialmente a la otra y viceversa.
Definición 48: Introducción de la Equivalencia Material

A⊃B A⊃B
B⊃A I≡ B⊃A
A≡B B≡A

Esta regla solamente dice que, si tienes dos fórmulas condicionales (no importa que
estén una inmediatamente después de la otra o no), donde el antecedente de una es el
consecuente de la otra, y el consecuente de la primera es el antecedente de la primera,
puedes inferir el bicondicional correspondiente —poniendo cualquiera de las dos fór-
mulas a la izquierda o a la derecha. En resumen: si una proposición implica a la otra,
y viceversa, entonces ambas son equivalentes, y en la equivalencia material no importa
cuál esté a la derecha o a la izquierda.
Ejercicio # 32
Utiliza la regla de introducción de la equivalencia material para demostrar los siguientes
argumentos.

La equivalencia material, 2

La regla de eliminación de la equivalencia material es un poco más compleja, pero


no mucho más. La idea detrás de esta regla es la siguiente: si dos proposiciones son
equivalentes, entonces puedes sustituir una por la otra donde quiera que aparezcan. La
justificación de ello es que, si son equivalentes, entonces van a tener el mismo valor de
verdad. Pero si cambiamos una fórmula por otra que tenga el mismo valor de verdad,
nos va a resultar una fórmula que tenga el mismo valor de verdad que tenía la fórmula
original.
Veamos la regla. Como con la de introducción de la equivalencia, en realidad tenemos
dos versiones para hacer explícito que no importa cuál fórmula esté a la izquierda y
cuál esté a la derecha del bicondicional: mientras sean equivalentes, siempre podemos
sustituir una por la otra.

170
Definición 49: Eliminación de la Equivalencia Material

A≡B A≡B
Φ[A] E≡ Φ[ B]
Φ[ B] Φ[A]

Aquí, la letra griega Φ se refiere al contexto en el que aparece la fórmula. Así, la


notación «Φ[A]» se refiere a la fórmula de la cual A es una sub-fórmula. El contexto
puede ser vacío, de forma que A aparezca sola. Lo que la regla nos dice es que, si
tenemos que A y B son materialmente equivalentes, y si además A (o, en el segundo caso,
B) aparece como parte de otra fórmula —que sería Φ—, entonces podemos sustituir a
su equivalente y dejar a todo lo demás en la fórmula Φ igual.
Esta regla es una «pariente lejana» de la regla que estudiamos en el álgebra del ba-
chillerato: si sabemos que dos cosas son iguales, entonces cambiar una por la otra en
cualquier contexto, preserva lo mismo que teníamos antes de la sustitución. Sucede que
la equivalencia material ¡es un tipo de igualdad! A saber, es la igualdad de valores de
verdad. Es decir, si una fórmula con la equivalencia material como conectiva principal es
verdadera, eso significa que las dos fórmulas flanqueando la conectiva tienen el mismo
valor de verdad.
Veamos un par de ejemplos del uso de esta regla.

Supongamos que tenemos este argumento:


1. s ≡ t
2. t ⊃ r
3. s
∴r
Bien, pues veo que tengo que llegar a r , que está en la línea 2. Pero para obtener esa
letra, debo eliminar el condicional en el que está; lo que significa que debo tener a t
ejemplo 25

(pues es el antecedente del condicional, y al tenerla podría usar E ⊃ ). Pero no tengo


a t sola, solamente sé que equivale a s . Sin embargo, como sí tengo a s sola, puedo
sustituir a t por su equivalente y usar a s para quitar el condicional de 2. Usando esta
estrategia, puedo demostrar el argumento así:
1. s ≡ t
2. t ⊃ r
3. s
∴r
4. s ⊃ r E≡(1,2)
5. r E ⊃ (4,3)

171
La justificación de la línea 4 es que obtengo esa fórmula al eliminar el bicondicional
que está en la línea 1, sustituyendo a las fórmulas equivalentes en la línea 2. De
hecho, este mismo argumento tiene otra posible demostración, usando la misma
regla:
1. s ≡ t
2. t ⊃ r
3. s
∴r
4. t E≡(1,3)
5. r E ⊃ (2,4)
Esta otra demostración es igual de buena que la anterior, pues también utiliza las
reglas de manera adecuada. Sólo que ahora, en lugar de sustituir los equivalentes
que nos dice 1 en la fórmula 2, los sustituimos en la fórmula 3: sustituyo a t por su
equivalente en donde sea que aparezca; como en 3 aparece sola, puedo tener a t
sola. En este caso, se dice que el contexto de la fórmula es vacío (ella «aparece
sola»). Ya tenido a t es fácil inferir r eliminando el condicional de 2.
Consideremos este otro ejemplo.
1. (q ∨ r ) ≡ ¬(s & m)
2. ¬(s & m) ≡ t
3. q
∴t ∨p
4. (q ∨ r ) ≡ t E≡(1,2)
5. q ∨ r I∨(3)
6. t E≡(4,5)
7. t ∨ p I∨(6)
Quiero llegar a la disyunción t ∨ p . No la tengo en ninguna de las tres premisas,
pero sí tengo a t en la premisa 2. Así que seguramente la idea es sacar a t de ahí y
luego introducir lo demás con una I∨. Bueno, pero ¿cómo obtengo a t ? Veo que es
equivalente con ¬(s & m) , la cual, a su vez, es equivalente con (q ∨ r ) . Si tuviera
alguna de estas dos podría eliminar el bicondicional y quedarme con t . Pero no las
tengo.
Lo que sí tengo es a q en 3. Si uso una introducción de la disyunción, pudo obtener
(q ∨ r ) . Eso es lo que hice en 5. Con la equivalencia de 1 entre (q ∨ r ) y ¬(s & m) ,
puedo sustituir una por la otra en 2, que es lo que hice en 4. Con la equivalencia
que me queda en esa línea, y como ya tengo a una de esas dos fórmulas sola en 5,
puedo quedarme con la equivalente en 6. Sólo resta introducir lo demás mediante
una introducción de la disyunción y eso me da la conclusión del arugmento.

172
Ejercicio # 33
Utiliza la regla de eliminación de la equivalencia material para demostrar los siguientes
argumentos.

Demostraciones condicionales

En las demostraciones condicionales, suponiendo algo, demuestro que ello lleva a una
cierta consecuencia. Por supuesto, suponer algo significa lo contrario de «darlo por he-
cho»: significa considerarlo hipotéticamente, como si sucediera, aunque no pensemos que
de hecho sucede. En una demostración condicional, consideramos hipotéticamente cierta
premisa, y demostramos que una conclusión se sigue de ella.
Este tipo de razonamiento es muy común. Por ejemplo, si yo te digo un día:
Supongamos que ni Brasil, ni Italia, ni Argentina asistieran a la próxima copa mundial.
¿Quién tendría oportunidades de ganarla?
Lo que probablemente sucedería es que comenzarías a pensar en las consecuencias
de que los países que más han ganado copas mundiales no jueguen en la próxima
edición. Pero no es que aceptes o des por sentado que ellos no van a asistir: más bien,
lo consideras hipotéticamente, y piensas qué resultados tendría. Esos resultados van
a ser condicionales: se darían bajo la condición que estamos considerando. Piensas que
sucederían si es que ni Brasil, ni Italia, ni Argentina asistieran a la próxima copa mundial.
Vamos a introducir una notación especial para las inferencias condicionales. Usa-
remos «cajas» alrededor de una demostración condicional. Esta caja cubre desde la
fórmula que estoy suponiendo —la que estoy considerando hipotéticamente— hasta
cualquier fórmula que quiera demostrar a partir de ella. La forma general es esta:
A
..
.
B
Esto significa que:
• estoy suponiendo una fórmula A,
• los tres puntos representan las líneas en las que hago inferencias mediante las
reglas que ya tengo, usando las premisas del argumento, lo que he inferido de
ellas, o la suposición que hice, y
• B es una fórmula a la que llego, partiendo de A y de las líneas anteriores, y usando
las reglas.
Revisemos brevemente un ejemplo.

173
a. s & t (Sup.)
b. t (a, E&)
c. t ∨ r (b, I∨)
d. (t ∨ r ) ∨ q (c, I∨)
ejemplo 26

En este ejemplo, estoy suponiendo s & t . (Por eso lo justifico simplemente como
«Sup.», que abrevia el hecho de que lo estoy suponiendo.) Es como si dijera: «Su-
pongamos que s & t . ¿Qué se seguiría de ahí?» Bueno, pues de ahí se sigue t , por
la regla E&. Y de esta última, se sigue t ∨ r , por la regla I∨. Y, finalmente, de esta
última se sigue (t ∨ r ) ∨ q , por la misma regla.

Nota que no estoy poniendo la demostración entera. Este ejemplo sólo es sobre una
parte de una demostración: una sub-demostración bajo la suposición de la línea a.

Nota la convención que vamos a usar para numerar las líneas dentro de una caja:
usamos letras minúsculas (a partir de la «a»). Estrictamente hablando, una caja perte-
nece a una sola línea de la demostración que estemos haciendo: es una sub-demostración.
Como hemos estado numerando las líneas que se siguen de las premisas con números
arábigos a partir del 1, necesitamos otra numeración para las líneas que se siguen de
un supuesto, para no confundirnos. Resumiremos esto en la siguiente convención.
Convención 3 (Notación para las demostraciones condicionales). Una demostración condi-
cional pertenece a una única línea de la demostración principal. Pondremos una caja
alrededor de una demostración condicional, y numeraremos sus líneas de manera dis-
tinta a las líneas de la demostración principal, usando «a», «b», etc., para las líneas
de una demostración condicional dentro de la demostración principal. Si hacemos una
demostración condicional dentro de otra demostración condicional, usaremos todavía
otro sistema de numeración, como «i», «ii», etc. Y así sucesivamente.
¿Hasta donde debo llegar en una demostración condicional? Pues hasta donde lo re-
quiera en mi demostración. Eso va a depender de la conclusión del argumento que estoy
intentando demostrar: busco llegar a esa conclusión, o a una conclusión intermedia que
pueda usar, a su vez, para llegar a la conclusión del argumento. Una demostración con-
dicional no pone, por sí misma, ningún límite en el número de conclusiones que puedo
extraer de una suposición. Sólo se requiere que cada una de estas conclusiones se siga
ya sea solamente de la suposición, o de las premisas (y conclusiones intermedias) que
ya tenía antes, o de ambas.
Pero sí hay una restricción importante: cuando hago una demostración condicio-
nal, no puedo copiar fuera de la caja ninguna fórmula que esté dentro de la caja.
Hay más restricciones sobre esto, que vamos a ver en dos casos —al revisar la segunda
regla para el condicional y la segunda para la disyunción. Pero puedes ir memorizando
así a esta restricción: «lo que pasa en la caja se queda en la caja».

174
La implicación material, 2

La regla de introducción de la implicación, «I⊃», es una demostración condicional. Me


dice que si, a partir de suponer una fórmula, puedo demostrar otra, entonces puedo
inferir válidamente que: si es verdadera la primera, entonces también la segunda lo es.
Es decir: si a partir de la suposición de que A, utilizando las premisas y las reglas, puedo
demostrar que B, de todo ello puedo inferir que: A ⊃ B. Esta es la regla:
Definición 50: Introducción del Condicional Material

A
..
.
I⊃ B

A⊃B

Es claro por qué esta regla es de introducción de la implicación: partiendo de premisas


que no necesariamente tienen al condicional como conectiva principal, la regla nos dice
cómo inferir una fórmula condicional.
Nota algo muy importante. Como mencioné antes, lo que pasa en la caja se que-
da en la caja. Lo que hago en la demostración dentro de la caja —las conclusiones
intermedias— se obtienen bajo la suposición de que A sea verdadera. Pero esta es una
suposición: estoy considerando qué pasaría si esta suposición fuera verdadera, pero eso
no es lo mismo que decir que es verdadera. No es válido inferir que lo que se sigue
de una suposición sea verdad. Esta regla sólo me dice que, si a partir de suponer algo
—A—, puedo inferir otra cosa —B—, entonces es válido inferir que si lo que supuse
fuera verdad, también lo sería lo que se sigue de ello: es válido inferir que A ⊃ B.

Supongamos que formalizamos un argumento, y nos encontramos que tiene la si-


guiente estructura:
1. r ⊃ (q & ¬s )
ejemplo 27

∴ r ⊃ ¬s
Como la conclusión no está en las premisas, y la conclusión es un condicional mate-
rial, es muy probable que tenga que utilizar la introducción del condicional material.
Como vemos en la regla, para utilizar esa regla voy a suponer el antecedente del
condicional que quiero inferir. En este caso, el antecedente es r . A partir de este
antecedente, y de las premisas que ya tengo, voy a utilizar las reglas para inferir el
consecuente. Si logro hacer eso, puedo inferir el condicional material por la regla I ⊃ .
Veamos:

175
1. r ⊃ (q & ¬s )
∴ r ⊃ ¬s
a. r Sup.
2. b. q & ¬s E ⊃ (1,2a)
c. ¬s E&(2b)
3. r ⊃ ¬s I ⊃ (2)
Lo que hice es suponer el antecedente del condicional que quiero demostrar, esto
es en la línea 2a. Lo justifico así: como una suposición. Como estoy iniciando una
demostración condicional, abro una caja, dentro de la cual escribiré todo lo que se
siga de esta hipótesis. Pues bien, como tengo r y como mi primera premisa me dice
que r ⊃ (q & ¬s ) , puedo usar mis reglas para inferir que q & ¬s en la línea 2b.
Pero esto sigue dentro de la caja, pues lo inferí solamente bajo la suposición de r .
Finalmente, elimino la conjunción de la última fórmula para poder inferir ¬s (línea
2c). Podría seguir haciendo inferencias si quisiera, pero he llegado a donde quería:
quería llegar a ¬s porque mi conclusión la tiene como consecuente. Ahora ya puedo
cerrar la caja e introducir el condicional en la siguiente línea: como antecedente,
lo que supuse; como consecuente, lo que pude inferir al suponer ese antecedente.
La justificación es la abreviación de la regla aplicada a la línea en la que hice la
demostración condicional: la línea 2.
Veamos otro ejemplo. Supongamos que formalizamos un argumento, y nos encon-
tramos que tiene la siguiente estructura:
1. (q ∨ t ) ⊃ m
2. (q ⊃ m) ⊃ r
∴r
Como antes, me fijo qué hay en la conclusión: r . Tengo esa letra en la línea 2, pero
para quedarme con ella tendré que quitar el antecedente del condicional. La regla
que me permite quitar condicionales es E ⊃ , así que parece que en algún momento
tendré que usarla en 2. Pero para aplicar esta regla, necesito tanto el condicional
(línea 2) como el antecedente, que es (q ⊃ m) .
Bueno, no tengo ese antecedente. Sí tengo algo parecido en la línea 1, al menos
tiene a q y a m . Tengo que hacer algo para unir esas dos letras en un condicional.
Es decir, necesito «meter» un condicional ahí. Así que probablemente tenga que
usar I ⊃ . ¿Cómo podría hacerlo?
Quizá si supongo q , pueda llegar a m . Y de hecho así es: suponiendo q , puedo
añadirle t en disyunción (por I∨) y con ello tener el antecedente para inferir m (por
E ⊃ ). Habiendo hecho eso, puedo cerrar mi suposición y tener el antecedente de 2,
con lo que ya podría llegar a mi conclusión.
Haciendo todo lo anterior, tenemos la siguiente demostración:

176
1. (q ∨ t ) ⊃ m
2. (q ⊃ m) ⊃ r
∴r
a. q Sup.
3. b. q ∨ t I∨(3a)
c. m E ⊃ (1,3b)
4. q ⊃ m I ⊃ (3)
5. r E ⊃ (2,4)
Esto demuestra la validez del argumento.

Ejercicio # 34
Utiliza la regla de introducción de la implicación para demostrar los siguientes argumen-
tos.

Ejercicio # 35
Para demostrar los siguientes argumentos, utiliza las siguientes reglas (en algunos ar-
gumentos no es necesario usar todas): I& y E&, I ⊃ y E ⊃ , I≡ y E≡, I∨.
1. r ≡ s
1. (p ∨ s ) ⊃ ¬q
2. (s & t ) ⊃ q
I 2. s II
3. t & r
∴ ¬q
∴q
1.
1.
2.
III 2. IV
3.


1.
1.
2.
IV 2. VI
3.

Demostraciones por reducción al absurdo

Una manera de demostrar que es muy típica en matemáticas es la reducción al absurdo.


A veces se usa el mismo nombre para un tipo de falacia en el que representamos la
postura de un contrincante como algo «absurdo»: tonto, o difícil de defender. Este no
es un uso riguroso del nombre. Cuando representamos a la postura de un contrincante

177
como una postura más débil de la que de hecho es estamos cometiendo una falacia de
hombre de paja. Así que vamos a usar la frase «reducción al absurdo» para el tipo de
demostraciones que veremos ahora.
El nombre viene de usar «absurdo» como algo repugnante a la razón. En matemáticas
puras, sin embargo, nada impide postular cualesquiera tipos de objetos, siempre que
se puedan definir rigurosamente y sin contradicción. Por ello, algo es matemáticamente
«absurdo» solamente cuando es contradictorio. Reducir al absurdo, por tanto, significa
mostrar que lo que reducimos implica una contradicción.
Para hacer una reducción al absurdo, primero suponemos aquello que queremos re-
chazar, y entonces usamos argumentos válidos para demostrar que esa suposición ne-
cesariamente implica una contradicción. Una contradicción afirma y también niega lo
mismo que afirma. Es decir, la forma lógica de una contradicción es: A & ¬A. Por lo
tanto, para reducir al absurdo a una fórmula, primero supongo esa fórmula, y luego
demuestro que implica una fórmula con la estructura: A & ¬A. Por esta razón, una
reducción al absurdo usa demostraciones condicionales.

La negación

Las reglas de introducción y eliminación de la negación son demostraciones por reduc-


ción al absurdo.
La regla de introducción de la negación, «I¬», me dice que: si, al suponer algo, puedo
demostrar que esa suposición lleva a una contradicción, entonces puedo inferir que eso
que supuse es falso.
Definición 51: Introducción de la Negación

A
..
.
I¬ B & ¬B

¬A

La justificación de esta regla se basa en una idea muy sencilla: que ninguna fórmula
verdadera puede implicar a una contradicción. Vayamos por pasos. Primero, una contra-
dicción es falsa en toda asignación —como se puede ver fácilmente con las tablas de
verdad:
A & ( ¬ A)
V F F V
F F V F

178
Además, sabemos por la tabla de verdad del condicional material que una fórmula
condicional (es decir, una de la forma A ⊃ B) es verdadera sólo en tres posibles casos:
A ⊃ B
V V V
F V V
F V F
Viendo la tabla, veo que el único caso en el que suceden dos cosas: (i) la fórmula
condicional es verdadera y (ii) el consecuente es falso, es este:
A ⊃ B
V V V
F V V
F V F
Es decir, la fórmula condicional es verdadera y el consecuente es falso sólo cuando
el antecedente también es falso.
Juntemos ambos hechos: (i) una contradicción es falsa bajo toda asignación, y (ii)
el único caso en el que la fórmula condicional es verdadera y el consecuente es falso
es cuando el antecedente también es falso. Con esto podemos justificar la regla de la
introducción de la negación. Pues si he demostrado que una fórmula A implica a una
contradicción, eso significa que el condicional A ⊃ ( B & ¬B) es verdadero. Pero sabemos
que la contradicción debe ser falsa, por lo que el consecuente del condicional anterior
debe ser falso. Por el hecho (ii) de arriba, el antecedente debe ser falso también. Esto
justifica la validez de nuestra regla.
Ejercicio # 36
Utiliza la regla de introducción de la negación, junto con las demás reglas que hemos
revisado hasta ahora, para demostrar los siguientes argumentos.
1. s ≡ (m & t )
1. r ⊃ (p & q )
2. q ⊃ s
I 2. q ⊃ ¬p II
3. q ≡ ¬t
∴ ¬r
∴ ¬q

Podemos dar una justificación parecida para la regla de eliminación de la negación,


«E¬»:

179
Definición 52: Eliminación de la Negación

¬A
..
.
E¬ B & ¬B

La justificación es la siguiente: Si suponer que una fórmula es falsa me lleva a una


contradicción, entonces mi suposición inicial debe ser incorrecta: la fórmula debe ser,
pues, verdadera.
Ejercicio # 37
Utiliza la regla de eliminación de la negación, junto con las demás reglas que hemos
revisado hasta ahora, para demostrar los siguientes argumentos.
1. t & r 1. ¬p ⊃ (m ⊃ s )
2. (t ⊃ ¬p) & (r ⊃ p) 2. m
I II
3. ¬m ≡ (t & r ) 3. ¬p ⊃ ¬s
∴m ∴p

Demostraciones por casos

Antes de pasar a la regla de eliminación de la disyunción, hay que explicar el concepto


de demostración por casos. Vamos a empezar con un ejemplo.
Considera la elección presidencial en E.U.A. en 2016. Había dos contendientes: Do-
nald Trump y Hillary Clinton. Además, sucedía que Donald Trump había expresado
su desaprobación con las pruebas nucleares de Corea del Norte. Por otro lado, Hillary
Clinton también estaba en desacuerdo con la política social e internacional de Corea
del Norte. Aparte de esto, Clinton tenía la postura de que E.U.A. debería enfrentarse
diplomáticamente con aquellos países que no se alinearan a los tratados internacionales
en materia bélica y de derechos humanos.
Sabiendo esto, los observadores internacionales podían afirmar lo siguiente:
Si Clinton gana las elecciones en 2016, E.U.A. tendrá un conflicto diplomático con Corea del
Norte.
Pero Trump es bien conocido por realizar afirmaciones problemáticas en su cuenta
de Twitter, incluyendo afirmaciones acerca de sus opiniones de política internacional.
Esto, aunado a su postura con respecto a la situación en Corea del Norte, hizo que los
observadores internacionales pudieran afirmar lo siguiente:

180
Si Trump gana las elecciones en 2016, E.U.A. tendrá un conflicto diplomático con Corea del
Norte.
Juntando ambas afirmaciones, teníamos que:
E.U.A. tendrá un conflicto diplomático con Corea del Norte.
Es decir: como las únicas dos opciones eran que ganara Clinton o que ganara Trump,
y como, además, los dos tenían opiniones contrarias a Corea del Norte, de aquí se podía
inferir que, pasara lo que pasara, E.U.A. tendrá un conflicto diplomático con Corea del
Norte.
Así funciona la demostración por casos: cuando tenemos sólo un número limitado de
opciones, y además cada una de estas opciones implica el mismo resultado, entonces se debe seguir
que ese resultado va a pasar, suceda la opción que suceda.
En una demostración por casos, ni siquiera necesito saber cuál de las opciones sucede.
Sólo necesito saber que: si una sucede, llevará a un resultado, y si la otra sucede, llevará
al mismo resultado. Si sé ambas cosas—que cada una lleva al mismo resultado—y si sé
que son las únicas dos opciones, puedo inferir que llegaré a ese resultado.
Pero ¿cómo puedo saber que cada una lleva al mismo resultado, si no sé si suceden
o no? Fácil: supongo que suceden, y demuestro que llevan al resultado. Es decir: en las
demostraciones por casos, hago demostraciones condicionales.

La disyunción, 2

La regla de la eliminación de la disyunción —que llamaremos «E∨»— es la estructura


de una demostración por casos.
Como vimos antes, en una demostración por casos ni siquiera necesito saber cuál de
las opciones de hecho sucede. Sólo necesito saber que cada una lleva al mismo resultado,
y que son las únicas dos opciones. Es decir, para cada uno de los dos disyuntos, hago
esto: lo pongo como suposición y, utilizando las reglas y las premisas que ya tengo,
demuestro que lleva a una fórmula específica.
Cuando cada uno de los disyuntos lleva a la misma fórmula, puedo saber que la fórmula
disyuntiva implica a esa fórmula. Pues, según la tabla de verdad de la disyunción, una
fórmula disyuntiva es verdadera en tres posibles casos:
A ∨ B
V V V
V V F
F V V
Es decir, una fórmula disyuntiva, del tipo de «A ∨ B», es verdadera si, o bien: A
es verdadera, o bien B es verdadera, o bien ambas son verdaderas. Si tanto A como
B implican a una misma fórmula C, esto quiere decir que, en cualquiera de los tres

181
posibles casos en los que la implicación sea verdadera, también lo será C. Esto justifica
la regla de eliminación de la disyunción, «E∨»:
Definición 53: Eliminación de la Disyunción

E∨

A∨B
A B
.. ..
. .
C C

En resumen: si cada uno de los disyuntos implica a una misma fórmula C, entonces
la disyunción por sí misma implica a C. Pero hay que demostrar eso: que cada uno
de los disyuntos implica a una misma fórmula. Para esto hacemos dos demostraciones
condicionales.
Ejercicio # 38
Utiliza la regla de eliminación de la disyunción, junto con las demás que hemos visto,
para demostrar los siguientes argumentos.
1. (q ∨ r ) ≡ m
1. r ∨ s
2. m & t
2. s ⊃ t
I II 3. r ≡ p
3. r ≡ q
4. q ⊃ p
∴ t ∨q
∴p
1. s ⊃ r 1. n ⊃ (q ∨ m)
2. r ⊃ (q ∨ ¬m) 2. m ≡ (s ⊃ t )
III 3. s & (¬m ⊃ p) IV 3. q ⊃ t
4. p ≡ q 4. n & s
∴p ∴t

Resumen de las reglas hasta ahora

Vamos a resumir lo visto en sendos cuadros. El primero, el cuadro 8.10, resume la


diferencia entre reglas de introducción y de eliminación; el segundo cuadro —8.11—
resume las reglas que hemos visto hasta ahora.
Recuerda que la clasificación entre reglas de introducción y de eliminación no es

182
exhaustiva: no todas las reglas son de una u otra categoría: hay fórmulas que son de
otra categoría. Estas las revisaremos después.

Tipo de regla Concepto


Parto de premisas en donde una fórmula contie-
ne a la conectiva como conectiva principal. La
De eliminación
regla me permite inferir una fórmula sin esa co-
nectiva como conectiva principal.
Parto de premisas en donde no necesariamente
hay una fórmula que contenga a la conectiva co-
De introducción mo conectiva principal. La regla me permite infe-
rir una fórmula que sí tenga esa conectiva como
conectiva principal.

Cuadro 8.10: Una clasificación de las reglas: de eliminación y de introducción. Esta clasificación
no es exhaustiva.

183
Introducción Eliminación
A A
A&B A&B
& B B
A B
A&B B&A
A∨B
A B
.. ..
A A . .

A∨B B∨A C C

C
A
..
. A⊃B
⊃ B A
B
A⊃B

A⊃B A⊃B A≡B A≡B


≡ B⊃A B⊃A Φ[A] Φ[ B]
A≡B B≡A Φ[ B] Φ[ A]

A ¬A
.. ..
. .
¬ B & ¬B B & ¬B

¬A A

Cuadro 8.11: Las reglas de eliminación y de introducción para cada una de las conectivas.

184
8.3.5. Reglas básicas y reglas derivadas

Las reglas básicas son las que, en conjunto, nos permiten demostrar la validez de todas
las demás reglas. Estas, cuya validez es demostrable partiendo de la validez de las
básicas, serán las reglas derivadas.
Como reglas básicas, tendremos a las reglas de eliminación e introducción de la
sección anterior, así como la regla de explosión, que ahora veremos, y que abreviaremos
«Expl»:
Definición 54: Explosión

A & ¬A
Expl
B

Esta regla también es conocida como «Ex contradictione quodlibet»: de una contradicción,
todo se sigue. ¿Por qué es válida? Lo podemos ver con las definiciones semánticas de las
conectivas y el concepto de validez (definición 10, p. 50). Por las primeras, sabemos que
una contradicción es falsa bajo toda asignación: es decir, que no existe ninguna situación
lógicamente posible en la que sea verdadera. Por la definición de validez, sabemos que:
un argumento es válido siempre y cuando, no existe ninguna situación lógicamente
posible en la que sus premisas sean todas verdaderas pero la conclusión falsa. Por lo
tanto, cualquier argumento que tenga una contradicción entre sus premisas va a ser
válido, pues no va a existir ninguna situación en la que todas sus premisas sean verdaderas.
Esto sin importar qué fórmula sea la conclusión: puede ser verdadera, pero también
falsa. Aún cuando la conclusión sea falsa, el argumento será válido —simplemente
porque, de nuevo, no va a existir ninguna situación en la que todas sus premisas sean
verdaderas pero la conclusión falsa, pues entre las premisas hay una contradicción y
esta no puede ser verdadera.
Todas las reglas restantes son reglas derivadas.

Tipo de regla Concepto


En conjunto, permiten demostrar la validez de to-
Básicas
das las demás reglas.
Su validez es demostrable partiendo de la vali-
Derivadas
dez de las básicas.

Cuadro 8.13: Una clasificación de las reglas: básicas y derivadas. Esta clasificación sí es
exhaustiva.

La ventaja de tener más reglas derivadas es que las demostraciones se pueden sim-
plificar bastante. La desventaja es que tenemos que memorizar más reglas. Podemos

185
quedarnos solamente con las reglas básicas. Pero algunas demostraciones resultarán
mucho más largas de lo que serían usando reglas derivadas. Esto sucede porque el usar
solamente reglas básicas sería como estar demostrando la validez de la regla derivada
en cada caso.

8.3.6. Propiedades algebraicas

Recordemos que las conectivas de LC0 son operaciones con valores de verdad (como
explicamos en la sección 6.2). Como las operaciones aritméticas, las operaciones de
LC0 también tienen propiedades algebraicas.
Recuerda la multiplicación entre números. Una de las leyes que expresan las propie-
dades de esta operación es esta:

(x · y) = (y · x)

De acuerdo con esta ley, al multiplicar un número x con uno y tendremos exactamente
el mismo número que al multiplicar primero y con x. Esta propiedad, tan sencilla, se
llama conmutatividad. Decimos, entonces, que la multiplicación es conmutativa porque no
importa si cambiamos el orden de los números, el resultado es el mismo: «el orden de
los factores no altera el producto». De igual forma, la suma es conmutativa porque vale
la siguiente ley:
(x + y) = (y + x)

Las operaciones lógicas también obedecen leyes algebraicas como esta. Por ejem-
plo, la conjunción y la disyunción también son conmutativas: no importa el orden de
los conyuntos, el valor de verdad no cambia; de igual forma, no importa el orden de
los disyuntos, el valor de verdad no cambia. Ahora veremos estas y otras reglas que
describen estas propiedades.

Reglas de equivalencia

Definición 55: Propiedades de Conmutatividad

A&B A∨B A≡B


Conm& Conm∨ Conm≡
B&A B∨A B≡A

186
Definición 56: Propiedades de Idempotencia

A A
Idem& Idem∨
A&A A∨A

Se dice que la conjunción y la disyunción son asociativas porque nos permiten «mo-
ver los paréntesis». Es decir, cuando tenemos una fórmula cuyas conectivas son so-
lamente conjunciones, o solamente disyunciones, dónde pongamos los paréntesis es
irrelevante. Y es irrelevante porque una manera de acomodar los paréntesis va a ser
equivalente con la otra. Recuerda que hablamos de fórmulas (o subfórmulas) que úni-
camente tengan a la conjunción, o a la disyunción, como conectivas principales.
Definición 57: Propiedades de Asociatividad

A & ( B & C) A ∨ ( B ∨ C)
Asoc& Asoc∨
( A & B) & C ( A ∨ B) ∨ C

La siguiente propiedad importante es la involutividad de la negación, que solamente


significa que la negación de una proposición negada es la proposición original. Como
con la operación de tomar el negativo de un número en el álgebra: el negativo de un
negativo es un positivo. Así, aquí, la negación de una negación es una afirmación. Es
por eso que a la regla se le conoce, más usualmente, como «doble negación». Esta regla
nos dice que podemos quitar o poner dos negaciones en toda fórmula o subfórmula.
Nota algo muy importante: la negación debe de ser doble para que haya equivalencia.
Es completa y obviamente inválido poner una sola negación: si teníamos una proposición
verdadera ¡su negación va a ser falsa! Sólo cuando ponemos, o quitamos, dos negaciones
al mismo tiempo (o cualquier número par), preservamos el mismo valor de verdad.
Definición 58: Propiedad de Involución (Doble Negación)

A
D.N.
¬¬A

Finalmente, tenemos dos reglas que no son muy usuales, pero que también represen-
tan propiedades algebraicas del condicional material.

187
Definición 59: Propiedad de Conmutación de Antecedentes

A ⊃ ( B ⊃ C)
CoAn ⊃
B ⊃ ( A ⊃ C)

Nota que esta no es la propiedad de la conmutatividad del condicional. Conmutar el


condicional sería partir de A ⊃ B para inferir B ⊃ A. Pero esta inferencia es inválida
(como puedes comprobar rápidamente mediante el método de asignaciones), pues hay
un caso en que pasamos de verdad a falsedad: cuando A es falsa y B es verdadera.
Aunque el condicional material no es idempotente (como se puede comprobar fácil-
mente con el método de asignaciones), sí satisface una propiedad que podemos llamar
«expansiva».
Definición 60: Propiedades de Expansividad

A
Exp ⊃
( A ⊃ A) ⊃ A

Reglas de inferencia

El bicondicional y el condicional materiales tienen la propiedad de ser relaciones tran-


sitivas.2 (Revisaremos con mayor profundidad este concepto en un capítulo posterior:
sec. 13.1.1.) Para fines prácticos, la transitividad significa que puedes «cortar» los «esla-
bones» intermedios en una «cadena». Fíjate en la estructura de las dos reglas siguientes:
tenemos que A implica a B, que a su vez implica a C. La transitividad de la implicación
material nos permite quitar el intermedio y conectar directamente a A con C. Lo mismo
con el bicondicional.
A la regla que representa la transitividad del condicional material se le conoce tradi-
cionalmente como «silogismo hipotético», y aquí vamos a usar el nombre clásico, pero
también para la transitividad del bicondicional.
Definición 61: Propiedades de Transitividad (Silogismo Hipotético)

A⊃B A≡B
B⊃C S.H. B≡C S.H.
A⊃C A≡C

188
Definición 62: Propiedad de Distributividad del Condicional

A ⊃ ( B ⊃ C)
Dist ⊃
( A ⊃ B) ⊃ ( A ⊃ C)

Las dos siguientes son las primeras reglas incondicionadas que veremos en este
libro. Esto quiere decir que estas reglas no necesitan premisas: podemos introducir su
conclusión en cualquier momento de una demostración.
Definición 63: Propiedades de Reflexividad

Refl ⊃ Refl≡
A⊃A A≡A

Propiedades algebraicas: Interacción

Las reglas de interacción son esquemas de argumentos válidos cuyas premisas contienen
distintas conectivas principales. Así, como su nombre lo dice, este tipo de reglas nos
van a decir cómo interactúan las conectivas, es decir, qué argumentos que las contengan
son válidos. Vamos a ver de dos tipos: de equivalencia y de inferencia.

Propiedades algebraicas de interacción: reglas de equivalencia

Las primeras reglas de interacción son las propiedades algebraicas de dualidad: un tipo
de equivalencia entre dos conectivas bajo la negación. Decimos que la conjunción y la
disyunción son «duales» porque una es el «espejo» de la otra. Piensa en sus tablas de
verdad: la tabla de la conjunción es la inversa de la tabla de la disyunción. A esta pro-
piedad de dualidad le corresponde un par de reglas que se conocen, tradicionalmente,
como «teoremas de DeMorgan» (por el lógico inglés del siglo XIX), y es el nombre que
usaremos aquí.
Definición 64: Propiedades de Dualidad (Teoremas de DeMorgan)

¬( A ∨ B) ¬( A & B)
DeM. DeM.
¬A & ¬B ¬A ∨ ¬ B

El siguiente par de reglas corresponden a las propiedades de distribución. La primera

189
es la distributividad de la conjunción sobre la disyunción, y la segunda la distributividad
de la disyunción sobre la conjunción.
Definición 65: Propiedades de Distributividad

A & ( B ∨ C) A ∨ ( B & C)
Dist&/∨ Dist∨/&
( A & B) ∨ ( A & C) ( A ∨ B) & ( A ∨ C)

Una propiedad importante del condicional material es que toda fórmula condicional
es equivalente a su transpuesta. Esta solamente es la misma fórmula condicional pero que
dice: si no se da el consecuente, no se da el antecedente. Esto justifica decir que el
consecuente de un condicional material es una condición necesaria para el anteceden-
te: es un sine qua non. A esta regla de equivalencia se le conoce como «transposición»,
y es el nombre que usaremos aquí.
Definición 66: Transposición

A⊃B
Transp.
¬B ⊃ ¬ A

Propiedades algebraicas de interacción: reglas de inferencia

Totalidad de ⊃ (A entonces B) v (B entonces A)


Monotonicidad ( A1 & . . . & An ) ⊃ ( B1 & . . . & Bn ) si sucede que A1 ⊃ B1 , A2 ⊃
B2 , . . . , An ⊃ Bn
( A1 ∨ . . . ∨ An ) ⊃ ( B1 ∨ . . . ∨ Bn ) si sucede que A1 ⊃ B1 , A2 ⊃ B2 , . . . , An ⊃ Bn
Monotonicidad de conjunción A ⊃ B/( A & C) ⊃ ( B & C)
Monotonicidad de disyunción A ⊃ B/( A ∨ C) ⊃ ( B ∨ C)

8.3.7. Definiciones entre conectivas

Resulta que cada una de las conectivas &, ∨, ⊃, ≡, puede definirse en términos de la ne-
gación y de cada una de las demás conectivas. Estos se muestra mediante las siguientes
reglas de inferencia. Vamos a usar la convención de poner primero la conectiva definida
y después la conectiva con la que se define.

190
Definición 67: Definiciones de la Conjunción

A&B A&B
&/ ⊃ &/∨
¬( A ⊃ ¬B) ¬(¬A ∨ ¬B)

Definición 68: Definiciones de la Disyunción

A∨B A∨B
∨/& ∨/ ⊃
¬(¬A & ¬B) (¬A ⊃ B)

Definición 69: Definiciones del Condicional

A⊃B A⊃B
⊃/& ⊃/∨
¬( A & ¬B) (¬A ∨ B)

Definición 70: Definiciones del Bicondicional

A≡B A≡B
≡/∨ ≡/&
( A & B) ∨ (¬A & ¬B) ( A ⊃ B) & ( B ⊃ A)

La negación también se puede definir, pero introduciendo otras conectivas veritativo-


funcionales que no veremos aquí.

8.3.8. Interacción entre conectivas

Vamos a definir varios esquemas de argumento válidos. Estos son reglas muy bien co-
nocidas y muy importantes por la amplitud de sus aplicaciones. En cada caso, usamos
los nombres tradicionales.
Definición 71: Reglas de interacción

A⊃B A∨B
M.T. S.D.
¬B ¬A
Modus Tollens Silogismo Disyuntivo
¬A B

191
A⊃B A⊃B
C⊃D D.C. C⊃D D.C.
A∨C Dilema Constructivo ¬B ∨ ¬D Dilema Destructivo
B∨D ¬A ∨ ¬ C
A ⊃ ( B ⊃ C) Exp. ( A & B) ⊃ C Abs.
( A & B) ⊃ C Exportación A ⊃ ( B ⊃ C) Absorción

A Cond.
B⊃A Condicionalización

Nota que, en condicionalización, «B» es cualquier fórmula. Es decir: una vez que
sabemos que una fórmula es verdadera, podemos ponerla como consecuente de un
condicional con cualquier cosa como antecedente. Es fácil ver la validez de esta regla:
para cualquier fórmula A, si ella es verdadera, entonces el condicional B ⊃ A también
va a ser verdadero, sin importar qué valor tenga la fórmula B. Por lo tanto, esta regla
siempre preserva la verdad de las premisas y por lo tanto, es válida.
Ejercicio # 39
Formaliza los siguientes argumentos. Después de ello, demuestra su validez utilizando
las reglas de deducción natural para LC0.
I Sufro. Si sufro, lloro. Si lloro, hago catarsis. Si hago catarsis, me pongo extático.
Por otro lado, si es el caso que: si sufro entonces me pongo extático, entonces: si sufro,
disfruto. Por lo tanto, disfruto.
II Estudio. Si no repruebo, me regalan un auto. Si me regalan un auto y paso, seré
una persona virtuosa. Por otra parte, si estudio, no repruebo. O paso o repruebo. Por lo
tanto, seré una persona virtuosa.
III Si me ruegas, tenemos un gran futuro. Pues basta que me ruegues para que te
perdone; pero te perdono siempre y cuando no lo vuelvas a hacer; y si no lo vuelves a
hacer, tenemos un gran futuro.
IV Pasaré el examen de idiomas y me graduaré. Me graduaré, lo que requiere que
termine los créditos. O dejo el trabajo o no termino los créditos. O sea que, en definitiva,
todo lo anterior conlleva que voy a pasar el examen y voy a dejar el trabajo.
V Si te quiere, te trata bien. Pero si te trata bien, esperará reciprocidad. De ahí que,
si te quiere, esperará reciprocidad y le importará tu bienestar. Pues no va a pasar que:
espere reciprocidad y no le importa tu bienestar.
VI Ganaré la carrera. Esto lo infiero de todo lo siguiente: en primera, he entrena-
do. Además: o perderé la carrera o ganaré la carrera, o empataré. Aparte, sé que: no
empataré. Aunque, si perderé la carrera, no he entrenado.

192
VII Si aportas al Seguro Social, te descuentan. Si te descuentan, entonces, o pierdes
dinero o ahorras para tu futuro. Pero como aportas al Seguro Social, y sin perder dinero,
debo concluir que: estás ahorrando para tu futuro.
VIII Me odias. Esto lo infiero de todo lo siguiente: en primera, me lastimas. Además:
o me amas o me odias, o te soy indiferente. Aparte, sé que: no te soy indiferente. Aunque,
si me amas, no me lastimas.
IX
X
....................................................................................
Demuestra la validez de los siguientes esquemas de argumento utilizando las reglas
de deducción natural.

193
I 1. r ≡ (q ∨ s )
1. ¬q ⊃ ¬p 2. ¬s & r
2. (p ⊃ q ) ⊃ ¬(q ∨ s ) / ∴ ¬s /∴q
II X
1. ¬q ⊃ ¬¬p 1. ¬q ⊃ ¬p
2. ¬q & (¬p ∨ s ) / ∴ s 2. (p ⊃ q ) ⊃ ¬(q ∨ s )
III / ∴ ¬s
1. (¬r & ¬s ) ≡ q XI
2. q 1. p ⊃ ¬q
3. p ⊃ ¬¬(r ∨ s ) 2. (q ⊃ ¬p) ⊃ ¬(r ∨ s )
/ ∴ ¬p 3. ¬¬¬r ⊃ m
IV /∴m
1. t & (r ∨ q ) XII
2. t ⊃ ¬r 1. ¬(m&o) ⊃ ¬(q ⊃ s )
/∴q 2. q ⊃ (r ∨ t )
V 3. (t ≡ s )&(r ⊃ s )
1. s ⊃ ¬¬p /∴o
2. s & (¬p ∨ t ) XIII
/∴ t 1. s ≡ (t ∨ m)
VI 2. ¬(¬t ∨ ¬m)
1. r & (s ∨ t ) 3. ¬q ⊃ ¬s
2. r ⊃ ¬s / ∴ ¬¬q
/∴t XIV
VII 1. ¬(r &s ) ≡ (q ⊃ t )
1. (¬q ∨ r ) & t 2. (¬t ⊃ ¬q ) ⊃ p
2. t ⊃ ¬¬q 3. ¬s
/∴r /∴p
VIII
XV
1. p ⊃ ¬q
1. (r & m) ⊃ (¬s & ¬q )
2. p & (q ∨ s )
2. ¬(q ∨ s ) ⊃ (m ⊃ t )
/∴s
3. (¬t ⊃ ¬m) ⊃ (r & m)
IX
/ ∴ (m ⊃ t ) ≡ ¬(¬r ∨ ¬m)

....................................................................................
Completa las premisas y los pasos usados en la siguiente demostración. Voy a indicar
con una estrella («⋆») los lugares faltantes en las premisas que hay que completar.
I

194
1. p & ¬s
2. (r ⊃ ⋆) & (¬r ⊃ t ) / ∴ ¬¬t
3. E&(1)
4. E&(2)
5. ¬r
6. E&(2)
7.
8. D.N.(7)
II
1. ¬p&¬q
2. ¬(⋆ ∨ q ) ≡ (r ≡ s )
3. (t ∨ n)&s /∴r
4. DeM.(1)
5. s
6. E≡(2, 4)
7. r

8.4. Equivalencia e implicación lógica: Demostrativa

El concepto de implicación lógica nos sirve para entender cómo se relacionan las fórmu-
las. De forma aproximada, una fórmula implica lógicamente a la otra cuando, solamente
en virtud de su forma, si la primera es verdadera la segunda también tiene que serlo.
Ya vimos una definición exacta de este concepto, en la sección 6.8: de acuerdo con
la definición 40, una fórmula implica semánticamente a otra, siempre y cuando su
condicional material sea tautológico. Es decir: una fórmula implica lógicamente a la
otra cuando no haya ningún caso posible en el que la primera sea verdadera, pero la
implicada sea falsa.
Ahora veremos una versión demostrativa de este concepto.
Definición 72: Implicación lógica—versión demostrativa

Una fórmula, A, implica lógicamente a otra fórmula, B, siempre y cuando:


tomando a A como premisa, usando las reglas podemos inferir a B como
conclusión.

Por otro lado, el concepto de equivalencia lógica nos sirve para clasificar a las fórmulas.
De forma aproximada, dos fórmulas son lógicamente equivalentes cuando, solamente en
virtud de su forma, ambas son verdaderas y falsas en exactamente las mismas circunstan-
cias. Podemos decir que la lógica no distingue entre fórmulas lógicamente equivalentes.

195
Ya vimos una definición exacta de este concepto, en la sección 6.8: de acuerdo con la
definición 39, dos fórmulas son semánticamente equivalentes siempre y cuando su
bicondicional sea tautológico. Es decir: dos fórmulas semánticamente equivalentes «no
se pueden distinguir» porque van a ser verdaderas en exactamente los mismos casos y
falsas en exactamente los mismos casos.
Ahora vamos a ver otra forma exacta de entender esta idea de que dos fórmulas
lógicamente equivalentes «no se pueden distinguir por pura lógica».
Definición 73: Equivalencia lógica—versión demostrativa

Dos fórmulas, A y B, son lógicamente equivalentes siempre y cuando:


A implica mediante las reglas (básicas y/o derivativas) a B y también B
implica mediante las reglas a A.

Es decir: la equivalencia lógica, en su versión demostrativa, significa que cada una


de las fórmulas equivalentes implica demostrativamente a la otra.
Uno de los más importantes logros de la lógica matemática del siglo XX es haber
demostrado que las dos formas de entender a la equivalencia e implicación lógicas —la
semántica y la demostrativa— cubren a exactamente las mismas fórmulas de la lógica
LC0.3 Es decir, que:
• Una fórmula A implica demostrativamente a una B, siempre y cuando A implica
semánticamente a B.
• Dos fórmulas, A y B, son demostrativamente equivalentes siempre y cuando A y
B sean semánticamente equivalentes.

8.4.1. Equivalencia e implicación lógica: Notación

Introducimos la notación para las versiones demostrativas, junto con la que ya tenía-
mos para las versiones semánticas:
Implicación demostrativa Si A implica demostrativamente a B, escribimos: A ⊢ B.
Implicación semántica Si A implica semánticamente a B, escribimos: A ⊨ B.
Equivalencia demostrativa Si A y B son demostrativamente equivalentes, escribimos:
A ⊣⊢ B.
Equivalencia semántica Si A y B son semánticamente equivalentes, escribimos: A ⊨⊨
B.
Como dijimos antes, no usaremos mucho esta notación, pero es importante que sepas
a qué se refiere.

196
⋆ La interpretación de LC0


Proyecto del capítulo

Antecedentes d A finales del siglo XIX e inicios del XX, ocurrió un debate alrededor
de los fundamentos de las matemáticas. Algunos, como Gottlob Frege, pensaban que
todas las matemáticas podían reducirse a algunos supuestos básicos de la lógica, aunque
partiendo de esa base las demostraciones fueran muy largas. Estos supuestos solamente
definían el uso de algunos símbolos básicos —incluyendo a los símbolos que hemos
definido para las conectivas lógicas de LC0— y mostraban cómo interactuaban entre sí.
Sin embargo, Frege no pensaba que estos supuestos fueran arbitrarios. Él era un realista
acerca de las matemáticas y de la lógica: pensaba que las fórmulas describen un reino
objetivo, real, independiente de nosotros. Pero si las matemáticas y la lógica constituyen
un reino objetivo, que no creamos nosotros, ¿cómo podemos saber si estos supuestos
básicos son verdaderos o falsos? Es decir, ¿cómo podemos saber si estos supuestos
básicos describen a ese reino?
En el lenguaje cotidiano, las palabras que usamos forman oraciones, y estas pueden
ser verdaderas si describen correctamente las circunstancias, o falsas si no lo hacen.
Esto requiere, a su vez, que las palabras tengan un significado, para que, cuando las
usemos juntas, puedan describir a los objetos en el mundo.
En la lógica, es usual pensar que el significado está dado por la semántica formal.
En el caso de LC0, esta está dada por las tablas de verdad. Pero una vez que tenemos las
reglas (de inferencia y equivalencia) y la semántica formal, surge la pregunta de cómo
se relacionan entre sí.
En este proyecto vamos a dar una respuesta parcial a esa pregunta. Comenzamos con
una definición: un sistema de reglas de deducción natural es correcto respecto a una
semántica, siempre y cuando cada una de sus reglas es un argumento semánticamente
válido en esa semántica.

197
Problema d Resulta que el sistema de reglas que hemos visto es correcto. Para de-
mostrarlo, basta demostrar la validez de las reglas básicas. Este proyecto consiste en
demostrar la corrección del sistema que hemos visto.
Para ello, vas a demostrar que el sistema de reglas que consiste en:
• Las reglas de Introducción de &, ∨, ¬, ⊃, y ≡,
• las reglas de Eliminación de &, ∨, ¬, ⊃, y ≡, y
• la regla de Explosión
es correcto (es decir, que cada una de las reglas es un argumento válido). Para ello,
puedes utilizar cualquiera de los dos métodos semánticos.

198
IIIa parte:

Lógica Clásica de Pri-


mer Orden con Identidad

199
capítulo

9
Aspectos elementa-
les de la cuantificación

Contenidos del capítulo

La lógica de orden cero como modelo de la validez 202


Limitaciones de LC0 como modelo de la validez 203
Predicación y referencia 204
Cuantificación y variables 214
Modelos 220

Objetivos de aprendizaje
1. Que entiendas por qué la lógica LC0 es insuficiente, al tener limitaciones
expresivas.
2. Que te familiarices con los conceptos de predicación y de referencia a objetos
individuales.
3. Que entiendas la noción de variable y variable individual.
4. Que conozcas los cuantificadores universal y existencial, y sepas distinguir
el alcance de un cuantificador.
5. Que comiences a familiarizarte con la noción de modelo de la lógica cuanti-
ficacional.

201
omo vimos en capítulos anteriores, los sistemas lógicos que estudiamos en los cur-
C sos de lógica son teorías matemáticas, como la geometría, el álgebra o el cálculo.
Igual que toda teoría matemática, la lógica matemática estudia cierto tipo de estruc-
turas. Aquí, la motivación principal para la estudiar esas estructuras es que podemos
aplicarlas: estas estructuras matemáticas particulares nos interesan debido a que modelan
ciertos aspectos de la argumentación que hacemos en nuestros lenguajes y pensamien-
tos.
En este capítulo vamos a ver dos cosas, principalmente: primera, que la lógica LC0
es insuficiente para modelar muchas inferencias en el lenguaje natural que son lógica-
mente válidas «intuitivamente» —es decir, incluso antes de tener una teoría de ello—;
segunda, que podemos extender el de LC0 para representar ciertas estructuras lógicas
que no podemos representar con LC0. En capítulos posteriores revisaremos el lenguaje
extendido de forma sistemática, definiendo a un nuevo sistema lógico: la lógica clási-
ca de primer orden, LC1, y también veremos cómo se define su semántica formal y su
teoría de la demostración.

9.1. La lógica de orden cero como modelo de la validez

La lógica clásica de orden cero (LC0) es conocida también como «lógica proposicio-
nal», porque su objetivo central es estudiar las propiedades lógicas de operaciones que
pueden usarse para modelar conectivas que conectan proposiciones. Pero, fuera de estas
conectivas, la lógica de orden cero no estudia la estructura interna de estas proposicio-
nes.
Suponemos que las conectivas veritativofuncionales de la lógica clásica se correspon-
den, si no exactamente, al menos sí de una manera suficientemente aproximada, con
partículas del lenguaje natural. Si hay esta correspondencia, podemos suponer que el
aparato matemático de la lógica formal nos sirve como idealización del lenguaje natu-
ral, lo cual nos permite entender las características lógicas de muchos argumentos del
lenguaje natural mediante la aplicación de las técnicas matemáticas que podemos usar
con este aparato.
El estudio de estas características se enfoca en comprender, de manera matemáti-
camente exacta, el concepto de validez lógica. Como vimos antes (definición 10), este
concepto se puede entender así:
Un argumento es válido siempre y cuando: no existe ninguna situación ló-
gicamente posible en la que sus premisas sean todas verdaderas, pero la
conclusión falsa.
Y es importante notar que esta definición implica que un argumento puede ser vá-
lido aún cuando tenga premisas falsas,4 y que la definición también implica que un

202
argumento válido puede tener una conclusión falsa.5 También que tenemos definicio-
nes equivalentes a esta;6 pero, sobre todo, recordemos que vimos tres métodos —dos
semánticos y uno con la teoría de la demostración— para demostrar validez en LC0.
Pues bien: resulta que muchos argumentos que pensaríamos que son válidos, de hecho
no lo son en LC0.

9.2. Limitaciones de LC0 como modelo de la validez

Este es un ejemplo de lo anterior:


1. Hipatia de Alejandría es una mujer sabia.
∴ Hipatia de Alejandría es sabia.
Es fácil ver por qué pensaríamos que este es un argumento válido. No parece haber
ninguna circunstancia posible —ninguna circunstancia que no se auto-contradiga— en
la que Hipatia de Alejandría sea una mujer sabia, pero que no sea sabia. Es decir, no
parece haber ninguna circunstancia posible en la que la premisa sea verdadera, pero la
conclusión sea falsa.
Sin embargo, la premisa del argumento es una proposición atómica según la lógica
proposicional, pues no involucra conectivas lógicas: no contiene negaciones, condicio-
nales, equivalencias, disyunciones o conjunciones. Por esa razón, también la conclusión
es atómica. Así que tendríamos una atómica (como p) como premisa y otra atómica
como conclusión (q ). Un uso elemental de las herramientas semánticas de la lógica
proposicional nos demuestra la invalidez de esta forma argumental.
Podríamos intentar «forzar» el argumento en las formas de la lógica proposicional:
pensar que la premisa del argumento es, en realidad, una conjunción de dos proposicio-
nes: que Hipatia es una mujer (p) y que Hipatia es sabia (q ). De ahí podríamos inferir
q por la regla de la eliminación de la conjunción.
Pero este «forzamiento» en realidad es muy limitado. Por ejemplo, este argumento
también parece válido (también parece ser tal que es imposible que su conclusión sea
falsa en las circunstancias en las que sus premisas sean verdaderas):
1. Hipatia de Alejandría es una mujer sabia.
2. Todos los sabios son seres humanos.
∴ Hipatia de Alejandría es un ser humano.
Si la estrategia anterior funcionara, como la premisa (1) implica lógicamente que Hi-
patia de Alejandría es sabia, y como (según (2)) quienquiera que sea sabio es humano,
debería seguirse la conclusión. Pero no se sigue en el modelo proposicional—como,
otra vez, podemos demostrar usando las herramientas semánticas proposicionales:
1. p & q

203
2. r
∴s
Para reafirmar la sensación de que el argumento anterior es válido, consideremos este
argumento:
1. Angela Merkel es un ser humano.
2. Todos los seres humanos son seres vivos.
∴ Angela Merkel es un ser vivo.
Parece que el argumento sobre Merkel y el anterior argumento sobre Hipatia com-
parten algo: una estructura lógica. Esto quiere decir, simplemente, que uno es válido
siempre y cuando el otro lo sea también. Y ambos parecen válidos. Pero esto, de nue-
vo, no puede ser entendido con el modelo de la LC0, que los clasifica a ambos como
inválidos.
Otro ejemplo de la insuficiencia de la lógica proposicional es el siguiente:
1. Hipatia de Alejandría es una mujer sabia.
∴ Hay alguien que es una mujer sabia.
Al formalizarlo, otra vez tendremos dos proposiciones atómicas distintas. Sin embargo,
otra vez parecemos estar frente a un caso de validez: parece imposible que haya una
situación en la que Hipatia sea una mujer sabia, pero que sea falso que alguna mujer es
sabia. ¡Si Hipatía es sabia, alguien lo es!
Así que, o bien estamos mal al juzgar los argumentos anteriores como válidos, o
bien algo anda mal con la LC0. Pero tenemos al menos tres casos y, de hecho, como
vimos con el par de argumentos sobre Hipatia y Merkel, estos argumentos parecen
tener estructuras que siempre podemos «rellenar» con otras premisas, de manera que
se preserve la sensación de que estamos frente a argumentos válidos. Así, suponiendo
que aceptamos la validez de estos argumentos, debemos encontrar dónde falla la lógica
proposicional.

9.3. Predicación y referencia

9.3.1. Limitaciones expresivas de LC0

La respuesta que muchos filósofos han aceptado es que la falla de la lógica proposicional
está en sus pocos recursos expresivos. Es decir, el problema es que este sistema no puede
expresar ciertas estructuras de nuestro lenguaje que son importantes para la validez de
cierta clase de argumentos.
Como vimos arriba, la lógica proposicional estudia las conectivas con las que se
construyen proposiciones cuyo valor de verdad será una función de las proposiciones

204
que «conectan». Pero no se interesa por la estructura interna de estas proposiciones, más
allá de las conectivas veritativofuncionales.
Las estructuras del lenguaje que debemos entender para poder modelar la validez de
los argumentos sobre Hipatia y sobre Merkel son la referencia a los objetos individuales, la
predicación y la cuantificación. Ahora vamos a ver las dos primeras.

9.3.2. Referencia a objetos individuales

Una estructura muy importante en nuestro lenguaje y pensamiento es la referencia a


objetos individuales.7 Por ejemplo, podemos referirnos a esta silla, o a Mark Zucker-
berg; incluso podemos introducir nuevos nombres al lenguaje para referirnos a cosas
individuales, como cuando, en clase de álgebra por ejemplo, decimos algo como «sea
‘A’ este conjunto de números».
En el lenguaje natural, usamos nombres propios («Pepe», «México», «John»), sustantivos
comunes con pronombres demostrativos («esta mesa», «aquella vaca»), y pronombres personales
singulares («usted», «yo», «ella») para referirnos a individuos.

9.3.3. Predicación

Otra estructura importante en nuestro lenguaje es la que nos permite predicar atributos
a los objetos individuales, o relaciones entre ellos. Por ejemplo, podemos decir de Mark
Zuckerberg que es muy adinerado, o de esta mesa que está hecha de madera y pesa 10 kilos,
o de ti que estás leyendo. Estamos atribuyendo propiedades (cualidades y magnitudes) a
objetos individuales.8 Pero también podemos decir que tú estás leyendo este texto, de
Zuckerberg que es el creador de Facebook, y de esta mesa que está entre mi computadora
y el piso. En estos casos, atribuimos relaciones entre los objetos.
Mientras que las cualidades se predican de un solo objeto, las relaciones se predican
de varios. Diferentes relaciones se predican de diferentes números de cosas.
Definición 74: Adicidad
La adicidad—o, también, la aridad, o el número de lugares o número de
argumentos— de una relación es el número de objetos que pueden estar
relacionados mediante tal relación.

Por ejemplo, una relación binaria (o diádica) es una que siempre relaciona a dos
objetos, por lo que tiene dos «lugares»; como:
_ es más alto que _
que se podría «rellenar» así para conseguir una proposición:
Platón es más alto que Sócrates.

205
Una relación ternaria (o triádica), a su vez, relaciona a tres objetos, como:
_ está entre _ y _
que nos da una proposición siempre que «rellenemos» estos tres lugares, como en:
La estación Bellas Artes está entre la estación Allende y la estación Hidalgo.
(No es claro cuántos lugares pueda llegar a tener un predicado del Español (no se
me ocurre uno ejemplo «no artificial» de un predicado con 10 lugares, por ejemplo),
pero, como solemos hacer en lógica, vamos a hacer una generalización matemática.
Consideraremos predicados de cualquier número finito de lugares como parte del lenguaje
lógico que construiremos.)
Nota que la predicación y la referencia cumplen funciones complementarias en nues-
tro lenguaje. Podemos predicar propiedades y relaciones de los objetos una vez que
los hemos individuado y nos referimos a ellos, y referirnos a objetos regularmente sirve
para hablar de ellos—es decir, decir de ellos que son de tal o cual manera: predicarles
propiedades y relaciones.

....................................................................................

La silogística aristotélica y la idea de Frege *

La silogística aristotélica es una manera de intentar sistematizar las inferencias válidas


que incluyen esencialmente a las estructuras de referencia, predicación, y cuantificación
(de la que hablaremos después).9 En ella, lo usual es distinguir la estructura de un juicio
así (pongo su simbolización entre paréntesis):


 – Sujeto (S )

Juicio: – Cópula («es»)

 – Predicado (P )

Hay que notar que esta no es la estructura gramatical que, en general, tienen los
enunciados. Más bien, la silogística es una teoría de la inferencia válida, por lo que la
estructura que distingue es solo aquella que encuentra esencial para entender la validez
de los argumentos con juicios en los que la referencia, la predicación y la cuantificación
juegan un papel central.
En la silogística, además, se distinguían cuatro formas de juicios,10 a los que se les
asignaban letras para propósitos mnemnotécnicos:
• Universal afirmativo, de la forma: Todo S es P . (A)
• Universal negativo, de la forma: Ningún S es P . (E)
• Particular afirmativo, de la forma: Algún S es P . (I)
• Particular negativo, de la forma: Algún S no es P . (O)

206
Como podemos ver, la estructura que distinguía la silogística abstraía—por no decir
que ignoraba—aspectos modificadores de la cópula, como la temporalidad, el número y
el género.11 Otro tipo de juicios que incluía sólo de manera muy poco natural eran los
juicios singulares, como el expresado por: «Tomás es inteligente». Esto sucede porque
en la silogística no tenemos manera de referirnos a individuos. La manera estándar
de lidiar con esta problema era agrupar a los juicios singulares como casos de juicios
universales. Así, «Tomás es inteligente» se convertía en «Todo el que sea idéntico a
Tomás es inteligente».
Estos aspectos resultan, por decir lo menos, forzados; pero por sí mismos no parecen
un error inescapable de la silogística. Los verdaderos problemas eran otros.
Uno surge por el siguiente hecho. Los esquemas silogísticos A, E, I y O sólo consi-
deran predicados que—como diríamos hoy, de acuerdo con la definición 74—tienen un
único lugar de argumento. Pero, de hecho, podemos razonar válidamente con predica-
dos de mayor adicidad. Por ejemplo, consideremos el siguiente argumento:
1. Hipatia vivió antes que Marie Curie.
∴ Alguien vivió antes que Marie Curie.
Parece que este argumento es válido, pero en la silogística aristotélica es difícil de-
mostrarlo. Existen maneras de intentar salvar el problema, pero resultan no sólo poco
naturales, sino que, además, no se extienden a una lógica de las relaciones por sí mis-
ma.12
El otro gran problema es conocido como el problema de la generalidad múltiple. Este
surge del hecho de que la silogística aristotélica sólo lidia con un único cuantificador.
Pero, para entender esto, primero vamos a hablar de la propuesta de Frege.
Gottlob Frege, el padre de la lógica moderna, propuso una nueva forma de pensar
en todo esto. En lugar de la estructura sujeto-cópula-predicado, Frege propuso la estruc-
tura entrada-función. Frege era un matemático que inicialmente trabajaba en temas de
geometría, pero pronto se dedicó a la lógica.
Como mencionamos antes, la silogística aristotélica
no tenía una representación natural de juicios singu- Frege nació el 8 de noviembre
lares, como «Tomás es inteligente», pues no tenía re- de 1848 en Wismar, hoy par-
glas para los juicios singulares. Bajo la propuesta de te de la provincia alemana de
Frege en la que la estructura lógica no es sujeto-cópula- Mecklenburg-Schwerin.
predicado, sino entrada-función, es fácil recuperar a los
juicios singulares. Según la postura fregeana, la estructura de ese juicio es «I (t )». Aquí,
«I » es una función—una regla de asociación entre dos conjuntos de cosas. Esta función
toma un objeto como entrada y nos devuelve otro: devuelve al objeto V —el valor de ver-
dad verdadero— si la entrada de hecho tiene la propiedad representada por la función,
y devuelve al objeto F —el valor de verdad falso— si la entrada no tiene la propiedad

207
representada por la función.13 En el caso de «Tomás es inteligente», la función I toma
como entrada a Tomás, y nos devuelve V si es que Tomás sí es inteligente, o el valor
F, si no lo es.
La propuesta fregeana también lidia fácilmente con las relaciones. Para ver eso, no-
temos que las funciones de más de un argumento son usuales en matemáticas. Por
ejemplo, la suma de números naturales es una función de dos lugares. Cuando digo,
por ejemplo, que 5+7 = 12, lo que estoy haciendo es aplicar la función suma—que deno-
to con «+»—al par de números (5, 7), y esto me dará al 12 como resultado. Podríamos,
entonces, también escribir así: «+(5, 7) = 12».
Frege utilizó esto para simbolizar la estructura lógica de los juicios relacionales. Así,
en su lógica (utilizando la notación contemporánea), el juicio «Hipatia vivió antes que
Marie» se simbolizaría así: A(h,m), donde el predicado «A» tiene dos lugares y repre-
senta a la relación vivir antes de, h refiere a Hipatia, y m refiere a Marie.
Todavía más: es fácil extender esto a predicados de más lugares. Por ahora, conclu-
yamos con esto: la lógica contemporánea tiene sus fundamentos en los revolucionarios
avances de Frege. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

9.3.4. Formalizando predicación y referencia

Para formalizar una oración, lo primero es distinguir los objetos particulares —los
individuos— de los que habla, así como las cualidades y relaciones —las propiedades—
que les atribuye. Esta distinción no es la misma que la distinción gramatical entre sujeto
y predicado. Por ejemplo, en la oración:
Juan golpeó a Pepe,
el sujeto gramatical es Juan, y Pepe el objeto directo, por lo que el predicado completo
es «golpeó a Pepe». Pero, en esta otra oración:
Pepe fue golpeado por Juan,
el sujeto gramatical es Pepe, y Juan el objeto directo (el predicado es «fue golpeado por
Juan»). Sin embargo, ambas oraciones expresan exactamente el mismo hecho.
Como el mismo hecho puede ser descrito por oraciones distintas, y como las ora-
ciones se distinguen por su estructura gramatical, a la lógica no le importa tanto la
estructura gramatical de la oración, sino la estructura lógica. Para la lógica cuantifica-
cional que estamos viendo, las categorías de individuo y propiedad son categorías lógicas,
no gramaticales. Los individuos son los objetos particulares —personas, países, cosas
inanimadas, planetas, etc.— a los que se les atribuye una cualidad o se los pone en una
relación.
Ya habiendo distinguido individuos y propiedades, el primer paso para formalizar es
definir una interpretación. (Falta un segundo paso, pero ese lo veremos en la sección 9.5.)

208
Como su nombre lo dice, una interpretación es una manera de asignarle predicados del
lenguaje natural a letras del lenguaje lógico, y nombres del lenguaje natural a constantes
del lenguaje lógico.
Para definir interpretaciones, vamos a establecer tres convenciones que seguiremos
en el resto del libro.
Convención 4. Vamos a utilizar las primeras letras minúsculas del alfabeto (a, b, c , d ,
. . . ) como nombres para los individuos (las últimas las reservaremos para las variables,
que veremos más adelante). A estas les llamaremos constantes individuales.
Convención 5. Vamos a utilizar letras mayúsculas para los predicados y las relaciones. Es
usual usar las letras F,G ,H como letras para propiedades de una cosa, y letras como
R,S como letras para relaciones entre dos o más cosas, pero voy a ser flexible con ello.
A ambas les llamaremos letras de predicado.
Convención 6. Vamos a utilizar letras minúsculas griegas: «𝛼», «𝛽 », . . . para representar
cualquier nombre de individuo:14 a, b, c , . . . A estas letras les llamaremos metavariables
individuales (o simplemente «metavariables», para abreviar).
Usamos metavariables —minúsculas griegas: 𝛼, 𝛽 , . . . — para aclarar cuántos lugares,
y en qué orden, tiene un predicado bajo una interpretación. También usamos paréntesis
para indicar a qué cosas «afecta» una letras de predicado.
Así, escribir algo como:
P (𝛼, 𝛽 , 𝛾)
nos dice que «P » es un predicado de tres lugares —es decir, que relaciona a tres cosas
entre sí—, y nos dice también en qué orden van: primero lo que sustituyamos por «𝛼»,
luego lo que sustituyamos por «𝛽 », y luego lo que sustituyamos por «𝛾». Los paréntesis
nos ayudan a ver «hasta dónde llega» la letra «P »: cuántos lugares tiene, a qué cosas
«afecta».
Veamos ejemplos de estos conceptos.

Consideremos a la oración «Alberto es filósofo». Para formalizarla, realizo exacta-


mente el mismo procedimiento:
a : Alberto
ejemplo 28

F (𝛼) : 𝛼 es filósofo.
Con esta interpretación, la proposición de que Alberto es filósofo se formaliza con la
fórmula:
F (a)
...................................................................................
Veamos otro ejemplo. Considera la proposición expresada por la oración «Pedro
golpea a Juan». Esta proposición habla de dos individuos—Pedro y Juan—y les

209
atribuye una relación: 𝛼 golpea a 𝛽 . Para formalizar esta proposición, defino una
interpretación:
a : Pedro
b : Juan
G (𝛼, 𝛽 ) : 𝛼 golpea a 𝛽 .
Y simplemente escribo la fórmula. Los predicados siempre van hasta la izquierda, y
uso paréntesis y coma para distinguir a los individuos:

G (a,b)
Esta fórmula representa a la proposición expresada por «Pedro golpea a Juan».
...................................................................................
En la lógica de predicados que estamos viendo, una relación puede relacionar a dos,
tres, cuatro o más individuos. (Cualquier número finito de ellos, de hecho.) Por su-
puesto, es inusual encontrarnos relaciones de cuatro lugares, pero esta proposición
incluye una:
El coche de Alicia se parece más al coche de Beto de lo que la moto de Cristina se
parece a la moto de Diego
La formalizaríamos con esta interpretación:
a : El coche de Alicia
b : El coche de Beto
c : La moto de Cristina
d : La moto de Diego
H (𝛼, 𝛽 , 𝛿, 𝛾) : 𝛼 se parece más a 𝛽 de lo que 𝛿 se parece a 𝛾
Resultando en la fórmula:
H (a,b,c ,d )
...................................................................................
Las relaciones de tres lugares son más comunes. Por ejemplo, la fórmula:

E (a,b,c )
formaliza a la proposición:
México está entre Estados Unidos y Canadá
con la siguiente interpretación:
a : México
b : Estados Unidos
c : Canadá
E (𝛼, 𝛽 , 𝛿) : 𝛼 está entre 𝛽 y 𝛿 .
...................................................................................
Por supuesto, una misma fórmula puede formalizar proposiciones distintas, si cam-
biamos la interpretación. Por ejemplo, la fórmula de arriba cambia su significado con
esta interpretación:

210
a : Padre Juan
b : Miriam
c : Alicia
E (𝛼, 𝛽 , 𝛿) : 𝛼 casó a 𝛽 con 𝛾 .
Bajo esta nueva interpretación, la fórmula E (a,b,c ) ahora significa que el Padre Juan
casó a Miriam con Alicia. Con una nueva interpretación —cambiando el significado
del predicado o de los nombres, o de ambos— tendremos que la fórmula representa
a otra proposición.

Ahora vamos a ejercitar la formalización de proposiciones. Puedes utilizar una misma


interpretación o varias.
Ejercicio # 40
Formaliza las siguientes oraciones:
1. Platón fue filósofo.
2. Sócrates es feo.
3. Oceanía es un continente.
4. Sócrates fue filósofo.
5. Alemania colinda con Australia.
6. El Río Bravo separa a México de Estados Unidos.
7. Donald Trump es presidente de Estados Unidos.
8. Claudio es el mejor amigo de Claudia.
9. Juan es su propio mejor amigo.
10. Sócrates vivió en Grecia.

9.3.5. Estructura proposicional

Las fórmulas de la nueva lógica también tienen estructura proposicional —es decir, tam-
bién pueden conectarse mediante las conectivas veritativo-funcionales de LC0.
Por ejemplo, si «H (d ,a)» representa a una proposición, entonces «¬H (d ,a)» es su ne-
gación lógica. Supongamos que (dada una interpretación que dejo implícita) «H (d ,a)»
representa que Diego es hermano de Alicia. Entonces, la fórmula «¬H (d ,a)» nos dice
que: es falso que Diego sea hermano de Alicia, es decir: que Diego no es hermano de
Alicia.
Nota cómo la negación sigue poniéndose hasta «afuera» de la proposición: así como
antes escribíamos «¬p», ahora escribimos «¬H (d ,a)». Las conectivas nunca se ponen
al lado de los nombres para individuo.
También las otras conectivas siguen significando lo mismo. Por ejemplo, si (bajo una

211
interpretación) «F (d )» significa que Diego es filósofo, la fórmula:
F (d ) & ¬H (d ,a)
nos dice que Diego es filósofo pero no es hermano de Alicia. La estructura proposicional
de esta fórmula es: A & ¬B. Como decíamos, las conectivas siguen usándose para operar
sobre proposiciones enteras, nunca sobre constantes de individuo.
Ya que vemos que las fórmulas siguen teniendo estructura proposicional, podemos
seguir utilizando las reglas de la lógica proposicional LC0 como siempre. De hecho,
podemos utilizar todos los métodos semánticos. Veamos un ejemplo.

Supongamos que formalizo un cierto argumento, después de lo cual veo que tiene
la siguiente estructura lógica:
1. H (d ,a) ∨ G (a)
2. ¬H (d ,a)
∴ G (a)
ejemplo 29

Es fácil demostrar que este argumento es válido, usando ya sea los métodos semán-
ticos o la deducción natural de LC0. Vamos a usar la segunda.
1. H (d ,a) ∨ G (a)
2. ¬H (d ,a)
∴ G (a)
3. G (a) S.D.(1, 2)
Es decir: las demostraciones proceden igual que siempre. Sólo tengo que ver la
estructura proposicional del argumento.

Como vimos en la sección 9.2, muchos argumentos válidos no son proposicionalmente


válidos. Esto significa que van a haber casos en los que la estructura proposicional no
sea suficiente para demostrar la validez de un argumento —en ellos, vamos a requerir
conocer la estructura cuantificacional del argumento. En la siguiente sección vamos a
entender qué es esta estructura. Pero primero, ejercitemos la deducción natural de LC0,
usando lo que ya sabemos sobre predicación y referencia.

Ejercicio # 41
Formaliza los siguientes argumentos y demuéstralos usando el sistema de deducción
natural para LC0. Recuerda definir una o más interpretaciones, de manera que siempre
quede claro qué constantes representan a qué individuos y qué predicados representan
a qué propiedades (de uno o más lugares).
1. Canadá está arriba de México y México está arriba de Guatemala. Si Canadá
está arriba de México, entonces Canadá está arriba de Guatemala. Se sigue que
Canadá está arriba de Guatemala.
2. Pepe no es amigo de Beto. Se sigue que Ricardo es amigo de Pepe. Pues, tam-

212
bién, o Ricardo es amigo de Pepe, o Pepe es amigo de Beto.
3. Mercedes Benz no comprará a Apple. Esto se sigue de varias tesis. Mercedes
Benz comprará a Apple siempre y cuando Mercedes Benz tenga dinero. Esto su-
cederá si y solamente si Mercedes Benz venderá a BMW. Pero Mercedes Benz
no venderá a BMW.
4. Marx tenía dinero siempre y cuando El Capital fuera un éxito. Kant tenía dinero
siempre y cuando Crítica de la Razón Pura fuera un éxito. Si El Capital tenía éxito,
Marx era capitalista, y si Kant era un santo, Crítica de la Razón Pura tenía éxito.
Se sigue de lo anterior que Marx no tenía dinero, pero Kant sí. Pues, además de
lo anterior, también sucede que Marx era socialista y es falso que Kant no fuera
un santo. Y finalmente, si Marx era socialista, no era capitalista.
5. Marx influyó en Pepe, y este no tenía dinero. Por otro lado, es falso que Kant viva
en Guatemala. Sin embargo, si Canadá está abajo de México, Kant vive en Gua-
temala. Pepe comprará a Apple siempre y cuando tenga dinero. Por ello, Canadá
no está abajo de México y Pepé no comprará a Apple.
6. Si Mercedes Benz está en Berlín, no tendrá dinero. Ello lo inferimos de varios
hechos. Que Mercedes Benz esté en Berlín implica que Mercedes Benz está en
Alemania. Si Mercedes Benz está en Alemania entonces pagará impuestos en
Alemania. Y si Mercedes Benz paga impuestos en Alemania, entonces no tendrá
dinero.
7. O bien Pepe es amigo de Beto, o bien Ricardo es amigo de Beto. Si Ricardo es
amigo de Beto, entonces Beto tendrá dinero. Pepe no es amigo de Beto y además,
si Beto tiene dinero, dejará de trabajar. En conclusión, Beto dejará de trabajar.
8. Canadá no está abajo de México. Ello se infiere de: que Canadá esté abajo de
México equivale a que México esté arriba de Canadá. Y si México está arriba
de Canadá entonces Canadá y México hacen un tratado. Pero ellos no harán un
tratado.
9. Kant influyó en Hegel y este influyó en Marx. Marx era socialista. Si Marx era
socialista, entonces influyó en Lenin. Tomando lo anterior, tenemos que: Marx
influyó en Lenin y era socialista.
10. Apple es socialista siempre y cuando Marx influyó en Apple. Pero Hegel influyó
en Apple, y Hegel no es socialista. Si Hegel influyó en Apple, esta es capitalista.
Y si Apple es capitalista, no es socialista. De lo anterior, sabemos que Marx no
influyó en Apple.

213
9.4. Cuantificación y variables

Los argumentos sobre Hipatia que revisamos en la sección 9.2 nos muestran que debe-
mos investigar las características lógicas de la referencia y la predicación, pero que esto
no es suficiente.
Tenemos que formalizar los argumentos sobre Hipatia de manera que podamos dar
cuenta de su validez. Uno de estos argumentos incluye la frase «todos», mientras que
otro incluye la frase «alguna». Cualquiera que sepa hablar Español sabrá que, si todas
las cosas de un grupo son de cierta manera, entonces es válido inferir que una cosa
particular de ese grupo es de esa manera. Y cualquiera que sepa hablar Español sabrá
que decir de algo específico que es de cierta manera, nos permite inferir que alguna cosa
es de esa manera. Esto debemos formalizarlo y encontrar su estructura lógica.
La siguiente estructura que necesitamos es la cuantificación, que representaremos me-
diante los cuantificadores lógicos. Por ejemplo, el siguiente argumento:
1. Todos los perros tienen alguna correa
2. Todas las correas están hechas de cuero
/∴ Todos los perros tienen alguna cosa hecha de cuero
parece válido. Pero ocurren varios cuantificadores en sus premisas: tiene generalidad
múltiple.
Frege también resolvió este problema con su lógica.
La silogística aristotélica inten- La lógica que veremos aquí —la lógica de primer or-
tó formalizar esto con las cua- den con identidad, LC1=— es una parte de la lógica
tro figuras. Pero se enfrentaba de Frege. Con ella, podemos entender mejor argumen-
con el problema de la genera- tos como el anterior: podemos ver su estructura lógica
lidad múltiple. Como sólo usa de manera que nos permita demostrar su validez. Pero
un único cuantificador –en los resulta que, para poder hablar de «todos» y de «algo»
juicios de tipo A, «Todos», en —de los cuantificadores, que están en la base de la ló-
los de tipo I, «Algunos», y así–, gica que heredamos de Frege—, es necesario primero
es incapaz de dar un tratamien-
hablar de las variables.
to sistemático a los argumentos
con más de un cuantificador.
9.4.1. Variables

El concepto de variable es una de las más importantes innovaciones en el pensamien-


to humano, sin el cual difícilmente hubiera sido posible el progreso en matemáticas.15
Frege (en su Begriffsschrift o Conceptografía16 ) fue el primer lógico en notar que el con-
cepto de variable es esencial también en el estudio de la validez, especialmente cuando
hablamos (entre muchos otros) de argumentos como los de Hipatia (en la sección 9.2).

214
Usamos variables desde la educación básica, por ejemplo, en ecuaciones como:

x2 + y2 = r 2

que es la ecuación de un círculo de radio r centrado en el origen. ¿Qué significa la «x»


en esta ecuación? No se refiere a ningún número específico. Lo mismo sucede con la «y»
y la «r » (pero no, obviamente, con «2»). Las letras significan cualesquiera números—con
la única restricción de que satisfagan la relación que expresa la ecuación.
A partir de este ejemplo, y de muchos otros que podríamos tomar de la educación
básica (y avanzada) en matemáticas, es justificable usar esta definición:
Definición 75: Variable individual
Una variable individual es un símbolo que refiere de manera no específica
a un objeto en su dominio, bajo una interpretación.

Mientras que la noción correlativa de dominio sería esta:


Definición 76: Dominio
El dominio de una variable es el conjunto de objetos que pueden ser sus-
tituidos por la variable en una interpretación.

Básicamente, el dominio es el conjunto de las cosas de las que estamos hablando.


Por ejemplo, en el ejemplo de la ecuación del círculo, cada una de las variables x, y,
y r toma valores en los números reales: el dominio de las variables es el conjunto de los
números reales (ℝ).
En secciones posteriores (9.4.5 y 15.3.1) veremos más aspectos, sintácticos y semán-
ticos, de las variables.

9.4.2. Los cuantificadores

Ahora necesitamos especificar cómo vamos a usar a los cuantificadores. Estas son nuevas
constantes lógicas que no son veritativo-funcionales (es decir, que no se definen por
una tabla de verdad como función de los valores de las proposiciones que conectan).
Estas constantes lógicas ligan variables. Con las variables representamos objetos no
especificados del conjunto de cosas de las que hablamos. Con los cuantificadores deci-
mos cuántos objetos del dominio son de la manera en la que predicamos a las variables.
Decir que un cuantificador «liga» a una variable simplemente quiere decir que es el
cuantificador que nos dice cuántos objetos del dominio son representados por esa va-
riable. Si una variable no está ligada, no podremos tener una fórmula con significado.
Veamos esto paso a paso.

215
Por ejemplo, predicarle «ser perro» a la variable x no nos da una oración significativa;
sería: «x es perro». Pero ¿qué representa «x» ahí? En cambio, al ligar esa variable con
un cuantificador y predicarle «ser perro», sí tenemos una oración con significado.
En esta lógica, vamos a reconocer solamente dos cuantificadores: «todos» y «al menos
uno». Entonces, si decimos algo como «toda x es un perro», estaríamos diciendo que
cualquier objeto que le asignemos como valor a la x, es un perro. Si ligamos la variable
con el otro cuantificador, diciendo «al menos una x es un perro», también estamos
diciendo algo con significado: que al menos un objeto del dominio, que le podemos
asignar como valor a la «x», es un perro.
Ambas oraciones ya pueden ser verdaderas o falsas. Qué valor de verdad tengan,
dependerá del conjunto de objetos de los que estamos hablando. En el primer caso,
si estamos hablando solamente de perros, será verdadero que «toda x es un perro»;
si no, será falso (¿Suena obvio? ¡Está bien! Eso nos dice que es la definición correcta
del cuantificador). Algo análogo si usamos el cuantificador existencial: «alguna x es un
perro» nos dice que al menos una de las cosas que encontramos en nuestro dominio va
a ser un perro, y será verdadera siempre y cuando en el dominio de la variable x hay
al menos un perro.
Pero (por sí mismos) estos cuantificadores no nos dicen un número específico: sólo
nos dicen si (de las cosas de las que estamos hablando en cada circunstancia) hay al
menos una cosa que es así, o si todas las cosas son así. Como después veremos, usando la
negación podemos también expresar que no hay ninguna cosa que sea así, o que algunas
cosas no son así (es decir, que no todas las cosas son así).
El sistema lógico que estamos usando es un sistema de primer orden porque los cuan-
tificadores ligan variables de individuos. En sistemas de cuantificación de segundo orden,
hay cuantificadores también para variables de propiedades. En sistemas de tercer or-
den, hay cuantificadores también para variables de propiedades de propiedades; y así
sucesivamente. La lógica de orden cero es la que no posee cuantificadores.

9.4.3. El cuantificador universal

El primer cuantificador básico que veremos es el universal, que simbolizamos como «∀».
(Después veremos cómo definir otros cuantificadores con los dos básicos y las demás
constantes lógicas.) Como dijimos, los cuantificadores van a ligar variables, es decir,
nos dirán, usando una variable (x, y, . . .) para hablar de objetos de manera no específica,
cuántos objetos cumplen con lo que predicamos de la variable. Esto se logra poniendo
el cuantificador al lado de la variable que está ligando: si pongo «∀x», el universal está
ligando a la variable «x».
La lectura de «∀» es «todo/as lo/as...», como cuando decimos que «todas las luciérna-
gas son coleópteros» o que «todos los perros son mamíferos». Hay que notar qué sí y

216
qué no significa esto:
Sí significa «cada uno». Es ir uno por uno de los objetos que estamos considerando
hasta agotarlos todos. Como cuando decimos, de los calcetines en un cajón: «Cada
uno tiene su par», estamos diciendo que todo calcetín en el cajón tiene su par.
No significa «todos juntos». Como cuando decimos «Entre todos pudimos mover el
coche» o «Todos los del equipo ganamos». En estos casos, no queremos decir
que cada uno pudo mover el coche, o que cada uno del equipo ganó. Más bien,
queremos decir que todos juntos pudimos mover el coche, y que todos los del equipo
juntos ganamos.17
Sí significa «cualquiera», cuando es posible tomar cualquier cosa de un grupo y ésta
va a tener cierta cualidad: estamos diciendo que todas las cosas de ese grupo
tienen esa cualidad. Como cuando decimos «Cualquier libro de este anaquel que
tomes, va a ser sobre Geografía»: es decir, todos los libros de este anaquel son
sobre Geografía.
No significa «cualquiera», cuando queremos decir «basta con uno». Como cuando de-
cimos «Trae cualquiera de estos documentos: credencial, acta, o licencia». Esto
es, más bien, un sentido que corresponde al cuantificador existencial.

9.4.4. El cuantificador existencial

El siguiente cuantificador básico es el existencial, que simbolizamos como «∃». Como


con el universal, este cuantificador liga variables al ponerse al lado de la variable que
está ligando, como en: «∃x».
La lectura de «∃» es: «existe al menos un...». Otra manera de leerlo es «hay algo que
es...» o también: «para al menos una cosa, es verdad decir que...». Usamos este cuantificador
para expresar que hay al menos una cosa de la que decimos lo que viene en la matriz
subsiguiente. Pero puede haber dos, tres, o más: ¡incluso infinitas!
Nota que decir que algunas de las cosas de las que estoy hablando sean de tal o cual
forma, no implica que no todas lo sean. Sólo implica que es falso que ninguna lo es.
En el Español, es usual usar «algunos» como si fuera «contradictorio» de «todos».18
Por ejemplo, si me preguntan: «¿Pasaste las materias de este semestre?» y yo respondo
«Algunas», la otra persona va a entender que quiero decir «Algunas, pero no todas».
Esto no es así en lógica cuantificacional. Aquí, si queremos decir «Algunas, pero
no todas», tenemos que decirlo explícitamente —con fórmulas cuantificacionales que
veremos después (sección 11.3). Aquí, «algunas» sólo significa «al menos una», y esto
es compatible tanto con «una, y nada más», con «varias», con «muchas pero no todas»
y con «todas». De nuevo: sólo significa «al menos una». Quizá hay más, quizá no, quizá
todas son así.

217
9.4.5. Alcance de un cuantificador, variables libres y ligadas

Es importante notar que, en nuestro lenguaje, toda fórmula que contiene al menos
una variable (también puede contener constantes) debe necesariamente contener no
sólo variables, sino también los cuantificadores correspondientes. Es decir: cadenas de
símbolos del tipo: R (x,a) no significan nada. Son sinsentidos —es como si, intentando
usar el Español, dijera: «Siempre servilleta hola». No tiene sentido. Será una cadena de
signos hecha con componentes —palabras y símbolos— del Español, pero no significa
nada. De la misma manera, «R (x,a)» no significa nada en LC1. Y no significa nada
porque la «x» que aparece ahí no refiere a nada en particular: es una variable, un símbolo
que puede tomar cualquier valor del dominio (del cual hablaremos abajo).
Las fórmulas que tengan variables, entonces, deben tener cuantificadores. Pero esos
cuantificadores deben de alguna manera estar «conectados» con esas variables. Defina-
mos:
Definición 77: Alcance de un cuantificador
El alcance de un cuantificador (ya sea existencial o universal) son todos
los símbolos dentro de la fórmula en la que se encuentra el cuantificador,
que están dentro del paréntesis más inmediato a ese cuantificador.

Vamos a ver ejemplos de esto.

Consideremos las siguientes cadenas de símbolos:


i. ∀x (F x ⊃ G x)
ii. ∀x (F x) ⊃ G x
ejemplo 30

En (i), pero no en (ii), «G x » está dentro del alcance del cuantificador universal: en
(i), pero no en (ii), el paréntesis inmediato al cuantificador sí incluye a «G x ».
Lo mismo pasa con el cuantificador existencial:
iii. ∃x (H x & T x)
iv. ∃x (H x) & T x
De manera análoga, en (iii), pero no en (iv), «T x » cae dentro del alcance del exis-
tencial.

Ahora ya podemos definir:


Definición 78: Variables libres y ligadas

Una variable está ligada en una fórmula siempre y cuando esa variable
esté dentro del alcance de un cuantificador (ya universal, ya existencial) al
que, además, le siga esa misma variable. Una variable está libre siempre
y cuando esa variable no esté ligada.

218
Veamos ejemplos.

v. ∃x (H x ⊃ T x)

vi. ∃x H x ⊃ T y
vii. ∃y (H x ⊃ T x)

viii. ∃y H y ⊃ T x
ejemplo 31

Comprueba que lo que digo es cierto y que entiendes por qué: en el ejemplo (v), la
variable x (en ambas apariciones: con H y con T ) está ligada por el existencial. Sin
embargo, en el ejemplo (vi), la variable y , aunque está en el alcance del existencial,
no está ligada—pues el existencial está ligando a x , y no hay otro cuantificador. En
el ejemplo (vii), las dos apariciones de la variable x están libres. Finalmente, en el
ejemplo (viii) la variable x (aunque está dentro del alcance del existencial) no está
ligada: está libre.

Como las fórmulas de nuestro lenguaje son análogas a las palabras y oraciones del
Español, al ser las unidades de significado, ninguna fómula de nuestro lenguaje pue-
de tener variables libres: todas las variables deben estar ligadas por un cuantificador.
¡Pero sólo por uno! El siguiente ejemplo:
ix. ∃x∀x (H x ⊃ T x)
tampoco es fórmula de nuestro lenguaje, pues la variable x en ambas apariciones está
«ligada» por dos cuantificadores. En este caso, no sabemos si hablamos de alguna o de
todas las cosas.
En el próximo capítulo vamos a definir rigurosamente el lenguaje de la lógica LC1.
Antes de ello, veamos ejemplos de cómo sería un proceso de formalización. (Esto no
es completamente riguroso, pues para ello necesitamos definir modelos, que es lo que
haremos abajo.) Vamos por pasos, empezando por el lenguaje natural y terminando en
el lenguaje completamente formal.

Ana es filósofa.
Fa
Ana no es golfista
ejemplo 32

¬G a
Todos somos filósofos y algunos son golfistas
Todos son F & algunos son G .
Todo x es F & algunos x son G .
Todo x : F x & algunos x : G x .
∀x (F x) & ∃x (G x) .
Todos los filósofos son amigos de Ana

219
Todos los F son amigos de a .
Todo x que sea F , será amigo de a .
Todo x , si es F , es amigo de a .
Todo x : F x ⊃ x es amigo de a .
Todo x : F x ⊃ A(x,a) .
∀x [F x ⊃ A(x,a)] .
Todos los filósofos son amigos de algún golfista
Todos los F son amigos de algún G .
Todo x que sea F es amigo de algún y que es G .
Todo x , si es F , entonces x es amigo de algún y : G y .
Todo x : F x ⊃ x es amigo de algún y : G y .
Todo x : F x ⊃ ∃y : x es amigo de y y G y .
Todo x : F x ⊃ ∃y : A(x, y) & G y .
∀x [F x ⊃ ∃y (A(x, y) & G y)] .

Ejercicio # 42
Di si las siguientes cadenas de símbolos son o no fórmulas. Si una no es fórmula,
explica por qué.
1. P a 2. H (m,b)
3. ∀x (P x) 4. ∃x (P x ∨ Dx)
5. ∃y (P y) 6. ¬R (m,b)
7. ¬T (a,e ,b) ∨ P a 8. ¬H (m,x)
9. ¬T (a,x, y) 10. ∃x [R (a,d )] ⊃ ¬¬A(c ,e )

9.5. Modelos

A las fórmulas que usamos en LC1 les asignamos un significado. Esto es como en el
Español: las letras significan algo. Les asignamos significado cuando formalizamos
argumentos: cuando pasamos del lenguaje natural al de la lógica. También cuando
interpretamos argumentos en el lenguaje formal, pasando del lenguaje de la lógica al
lenguaje natural.
La manera rigurosa de explicitar cómo es que les asignamos significado a los símbolos
es mediante los modelos:
Definición 79: Modelo
Un modelo es un par de una interpretación y un dominio:
• Un dominio es un conjunto de cosas: el conjunto de cosas de las

220
que estamos hablando en las oraciones que formalizamos.
• Una interpretación es un «diccionario» que nos dice a qué cosas
(individuales) del dominio refieren las constantes, mientras que los
predicados van a ser propiedades y relaciones de esas cosas del
dominio, y las variables van a significar cualquier cosa individual del
dominio.

Para que las reglas que veremos después (sección 11.4) funcionen con las menores
complicaciones posibles, vamos a poner las siguientes restricciones sobre las interpre-
taciones de todo modelo:
• Cada constante individual de las fórmulas que interpretaré con ese modelo debe
referir a un elemento del dominio: no puede haber una constante que no refiera
a nada, o que refiera a algo que no está en el dominio de mi modelo.
• Debemos poder ser capaces de introducir un nuevo nombre para cada elemento
del modelo que consideremos.19
El dominio de un modelo puede ser irrestricto20 o restringido. Vamos a definir estos
conceptos.
Definición 80: Dominios restringidos e irrestrictos

El dominio de un modelo es irrestricto cuando es el conjunto que incluye


a absolutamente todas las cosas del universo.
El dominio de un modelo es restringido cuando es un subconjunto (pro-
pio) del dominio irrestricto: incluye a algunas, pero no todas, las cosas del
universo (por ejemplo, el conjunto de los seres humanos; o el conjunto de
las células nerviosas de mi perro Firuláis).

Una tercera posibilidad sería usar el conjunto vacío: el conjunto que no contiene a
absolutamente nada. Sin embargo, por razones de las que hablaremos después, los
dominios de nuestros modelos nunca son vacíos: deben ser siempre conjuntos que
contengan a al menos una cosa. Vamos a establecer esto como una convención que
observaremos en el resto del libro.
Convención 7. Para todo modelo, su dominio es un conjunto no vacío.
Cuando en un modelo usamos el dominio irrestricto, vamos a necesitar restringir los
cuantificadores de las fórmulas que interpretemos con ese modelo. Hablaremos de esto
abajo, en la sección 10.3.
Los dominios restringidos, como no incluyen a todas las cosas, pueden servirnos para
interpretar o formalizar oraciones que hablen de cosas específicas. Por ejemplo, para
formalizar «Todos los hombres son mortales», puedo usar un modelo cuyo dominio consista
en el conjunto de todos los hombres, de manera que al formalizarlo, el cuantificador

221
universal «∀x» —que siempre significa «todo lo del modelo»— signifique «todos los
hombres».
Es muy importante recordar que, dado un modelo para una fórmula (o conjunto
de fórmulas) todas las variables de las fórmulas que interpreto con ese modelo corren
sobre el dominio de ese modelo (es decir, toman sus valores en ese dominio). Esto es
importante, porque significa que no se puede definir dominios para cada una de las
variables que tengo en la fórmula que estoy interpretando.

Supongamos que tengo la siguiente fórmula:


 
∀x∃y R (x, y) ,

No es correcto definir un «modelo» (estrictamente, esto ni siquiera contaría como


un modelo) con un dominio para x y otro para y . Supongamos que quiero interpretar
la fórmula anterior como si dijera: «Toda mascota tiene un dueño». Para ello, se me
ocurre definir un «modelo» así:
Dominio x: El conjunto de las mascotas.
Dominio y: El conjunto de los dueños.
Interpretación: R (𝛼, 𝛽 ) : 𝛼 es de 𝛽 .
ejemplo 33

Esto no tendría sentido, porque las variables corren por todo el dominio, y porque
 
no hay nada que me impida escribir la fórmula anterior («∀x∃y R (x, y) ») de la
siguiente forma:

 
∀y∃x R (y,x) ,
que dice exactamente lo mismo (nota que he cambiado el orden de las variables
también dentro del predicado). De igual manera, ambas fórmulas dicen exactamente
lo mismo que:
∀w∃z [R (w, z )]
Es indistinto qué variables use, siempre que mi uso sea uniforme. Una variable no tie-
ne un significado por sí misma: sólo significa algo cuando está ligada. Y no se refiere
a un tipo de cosa particular: sólo cuando restringimos los cuantificadores podemos
hablar de tipos de cosas, como veremos abajo, en la sección 10.3.

En resumen: usamos siempre un dominio para cada modelo porque qué variables use
es irrelevante—siempre que todas estén ligadas, y que me fije en la importancia del
orden, de lo cual hablaremos después.

222
Considera este ejemplo:
Modelo 1
Dominio: El conjunto de los alumnos en el salón 113.
Interpretación: a : Ana. b : Beto. c : Clara. Q (𝛼, 𝛽 , 𝛾) : 𝛼 quiere más a 𝛽 que a 𝛾 .
M (𝛼, 𝛽 ) : 𝛼 es amigo/a de 𝛽 .
ejemplo 34

Con este modelo, podemos formalizar algunas oraciones:


1. Ana no es amiga de Clara: ¬M (a,c ) .
2. Clara es amiga de Beto, pero Beto no es amigo de Clara:
M (c ,b) & ¬M (b,c ) .
3. Ana quiere más a Beto que a Clara: Q (a,b,c ) .
4. Todos los alumnos del salón 113 son amigos de Ana: ∀x [M (x,a)] .
5. Ana es amiga de todos los alumnos del salón 113: ∀x [M (a,x)] .
Nota la importancia del orden de las variables y constantes cuando tenemos relacio-
nes (casos 4 y 5).

Vamos a realizar algunos ejercicios.


Ejercicio # 43
I Formaliza las siguientes oraciones (puedes definir un modelo para todas, o varios
modelos [sugerencia: restringe el dominio al conjunto de los de la familia Domínguez]):
1. Ana es prima de José.
2. José es primo de Beto.
3. Ana es prima de José y José es primo de Beto, pero Ana no es prima de Beto.
4. Si Ana es prima de José, entonces: Ana es o arquitecto o ingeniera.
5. Algunos de la familia Domínguez son arquitectos.
6. Todos los de la familia Domínguez son ingenieros.
7. Beto es ingeniero, y tiene un amigo de la familia Domínguez que es arquitecto.
8. Si José es primo de Ana, entonces Ana tiene al menos un primo.
9. José es arquitecto y primo de Ana, siempre y cuando, Ana tenga al menos un
primo arquitecto.
10. Todos los de la familia Domínguez son o ingenieros o arquitectos, y Beto es primo
de José pero no es arquitecto.
II Interpreta las siguientes fórmulas. Puedes usar nuevos modelos, o los que ya usaste
para el ejercicio anterior.
1. ¬P (a,b) .
2. [¬P (a,b)] ⊃ Aa .
3. ∃x [¬P (x,b)] .
4. ∀x (Ax ∨ I x) .
5. ∃x [¬P (x,b)] & ∀x (Ax) .

223
Resumen del capítulo
⋆ Debemos distinguir la estructura de predicación y referencia en las propo-
siciones. Esto lo hace la lógica de primer orden, LC1.
⋆ Las fórmulas de LC1 también pueden tener estructura proposicional.
⋆ La lógica LC1 también agrega variables y cuantificadores al lenguaje lógico.
⋆ El cuantificador existencial, «∃», significa «al menos una cosa del conjunto
de cosas de las que hablamos».
⋆ El cuantificador universal, «∀», significa «todas las cosas del conjunto de
cosas de las que hablamos».
⋆ Los cuantificadores tienen alcances, de manera que ligan todas las variables
en su alcance.
⋆ Una variable libre no está ligada por ningún cuantificador; una variable
ligada, sí.
⋆ Las fórmulas de nuestro lenguaje nunca pueden tener variables libres.

Notas

1. Por el lógico inglés Augustus De Morgan (1806-1871).

2. Recuerda que las conectivas lógicas son operaciones; ahora bien, toda operación es una función y, a su
vez, toda función es una relación.

3. Estos son los teoremas de completitud y corrección de la lógica LC0.

4. Un argumento que es válido y además tiene sólo premisas verdaderas se conoce como un argumento
sólido (definición 11). Es claro que la conclusión de un argumento sólido tiene que ser verdadera.

5. Como también hemos notado anteriormente, Sólo que en ese caso, debe suceder que al menos una de
sus premisas también sea falsa.

6. Por ejemplo, una definición equivalente es esta:

Un argumento es válido siempre y cuando: en toda situación lógicamente posible en la que


sus premisas sean todas verdaderas, la conclusión también es verdadera.

Como hemos venido haciendo, tomaremos ambas definiciones como una sola, dada su equivalencia.

7. En metafísica, hay un debate sobre si los individuos existen o son una proyección de nuestro sistema
cognitivo o nuestro lenguaje; y en caso de existir, también es controvertida la cuestión de cómo son
exactamente. Ver: Díaz Herrera, 2014, y Dasgupta 2016. Pero aquí nos enfocaremos en los aspectos

224
lógicos de la referencia a los individuos, suponiendo que estos existen (fundamental o derivativamente),
o, al menos, que podemos conceptualizar al mundo—de una manera coherente—como si estos existieran.

8. En el lenguaje común y el científico, podemos distinguir propiedades y relaciones meramente «cualitati-


vas» —como el ser de cierto color o el tener cierto aroma— de propiedades y relaciones «cuantitativas», es
decir, que se pueden relacionar con números (u otros sistemas algebraicos), como el pesar tal número de
kilos o el estar a una distancia de tantos kilómetros respecto a otra cosa. En cursos introductorios de lógica
se suele poner tal diferencia entre paréntesis, aunque esta sea importante en metafísica y filosofía de la
ciencia.

9. Un texto básico y amigable para comprender el paso de la silogística a la lógica moderna, de la cual me
serviré extensamente en esta nota, es Moro Simpson 1975, capítulo 1. También es importante recalcar
que me enfocaré en los silogismos categóricos, mientras que Aristóteles distinguió otros tipos.

10. De hecho, Aristóteles distinguió tres: Universal, particular e indeterminado (Segundos Analíticos, 24a17-
24a20).

11. Pero no la modalidad, como los adverbios «necesariamente» o «posiblemente», pues existía la teoría de
los silogismos modales.

12. Ver Moro Simpson, op. cit., §§5, 6.

13. De hecho, la ontología de Frege no es exactamente esta. Frege pensaba que las propiedades son funciones,
pero yo solamente estoy asumiendo que las funciones representan propiedades. Ver Frege, «Función y
concepto» y «Concepto y objeto» en Estudios Sobre Semántica; ver también Valdivia 1989.

14. También cualquier variable individual, concepto que revisaremos en la sección 9.4.1.

15. La historia del concepto de variable es muy interesante, pues es la médula de la historia del Álgebra.
Probablemente los padres del concepto sean el griego Diofanto, el hindú Brahmagupta, y el árabe al-
Juarismi. Ver Tabak 2004.

16. Ver Frege 1972.

17. Este tipo de cuantificación se conoce como cuantificación plural. Se ha argumentado que podemos
diseñar una lógica de la cuantificación plural, que serviría para muchos propósitos lógico-filosóficos;
pero la cuantificación plural cae fuera de los poderes expresivos de la lógica clásica de primer orden con
identidad. El artículo clásico sobre el tema es de George Boolos (1984). Uno de los pocos artículos en
español que introduce este tema es Jané (1995), pp. 122-123.

18. Esto probablemente es por principios pragmáticos que gobiernan a la comunicación mediante lenguajes
naturales, y que la hacen más «práctica» para los agentes involucrados en una conversación. Por ejemplo,
suponer que «algunos» implica que «no todos» quizá esté motivado por la Máxima de cantidad de Grice:
«Haga su contribución tan informativa como se requiera (de acuerdo con el propósito de la comunica-
ción)». (Ver Grice 2005.)

19. Esto es para que no suceda que, mientras en nuestro modelo alguna cosa a es F , como no podemos
nombrar a a, no podremos construir la fórmula que diga que a es F . Si además, a fuera la única cosa
F , no podríamos inferir la oración verdadera en ese dominio: ∃x (F x). (Nota técnica: esto se pone difícil

225
cuando hablamos de modelos con dominios que tienen cierto tamaño infinito (≥ ℵ1 ), pues claramente
hay muchas menos constantes que elementos de tales dominios. Pero lo único que estamos requiriendo
aquí es que: para cada objeto del que hablemos (que esté en el dominio de algún modelo de una fórmula
que interpretemos) podamos nombrarlo con este lenguaje.)

20. Si de hecho podemos cuantificar sobre absolutamente todo (e incluso suponiendo que podemos, si al
hacerlo el dominio es un conjunto) es debatido en metafísica, filosofía de la lógica y de las matemáticas,
pero aquí pondremos entre paréntesis al problema. Ver los artículos en Rayo y Uzquiano 2007.

226
capítulo

10

El lenguaje de LC1

Contenidos del capítulo

La gramática de LC1 228


La importancia del orden 230
Restringiendo los cuantificadores 233
Generalidad múltiple 239

Objetivos de aprendizaje
1.
2.

227
10.1. La gramática de LC1

hora vamos a definir el lenguaje y la sintaxis de LC1. El lenguaje de un sistema


A lógico se define por dos cosas:
• por los símbolos que contiene, y
• por las fórmulas que se pueden formar con esos símbolos.
Esto lo podemos ver en analogía con lenguajes naturales como el Español. También
en el Español tenemos una lista de símbolos: el alfabeto, que incluye las letras ma-
yúsculas y minúsculas, los acentos y demás signos ortográficos, y el espacio en blanco.
Con estos símbolos, formamos palabras. Y con las palabras, usando las reglas gramati-
cales, formamos frases y oraciones.
Las fórmulas son análogas a las oraciones, en el siguiente sentido. Así como la gramá-
tica del Español implica que «!,compra Valle átomo: salida» no tiene significado (literal),
así queremos tener reglas para nuestro sistema lógico que permita definir las «oracio-
nes» que tendrán significado en él: las fórmulas con las que vamos a poder expresar
distintos hechos.

10.1.1. El alfabeto

El lenguaje de nuestro sistema de lógica cuantificacional de primer orden con identidad,


LC1, va a contener los siguientes símbolos:
Definición 81: Alfabeto de LC1

Constantes individuales a,b,c , . . . (Estas son los «nombres propios»


de nuestro lenguaje: cada una se refiere a un individuo de los que
estamos hablando con nuestras fórmulas).1 Por convención, usa-
mos las primeras letras minúsculas.
Variables individuales x, y, z , . . . Por convención, usamos las últimas
letras minúsculas.
Términos individuales Le llamamos «términos individuales» a las va-
riables y constantes de nuestro lenguaje.
Predicados para cada número natural n , tenemos constantes de predi-
cados de n lugares.
Las conectivas lógicas proposicionales ¬, ∨, & , ⊃, ≡.
Los cuantificadores ∀, ∃.
Símbolos de agrupación (, ) , [, ] .

228
10.1.2. Las fórmulas

Vamos a definir las fórmulas del lenguaje de nuestra lógica cuantificacional LC1 median-
te una definición recursiva. Estas reglas son un poco «técnicas»;2 pero lo verdaramente
importante es, más que aprendérselas al pie de la letra, saber reconocer qué es y qué
no es una fórmula del sistema.
Como en algunos casos necesitaremos referirnos a partes de fórmulas en las que hay
variables libres, a esas les llamaremos «matrices». Por ejemplo, «F x» es una matriz, pues
tiene a x libre. Otra matriz es «∃x (F x ∨ G y)», pues tiene a y libre. Una matriz no es
una fórmula de nuestro lenguaje, pero sí puede ser una parte de una fórmula.
Definición 82: Lenguaje de LC1

Predicación atómica Si P n es un predicado de n lugares (para algún


número natural n ), y tenemos n constantes a 1 ,a 2 , . . . ,an , entonces
P n (a 1 ,a2 , . . . ,an ) es una fórmula. Cuando n = 1 esto se reduce a
P (a) y usualmente quitaremos los paréntesis: P a .
Matrices atómicas Si P n es un predicado de n lugares (para algún nú-
mero natural n ) y tenemos n términos (es decir, variables o cons-
tantes), t1 ,t2 , . . . ,tn , entre los que se encuentra al menos una va-
riable individual, diremos que P n (t1 ,t2 , . . . ,tn ) es una matriz ató-
mica. (Estas simplemente son partes de fórmulas que tienen varia-
bles libres, y no tienen cuantificadores ni otras conectivas.) Cuando
queramos resaltar una de las variables que aparecen en la matriz,
utilizaremos la notación «Φ[x] », que refiere a una matriz en la que
x aparece libre.
Matrices moleculares Si una o ambas de A y B son matrices, entonces
A ⊃ B, A ≡ B, A ∨ B, y A & B también son matrices.
Cuantificadores Si Φ[𝛼] es una matriz en la que sólo 𝛼 aparece libre,
entonces, ∀𝛼(Φ[𝛼]) y ∃𝛼(Φ[𝛼]) son fórmulas. Si Φ[𝛼] es una
matriz en la que 𝛼 y otras variables más aparecen libres, entonces
∀𝛼(Φ[𝛼]) y ∃𝛼(Φ[𝛼]) son matrices.
Fórmulas moleculares Para cualquier fórmula A, ¬A también es una
fórmula. Si A y B son fórmulas, también lo son A ⊃ B, A ≡ B, A ∨ B,
y A & B. (Esto cubre tanto a los casos en que usamos conecti-
vas proposicionales para las fórmulas donde hay predicación con
constantes y sin cuantificadores, como el caso donde las conecti-
vas conectan fórmulas con cuantificadores).

229
10.1.3. Notaciones alternativas

Aunque el uso de los simbolos «∀» y «∃» ya es muy común, en algunos textos todavía
se usan símbolos distintos para los cuantificadores universales y existenciales. Veamos
con ejemplos que son fácilmente generalizables.
Para cuantificaciones universales como «∀x (F x)»:
Û
(x)(F x) x (F x) Πx (F x)

Para cuantificaciones existenciales como la fórmula «∃x (G x)»:


Ü
(Ex)(G x) x (G x) Σx (G x)

Aquí usaremos la notación estándar, pero es bueno tener en cuenta que otros textos
podrían decir lo mismo con distintos símbolos.

10.2. La importancia del orden

El orden de los cuantificadores y de los términos (variables y constantes) es importante,


pues cambiarlo puede implicar cambiar el significado de la fórmula.
Primero veamos con constantes (usando «a» para Ana y «b» para Beto). Es muy
distinto decir:
A(a,b)
y decir:
A(b,a)
pues la primera dice que Ana ama a Beto, y la segunda que Beto ama a Ana. Pero,
como hay amores no correspondidos, decir que alguien ama a otra persona no implica
que la otra lo ame también. Así que el orden de las constantes en los predicados de
relación es muy importante.
Veamos el caso de los cuantificadores. Cuando tenemos un sólo cuantificador, por
ejemplo el universal, tenemos dos opciones. Primero, podemos decir que:

∀x (A(x,b)) = Para cada x, x ama a Beto.


= Todos aman a Beto. (10.1)
= Beto es amado por todos.
Y, segundo, también podemos decir que:

∀x (A(b,x)) = Para cada x, Beto ama a x.


= Todos son amados por Beto. (10.2)
= Beto ama a todos.

230
Es obvio que son cosas muy distintas: mientras que la primera dice que Beto es muy
querido en su grupo, la segunda dice que Beto tiene «corazón de condominio».
Sigamos con el caso de una sola variable, pero ahora ligada por un existencial (y
usando a Ana en vez de a Beto). Aquí también tenemos solo dos opciones:

∃x (A(x,a)) = Para al menos una x, x ama a Ana.


= Alguien ama a Ana. (10.3)
= Ana es amada por alguien.

∃x (A(a,x)) = Para al menos una x, Ana ama a x.


= Al menos alguien es amado por Ana. (10.4)
= Ana ama a alguien.
De nuevo tenemos dos situaciones muy distintas: en la primera, Ana tiene admiradores
(bueno, al menos uno); en la segunda, Ana puede o no tener quien la ame, pero ella sí
ama a alguien más.
Veamos ahora los casos cuando tenemos variables cuantificadas en cada uno de los
dos lugares del predicado. Esto nos da cuatro posibilidades, que formalizan oraciones
muy distintas:

∀x∃y A(x, y) = Para cada x, hay al menos una y tal que: x ama a y.
= Todos tienen alguien a quien aman. (10.5)
= Todos aman a alguien.

∀x∃y A(y,x) = Para cada x, hay al menos una y tal que: y ama a x.
= Todos tienen a alguien que los ama. (10.6)
= Todos son amados por (al menos) alguien.

∃y∀x A(x, y) = Hay al menos una y tal que, para toda x: x ama a y.
= Hay alguien tal que todos lo aman. (10.7)
= Alguien es amado por todos.

∃y∀x A(y,x) = Hay al menos una y tal que, para toda x: y ama a x.
= Hay al menos alguien tal que para cualquiera, lo ama. (10.8)
= Alguien ama a todos.
Podríamos visualizar así a los cuatro diferentes escenarios:

231
Podemos ver rápidamente que estas cuatro fórmulas son distintas entre sí—ninguna
es lógicamente equivalente con otra: ninguna implica-y-es-implicada por otra.
Sin embargo, algunas sí implican a (pero no son implicadas por) otras, a saber: (3.8)
implica a (3.6), y (3.7) implica a (3.5), pero no viceversa. Esto es porque, si (como dice
3.8) al menos una persona ama a todas, entonces es necesario que (como dice 3.6) toda
persona tiene al menos alguien que la ame (a saber: ¡esa que ama a todas!) También,
si (como dice 3.7) alguien es amado por todos, entonces es necesario que (como dice
3.5) todos amen a al menos alguien (a saber: ¡ese que es amado por todos!)
Esto, de hecho, es general: cuando Φ es cualquier predicado (en el que no aparecen
ningunas otras variables libres), la fórmula:

∃y∀x Φ(y,x)
implica lógicamente a:

∀x∃y Φ(y,x) .

Pero la conversa no vale: no es cierto que: ∀x∃y Φ(y,x) implique lógicamente a:

∃y∀x Φ(y,x) . El contraejemplo podemos tomarlo de los casos que ya vimos: que ca-
da persona tenga al menos otra que la ame no implica que haya alguna persona que
ame a todos. De igual manera, la fórmula:

∃y∀x Φ(x, y)
implica lógicamente a:

∀x∃y Φ(x, y) ,
pero no viceversa (y el contrajemplo también es sencillo: que todos amen a alguna
persona, no implica que haya una persona específica a la que todos amen).

232
10.3. Restringiendo los cuantificadores

Muchas veces, cuando decimos «todos» no queremos decir realmente todos. Por ejemplo,
suponte que fuimos a la tiendita a comprar botanas. Después, me preguntas: ¿En dónde
están las papas que compramos? y yo te digo:

Todo está en la mesa. (10.9)

Obviamente, eso no significa que todo lo que existe en el universo esté en la mesa: hablo
de «todo» en un sentido restringido: de todo lo que compramos.
Supongamos que definimos un modelo para formalizar lo que dije. Si no uso un mo-
delo cuyo dominio esté ya restringido a las cosas que compramos (ver arriba: sección
9.5), debo restringir los cuantificadores. Usemos un modelo irrestricto y como interpre-
tación, definamos: E es la relación de estar en y usamos m para nombrar a mi mesa.
Entonces, la formalización más perspicua (es decir, la que mejor refleja la forma lógica)
de la oración 10.9 no es:
∀x [E (x,m)], (10.10)
que significaría «Todo —absolutamente todo— está en mi mesa», sino que debo introdu-
cir un predicado (de un solo lugar) para las cosas que compramos. Usando «C » para
ello, la formalización más adecuada es:

∀x [C x ⊃ E (x,m)] , (10.11)

que, literalmente, reza:

Toda cosa, si la compramos, está en mi mesa, (10.12)

y que es simplemente una manera algo distinta de decir lo mismo que:

Todo lo que compramos está en mi mesa, (10.13)

y que sí significa lo que quería decir originalmente.


Este ejemplo muestra que la manera de restringir al cuantificador universal es usando
al condicional material, «⊃». ¿Por qué?
La idea esencial es la siguiente. Cuando estoy hablando de un conjunto específico
de cosas —mis amigos, las papas que compramos, etc.—, estoy hablando de las cosas
que cumplen una cierta condición. Es decir: no estoy hablando de todas las cosas que no
satisfacen esta restricción. Si hablo de lo que compramos, es obvio que hay más cosas
en el universo que lo que hemos comprado —pero no estoy hablando de ellas. Estoy
hablando de cualquier cosa si es que es una de las que compramos. Y este «si es que»
es bien representado por el condicional material —pero no por una conjunción, un
bicondicional o una disyunción. Veamos.

233
Supongamos que, en lugar de 10.11, usara:
∀x [C x & E (x,m)] (10.14)
Eso dice algo distinto de lo que dice 10.9. Esto dice que todo es algo que compramos y
que, además, está en mi mesa. Pero es falso que todo sea algo que compramos, y es falso
que todo esté en mi mesa. Y si en lugar de la conjunción en 10.14 hubiera usado una
disyunción, estaría diciendo que, todas las cosas, o las compramos o están en mi mesa.
Pero eso, de nuevo, es falso (yo ni soy algo que compramos ni estoy en mi mesa).
Si hubiera usado un bicondicional (para tener «∀x [C x ≡ E (x,m)]»), diría también
algo distinto: cualquier cosa es algo que compramos siempre y cuando esté en mi mesa:
si está en mi mesa, es algo que compramos; si es algo que compramos, está en mi mesa.
Pero esto tampoco es lo que dice 10.9: en particular, no dice que todo lo que esté en mi
mesa es algo que haya comprado.
En resumen: decir «Todos los A son B» debería significar que cada cosa del dominio
que sea A, va a ser B. Es decir: que cada cosa que encuentres que sea A, esa va a ser
un B: toda cosa, si es A, entonces será B. Y en la lógica clásica esta relación —la de un
«si. . . entonces. . . »— es el condicional material.
Podemos ir por las demás conectivas diádicas clásicas que hemos definido y notar
que no podrían funcionar porque no dicen lo que queríamos decir. Veamos:
• Una disyunción con el universal nos diría: «Toda cosa (en el dominio), o bien es
A, o bien es B (o ambas)».
• Una conjunción nos diría: «Todo es A y además es B».
• Un bicondicional nos diría: «Todo lo que está en el dominio, si es A, también es
B, y si es B, también es A».
Ninguna de estas tres nos dice lo mismo que «Todo (en el dominio) lo que es A, es B», lo
cual nos deja solamente al condicional material, que sí nos da el significado adecuado.
Por supuesto, la restricción puede ser más específica. Supongamos que en la tienda
compramos bolsas de papas y carbón para el asador, pero que quiero decir específica-
mente que las bolsas de papas que compramos (pero no todo lo que compramos: el carbón
no) están en la mesa:
Las papas que compramos están en la mesa. (10.15)
Como antes, para formalizar esto, debo restringir los cuantificadores de mi fórmula.
Entonces, para formalizar 10.15, definamos el predicado «B» para la propiedad de ser
una bolsa de papas. Ahora tenemos:
∀x [(Bx & C x) ⊃ E (x,m)] , (10.16)
que, leída literalmente, diría:
Toda cosa, si es una bolsa de papas y la compramos, está en mi refri. (10.17)

234
y que simplemente es una manera «sofisticada» de decir:

Todas las papas que compramos están en mi mesa. (10.18)

Así, ahora restrinjo el cuantificador para hablar de cosas que cumplen la restricción
«doble» de que la hayamos comprado y sea una bolsa de papas, y digo de esas cosas
que están en mi mesa.
Pero, ¡cuidado!: No siempre que haga una restricción «compuesta», está será
formalizable usando una conjunción en el antecedente. En algunos casos específicos
es más adecuado usar una disyunción. Por ejemplo:

Todo lo que compramos y todo lo que trajiste está en mi mesa. (10.19)

¿Qué tan buena idea sería formalizarlo así? (usando, obviamente, «T » para denotar a
la propiedad de ser algo que trajiste):

∀x [(T x & C x) ⊃ E (x,m)] , (10.20)

Respuesta: no es buena idea. Pues 10.20 dice, literalmente, que toda cosa que hayamos
comprado y que, además, hayas traído, está en mi mesa. Pero eso no era lo que yo quería
decir. Quería decir que: todo lo que compramos, además de todo lo que trajiste, está en
mi mesa. La primera oración habla de aquéllo que satisface la condición «doble» de
que lo hayamos comprado y lo hayas traído; la segunda habla de aquéllo que, o bien
satisface la condición de que lo hayamos comprado, o bien satisface la condición de que
lo hayas traído. Esta es la lectura correcta de 10.19, aunque la aparición de «y» puede
ser inicialmente confundente. Y se formaliza:

∀x [(T x ∨ C x) ⊃ E (x,m)] , (10.21)

que, ahora sí, dice de toda cosa que o hayamos comprado o hayas traído (o ambas) que
está en mi mesa.
La diferencia entre este caso y el anterior (el de las papas que compramos, 10.18) es
esta: en el primer caso, me restrinjo a hablar de cosas de un tipo (las que compramos)
que además son de un sub-tipo (dentro de las cosas que compramos, las que sean
bolsas de papas). En el segundo caso (el de lo que compramos y lo que trajiste: 10.19),
hablo de, por un lado, todo lo que cumple una condición, y por otro lado, de lo
que cumple otra condición —pero no presupongo que haya cosas que cumplen ambas
condiciones (que las hayas comprado y que las trajiste).
Otra manera de ver estas diferencias es que el caso de lo que compramos y lo que
trajiste sí puede formalizarse con una conjunción, pero no dentro de la restricción del
cuantificador, sino una conjunción de dos oraciones cuantificadas:

∀x [C x ⊃ E (x,m)] & ∀x [T x ⊃ E (x,m)] (10.22)

235
Aquí es más claro que, por un lado, hablamos de todo lo que compramos, y por el otro,
hablamos de todo lo que trajiste.
Sin embargo, es claro que esto no funciona en el caso de las restricciones «dobles» (o
«triples», o etc.), como en el caso de las bolsas de papas que compramos. En ese caso,
la siguiente fórmula:
∀x [C x ⊃ E (x,m)] & ∀x [Bx ⊃ E (x,m)] (10.23)
dice:
Todas las papas están en la mesa, y todo lo que compramos está en la mesa, (10.24)
que no es lo que quería decir con 10.19: Ni todas las papas están en el refri (no están
las papas que se están comiendo en un bar en China, por ejemplo), ni todo lo que
compramos está en la mesa (no están el carbón). Hablamos en un sentido restringido.
Cosas parecidas suceden con el cuantificador existencial. Si digo:
Alguien se tomó mi cóctel, (10.25)
claramente no pienso en que alguien en el universo se tomó mi cóctel. Regularmente al
hacer este tipo de afirmaciones, tengo un dominio restringido en mente: quizá, por
ejemplo, me refiero a alguien de los que están en mi casa. Entonces (usando N para la
propiedad de estar en mi casa, T para la relación de tomar a, y h como constante para
mi cóctel), la formalización correcta de 10.25 sería:
∃x (N x & T (x,h)) (10.26)
¿Por qué, a diferencia de lo que sucede con el cuantificador universal, aquí usé la con-
junción?
Porque, a diferencia de lo que pasa con el universal, poner un condicional para res-
tringir un existencial en realidad no crea ninguna restricción. Veamos. Tomemos
10.26 y cambiemos:
∃x (N x ⊃ T (x,h)) (10.27)
Esta fórmula dice que hay al menos una cosa que, si está en mi casa, se tomó mi cóctel. Sin
embargo, ese enunciado es verdadero incluso debido a cosas que no están en mi casa:
Leo Messi no está en mi casa, pero es verdad decir que: Si Leo Messi está en mi casa, se tomó
mi cóctel. Esto es así porque estoy usando un condicional material, y este condicional es
verdadero si su antecedente es falso. Por esa razón, usar un condicional para restringir
un existencial en realidad no crea una restricción, pues la fórmula existencial (como
10.27) puede ser verdadera incluso por cosas que no cumplan con esa restricción.
Para finalizar, las restricciones para los cuantificadores en las fórmulas también pue-
den ocurrir cuando tengo más de un cuantificador. La idea básica es simplemente res-
tringir cada cuantificador con su conectiva apropiada (los universales con «⊃» y
los existenciales con «&»).

236
Supongamos que en una reunión, compramos una pizza que, afortunadamente, al-
canzó para todos. Me preguntas si las rebanadas de pizza alcanzaron para todos, y
te respondo que:
Todos comieron al menos una.
Obviamente, al decir «una», quiero decir una rebanada de la pizza que compramos.
ejemplo 35

Y también, no estoy hablando de toda persona del universo: hablo de todas las que
estuvieron en la reunión. Entonces podemos definir un modelo, con un dominio irres-
tricto, usando estos predicados:
• E (𝛼) : 𝛼 es una persona que estuvo en la reunión.
• R (𝛼) : 𝛼 es una rebanada de la pizza que compramos en la reunión.
• C (𝛼, 𝛽 ) : 𝛼 se comió a 𝛽 .
Con lo que la oración se formalizaría así:
 
∀x Ex ⊃ ∃y Ry & C (x, y)

Ejercicio # 44
En la siguiente imagen, cada cuadro representa una situación (modelo) distinta. En cada
situación, una flecha a → b representa que A(a,b) . Debes imaginar que en Situación

2 cada gato tiene una flecha que parte desde sí mismo y llega a sí mismo, como en: a
(de manera que A(a,a) ).
En cada situación (modelo) interpretaremos las fórmulas tomando como Dominio =
{perro 1, gato 1, gato 2, gato 3, gato 4}, y con Interpretación: P er r o (𝛼) : 𝛼 es un pe-
rro. G ato (𝛼) : 𝛼 es un gato. A(𝛼, 𝛽 ) : 𝛼 es amigo de 𝛽 , esta relación cambia en cada
situación.

237
I Relaciona cada fórmula con la situación que describe, de manera que a cada
fórmula le corresponda una y sólo una situación:
(a) ∃x∃y [P er r o (x) & (G ato (y) & A(x, y))] Situación 1
(b) ∃x∃y [P er r o (x) & (G ato (y) & A(y,x) & ¬A(x, y))] Situación 2
(c) ∃x [P er r o (x) & ∀y (G ato (y) ⊃ A(x, y))] Situación 3
(d) ∀x∀y [(G ato (x) & G ato (y)) ⊃ A(x, y)] Situación 4
II En Situación 1, «voltea» todas las flechas: donde hay un a → b , ve un a ← b .
¿Cómo formalizarías esa situación?
III Si en Situación 4 agregáramos una flecha sobre perro 1 de manera que se viera

así: perro 1, ¿Qué fórmula la describiría? Escríbela.

238
10.4. Generalidad múltiple

La generalidad múltiple ocurre cuando tenemos más de un cuantificador en una propo-


sición. Este es un ejemplo de ello, que antes mencionamos.

1. Todos los perros tienen alguna correa.


2. Todas las correas están hechas de cuero.
/∴ Todos los perros tienen alguna cosa hecha de cuero.

Parece que este argumento es válido. Para comprobarlo, tenemos que demostrarlo
mediante los métodos lógicos que veremos después. Pero ello requiere que podamos
formalizar oraciones con más de un cuantificador, que es lo que aprenderemos en esta
sección.

10.4.1. Cuantificadores independientes

El primer tipo de caso es cuando tenemos más de un cuantificador, pero la conectiva


principal es una conectiva proposicional. Por ejemplo, la proposición expresada por:
Todos somos humanos, pero algunos somos filósofos,
se formalizaría, usando un modelo que dejamos implícito, así:
∀x (H x) & ∃x (F x)

Como otro ejemplo, considera la siguiente fórmula:


∀x (F x) ⊃ ∃x (F x)
Usando la misma interpretación, es claro cómo leerla:
Si todos somos filósofos, entonces algunos somos filósofos.
Estos casos son sencillos: sólo requieren entender qué representan las conectivas y los
cuantificadores. En estos casos, los cuantificadores son independientes entre sí: ninguno
está en el alcance de otro.

10.4.2. Cuantificadores en el alcance de otros cuantificadores

En otros casos, dentro del alcance del mismo cuantificador ocurren otros cuantificado-
res.

Existenciales con existenciales

Un ejemplo de esto es la proposición expresada por:

239
Algunos filósofos han escrito al menos un libro
Es importante notar que esta proposición tiene la misma forma que otras proposiciones
existenciales que hemos visto antes. Al final de las cuentas, nos dice que hay algunas
cosas que cumplen con dos propiedades. Entonces, su forma va a ser muy parecida a la
de otras proposiciones que, aunque son más simples, también predican dos propiedades
de algunas cosas, como:
Algunos filósofos son irreverentes: ∃x (F x & I x)
o como:
Algunos filósofos son tranquilos: ∃x (F x & T x)
Por ello, «Algunos filósofos han escrito al menos un libro» va a seguir la misma forma:
∃x (F x & . . .),
donde los tres puntitos van a contener el predicado «haber escrito al menos un libro». Re-
sulta que este predicado consiste en una relación: «haber escrito», que es una relación
entre dos objetos: alguien que escribe y aquello que escribió. Y vemos que lo que rela-
ciona, en este caso, es a alguien con al menos un libro. A su vez, esta última expresión
es una cuantificación: «al menos un» es un cuantificador existencial.
Poniendo todo lo anterior junto, resulta que el predicado «haber escrito al menos un
libro» debería formalizarse más o menos así: «∃y (E (x, y) & Ly)», es decir: hay al menos
una cosa, tal que x la escribió, y esa cosa es un libro. ¿Quién es ese x? Pues la cosa que
era un filósofo. Es decir, usando un modelo que dejamos implícito, la fórmula completa
quedaría así:
 
Algunos filósofos han escrito al menos un libro: ∃x F x & ∃y [E (x, y) & Ly]
Fíjate que el segundo cuantificador debe estar en el alcance del primero, pues
el predicado incluye una relación con x, y variable esta no puede estar libre. Debe,
entonces, estar ligada, y por ello debe estar en el alcance del cuantificador.
Vamos a leer a la fórmula por partes:
∃x [F x & ∃y (E (x, y) & Ly )]
| {z } | {z } |{z}
Algunos son filósofos y además son tales que hay cosas que escribieron y estas son libros

Entonces, la lectura literal de la fórmula es: «Algunos son filósofos y además son tales
que hay cosas que escribieron y estas son libros». Aunque no es la misma oración que
«Algunos filósofos han escrito al menos un libro», es claro que ambas son verdaderas
en todos los mismos casos y falsas en todos los mismos casos, por lo que expresan la
misma proposición. Esto nos permite decir que la fórmula de arriba es una formalización
perspicua. Podemos ver la razón de ello al ver que:
• «Algunos filósofos . . . » = «Algunas personas que sean filósofas . . . » = «Al menos
una cosa que es filósofo . . . »

240
• «han escrito al menos un libro» = «hay al menos un libro que han escrito» = «hay
al menos algo que escribieron, y que es un libro»
Parecería que esto agrega muchas complicaciones, y no es claro con qué finalidad.
Ahora lo voy a explicar.

Por qué la complicación: Para evitar un error

Hay algo que podría ser «tentador» o «natural» hacer, pero que está mal, porque no
cumple con las reglas del lenguaje de la lógica LC1. Es mejor dejar en claro por qué está
mal, para que nunca lo hagas al formalizar un argumento.
Uno podría pensar que, para una proposición como Algunos filósofos han escrito al
menos un libro, podemos formalizar, primero, la expresión «Algunos filósofos. . . », como
 
siempre: ∃x F x . . . y luego formalizar «han escrito al menos un libro» en el mismo
orden en el que aparece en la oración, de manera que se leyera: «algunos filósofos son
tales que han escrito al menos un libro», quedando así:
 
∃x F x & E [x, ∃y (Ly)]

El error, que he puesto en rojo, es un error porque los predicados nunca contienen
fórmulas, sólo pueden tener constantes o variables. Pero «∃y (Ly)» es una fórmula.
Para no caer en este error es que tenemos que usar una lectura un poco más com-
plicada, como en la subsección pasada. Es decir: como los predicados nunca tienen
fórmulas, sino que sólo pueden tener constantes o variables, a las proposiciones como
«Algunos filósofos han escrito al menos un libro» las tenemos que formalizar poniendo el
segundo cuantificador antes de decir que estamos hablando de los libros que han escrito.
Esto mismo va a pasar en otras formas de proposiciones que también incluyen cuan-
tificadores en el alcance de otros.

Universales con existenciales

Cosas no muy distintas van a suceder cuando tenemos un cuantificador universal como
la conectiva principal. Por ejemplo:
Todos los filósofos han escrito al menos un libro.
Nota que esto afirma de todas las cosas que cumplen con una propiedad —ser filósofo—,
que también cumplen con otra: haber escrito al menos un libro. Es decir, al final de las
cuentas, tienen la misma forma que muchas otras proposiciones que también dicen, de
todas las cosas que cumplen con una propiedad, que también cumplen con otra, como
«Todos los hombres son mortales». Y así como esta la formalizamos usando la conectiva
que restringe al universal —el condicional material—, es decir (usando un modelo que

241
dejamos implícito):
∀x (H x ⊃ M x),
así vamos a usar al cuantificador universal y la conectiva que lo restringe para formalizar
«Todos los filósofos han escrito al menos un libro»:
 
∀x F x ⊃ ∃y [E (x, y) & Ly]

Si a esta otra vez la leemos por partes, quedaría así:

∀x [F x ⊃ ∃y (E (x, y) & Ly )]
| {z } | {z } |{z}
Toda cosa, si es filósofo entonces habrá al menos una cosa que escribió y esta es un libro

Y de nuevo, aunque «Toda cosa, si es filósofo, entonces habrá al menos una cosa que
escribió, y esta es un libro» no es la misma oración que «Todos los filósofos han escrito
al menos un libro», estas sí expresan la misma proposición, como podemos ver:
• «Todos los filósofos . . . » = «Todo el que sea filósofo . . . » = «Toda cosa, si es filósofo
...»
• «han escrito al menos un libro» = «hay al menos un libro que ha escrito» = «hay
al menos algo que escribió, y que es un libro»
Como antes, sería un error pensar que «Todos los filósofos han escrito al menos un
libro» puede formalizarse así:
 
∀x F x ⊃ E [x, ∃y (Ly)]

El error, como en el caso anterior, es que los predicados nunca relacionan a cosas con
fórmulas: sólo relacionan a cosas con otras cosas (constantes o variables).

Otras combinaciones de cuantificadores

Las mismas ideas se aplican para cuando tenemos diferentes combinaciones de cuanti-
ficadores: universal con universal, existencial con universal, y negaciones de estos.
Por ejemplo, para el caso de existencial con universal, consideremos esta proposición:
Algunos libros han sido leídos por todos
En este caso, es claro que tenemos un cuantificador existencial: «algunos», y de las cosas
cuantificadas se predican dos atributos: ser libros y haber sido leídos por todos. Entonces, es
claro que la formalización va a ser algo como: ∃x (Lx & . . .), donde, en lugar de los tres
puntitos, vamos a tener que algo que simbolice «haber sido leídos por todos». Esto va a ser
 
algo como: «∀y D (y,x) », donde la «x» libre es la variable ligada por el existencial, y la
relación «D» se interpreta (en el modelo que dejamos implícito), así: «D (𝛼, 𝛽 )» significa
que 𝛼 ha leído a 𝛽 .

242
Con todo lo anterior, quedaría esta fórmula:
  
∃x Lx & ∀y D (y,x) ,

que, leída literalmente, dice:


Algunas cosas son libros y son tales que: todos las han leído,
y que, como en los casos anteriores, aunque no son la misma oración, se puede ver que
significan lo mismo: que expresan la misma proposición.
Otro caso consiste en las proposiciones que incluyen dos cuantificadores universales,
uno en el alcance del otro. Por ejemplo, considerando un dominio de discurso en el que
hablamos de todas las personas de un grupo, podríamos decir algo como:
Todos aquí somos amigos de todos.
Si transformamos esto mediante los métodos que ya hemos estado aprendiendo, encon-
traremos que:
• Todos aquí. . . = Todos los que estamos aquí. . . = Toda cosa, si está aquí . . .
• . . . somos amigos de todos = . . . somos tales que, para todos, somos amigos de ellos = . . . entonces
es tal que, para toda cosa, es amigo de ella.
Por lo que «Todos aquí somos amigos de todos» y «Toda cosa, si está aquí, entonces es tal que, para
toda cosa, la primera es amiga de la segunda» significan la misma proposición. Y entonces,
usando el predicado «Q » para las cosas que están aquí y la relación de dos lugares «A»
para relacionar a las cosas que son amigas, podemos decir que «Todos aquí somos amigos
de todos» se formalizaría así:

∀x [ Q x ⊃ ∀y [A(x, y)]]

Y, como en los casos anteriores, la complicación resulta de evitar poner fórmulas en


donde solamente podemos poner constantes o variables.
Con los cuantificadores negados sucede básicamente lo mismo. Hablaremos más so-
bre la interacción con los cuantificadores y la negación en la sección 11.3.
Ahora vamos a hacer algunos ejercicios con lo aprendido hasta ahora.
Ejercicio # 45
1 Formaliza las siguientes oraciones. Para ello, define un modelo (puede ser uno para
todas o uno para cada una):
(a) Todos los libros tienen al menos un lector.
(b) Algunos han ganado todas las carreras.
(c) Todos han ganado alguna carrera.
(d) Toda carrera tiene al menos un ganador.
(e) Algunos libros contienen algunos errores.

243
(f) Todo libro contiene hay algún error.
(g) Algún libro contiene todos los errores.
(h) Todos los amigos de algún escritor, leen algún libro.
(i) Si todos han ganado alguna carrera, entonces, algunos han ganado toda ca-
rrera.
(j) Si algunos libros han sido leídos por todos, entonces todos han leído algún libro.
2 Formaliza los siguientes argumentos. Recuerda tener en cuenta en dónde están los
indicadores de premisa o de conclusión:
(a) Todo el que tenga algún yate, es rico. Esto se sigue de que: todo el que pague
mucho dinero, es rico, y de que todo el que tenga algún yate, paga mucho dinero.
(b) Cualquiera que sea amigo de al menos un superhéroe, es un superhéroe. Juan
es un superhéroe. Pues, además, Juan es amigo de Batman.
(c) Algunos millonarios tienen algunos yates. Por lo tanto, no todos los millonarios no
tienen alguna cosa. [donde «cosa» no es un predicado, sino solo la variable correspon-
diente]

10.4.3. Generalidad múltiple y varias restricciones

Las proposiciones que podemos formalizar en la lógica clásica de primer orden pueden
llegar a ser muy complejas, aunque la estructura «en general» sea la misma.
Como un caso de esto, consideremos a la oración: «Todo corredor profesional tiene al
menos un coche veloz». La idea, como antes, es aplicar el mismo análisis. Al final del
día, la proposición anterior, como los casos más simples que vimos antes, también
afirma que todas las cosas que tienen una cualidad, también tienen otra. Pero, en este
caso, la primera cualidad es compleja: tiene componentes. Esta es: ser un corredor que
es profesional. Y la cualidad que tengan todos los que tengan esta primera cualidad,
también es compleja: tener al menos un coche que es veloz.
Vamos por partes. Empezamos con lo obvio: que es una cuantificación universal, que
afirma que todas las cosas que tienen una cualidad, también tienen otra:

∀x [. . . ⊃ . . .] ,

donde los tres puntitos de cada lado van a sustituirse por las cualidades en cuestión.
La primera es ser un corredor profesional, que consiste, a su vez, de dos cualidades:
ser un corredor, por un lado, y ser profesional, por otro. Usando un modelo con dominio
irrestricto, y con una interpretación obvia, tendríamos:

∀x [(C x & P x) ⊃ . . .] ,

que dice, hasta ahora, que todo corredor profesional es tal que . . .

244
La cualidad que la proposición atribuye a todos los corredores profesionales es que
tienen al menos un coche veloz. Esta cualidad, a su vez, consiste en una relación: tener,
entre un tipo de cosas —los corredores veloces—- y al menos una de otro tipo de cosas.
Así que tenemos una cuantificación existencial: «hay al menos. . . » y esta cuantifica sobre
cosas que, a su vez, tienen dos cualidades: ser coches y ser veloces. Es decir, la segunda
parte debe decir que para todos y cada uno de esos corredores profesionales de los que
hablamos, hay al menos un coche veloz que tienen. Debemos «voltear» así a la oración
original, pues no podemos formalizar «tiene al menos un coche veloz» poniendo la
relación entre la cosa que es corredor profesional y la fórmula «al menos un coche es
veloz»: esto sería el mismo error que señalamos antes.
Entonces, tendríamos que «. . . tienen al menos un coche veloz» debería quedar así (usan-
do la «o» mayúscula para el predicado de ser coche, pues ya usamos a «C » para ser un
corredor): «∃y [(O y & V y) & T (x, y)]», donde la «x» libre es la que está ligada por el
cuantificador universal.
Con todo ello, formalizaríamos «Todo corredor profesional tiene al menos un coche veloz»
así:
 
∀x (C x & P x) ⊃ ∃y [(O y & V y) & T (x, y)]
Nota que, como la proposición original tiene la forma «Todos los A son B», también
la fórmula correspondiente tiene esa forma: ∀x [A ⊃ B], solamente que «A» es una
propiedad compleja: ser un corredor profesional, y «B» también: tener al menos un
coche veloz.
Ejercicio # 46
1 Usando el modelo de abajo, formaliza las siguientes oraciones:
(a) Sólo los que han ganado alguna competencia justa son los mejores.
(b) Toda competencia justa tiene al menos un ganador justo.
(c) Algunas competencias justas son las mejores, pero no todas las mejores com-
petencias son justas.
Este es el Modelo,
 con dominio irrestricto:
G (𝛼, 𝛽 ) : 𝛼 gana en 𝛽 M (𝛼) : 𝛼 es el mejor
Interpretación:
C (𝛼) : 𝛼 es una competencia J (𝛼) : 𝛼 es justa
2 Usando el mismo modelo, formaliza el siguiente argumento:
Ganar la competencia no te hace ser el mejor, si es que esta no es justa
(Cualquier competencia, si es injusta, no todo el que la gane es el mejor).
Sin embargo: toda competencia, si es justa, entonces sólo la ganan los
mejores. Por lo tanto, para toda competencia injusta, hay quienes la ganan
pero que no son los mejores, y para toda competencia justa, todos los que
la ganan son los mejores.
3 Formaliza las siguientes oraciones:

245
(d) Algunos justos han hecho algunas acciones correctas.
(e) Sólo los justos hacen sólo acciones correctas.
(f) Las acciones bellas son justas, y viceversa; y si alguien (cualquiera) hace al-
guna acción bella, hace alguna acción justa.
Para formalizarlas, usa el siguiente Modelo con dominio irrestricto:

 H (𝛼, 𝛽 ) : 𝛼 hace 𝛽 J (𝛼) : 𝛼 es justo/a



 C (𝛼) : 𝛼 es correcta A(𝛼) : 𝛼 es una acción

Interpretación:

 B (𝛼) : 𝛼 es bello/a U (𝛼) : 𝛼 es útil


 j : Juan

4 Con el mismo modelo, formaliza el siguiente argumento:
Todo el que sólo hace acciones correctas (todo el que toda acción que haga
sea correcta) es justo. Quien sea justo, hará algunas acciones que son be-
llas y útiles. Por lo tanto, quien sólo hace acciones correctas, hará algunas
acciones bellas.

246
Resumen del capítulo

Proyecto del capítulo:


Antecedentes d [Este proyecto debería ser sobre formalizar argumentos del len-
guaje natural: definir un modelo —con dominio e interpretación— y dar la fór-
mula que corresponde a cada premisa o conclusión.
Entonces, una posibilidad podría ser buscar cinco argumentos de la literatu-
ra filosófica que se puedan formalizar, y formalizarlos. Pero debería haber otra
actividad más.]
Problema d [Aquí describiré este proyecto.]

Notas

1. Más adelante (en la sección 11.4) veremos que es necesario agregar dos nuevos «tipos» de constantes.

2. De hecho, me estoy saltando varios detalles técnicos que harían las definiciones más rigurosas, pero tam-
bién más engorrosas. Por ejemplo, cada fórmula deberíamos encerrarla entre las «esquinas» o «comillas
de Quine», que nos permiten evitar problemas de uso y mención preservando generalidad. Así, por ejem-
plo, la expresión ⌜A ∨ B ⌝ significa: «el resultado de concatenar la fórmula referida por A, la disyunción,
y la fórmula referida por B». Otra manera en que podríamos ser completamente exactos es usando lo
que se conoce como Notación de Backus-Naur, y que tampoco veremos aquí.

247
248
capítulo

11

Reglas para los cuantificadores

Contenidos del capítulo

La heurística para demostrar validez con reglas 250


Reglas proposicionales y sustitución uniforme 251
Cuadrados de oposición 255
Reglas de eliminación e introducción 268
Demostraciones con generalidad múltiple 282
Reglas derivadas de interacción * 282

Objetivos de aprendizaje
1.
2.

249
enemos la definición de validez usual: Un argumento es válido siempre y cuando no
T exista ni un caso lógicamente posible en el que todas las premisas sean verdaderas pero la
conclusión sea falsa. En el contexto de LC1, esta definición se convierte en esta:
Definición 83: Validez de argumentos en LC1

Un argumento en el lenguaje de LC1 es válido siempre y cuando no exista


ningún modelo en el que las premisas sean verdaderas, pero la conclusión
sea falsa.

De manera equivalente: un argumento de LC1 es válido siempre y cuando: todo mo-


delo en el que las premisas sean verdaderas, hará verdad también a la conclusión.
Las reglas que veremos en este capítulo son esquemas de argumentos válidos: cualquier
argumento que sustituyamos en esos esquemas, tiene su validez garantizada.
En este capítulo vamos a revisar, primero, cómo es que las reglas de la lógica de orden
cero siguen valiendo en esta lógica y, segundo, algunas reglas para los cuantificadores.
De estas, unas son representadas por los cuadrados de oposición, de los que veremos dos
(uno que llamaremos «clásico» y otro que llamaremos «moderno», y abajo explicaré sus
diferencias.) Otras reglas para los cuantificadores son las de eliminación e introducción.
Finalmente, veremos las reglas derivadas, que se conocen así porque su validez se infiere
de las reglas proposicionales, las de los cuadrados de oposición, y las de eliminación e
introducción de los cuantificadores.
Empezamos con una serie de consejos para hacer demostraciones con las reglas que
veremos.

11.1. La heurística para demostrar validez con reglas

¿Cómo podemos usar las reglas de inferencia y de equivalencia para demostrar la validez
de un argumento?
La idea básica es trabajar de atrás hacia delante (en el espíritu de lo que se conoce
como «ingeniería inversa»). Empezamos analizando el resultado (es decir, la conclusión),
y razonamos cómo es que a partir de los puntos de partida (de las premisas), pudimos
haber llegado al resultado.
Esto usualmente significa fijarnos qué tenemos en la conclusión y buscar lo más pa-
recido a ella en las premisas. Una vez que lo encontramos, debemos intentar aislar eso
que es más parecido, eliminando todo lo que tiene a su alrededor. (Cuando lo logremos,
tendremos la conclusión, o quizá sólo será necesario utilizar una regla de equivalencia
para tener la conclusión.) Para producir tal aislamiento, debemos pensar cómo usar las
otras premisas y las reglas que ya conozco para eliminar el material que me sobra.

250
Supongamos que tengo el siguiente argumento:
1. G a ⊃ ¬H a
2. G a
/ ∴ ¬H a
Aplicando la heurística, puedo ver que mi conclusión—es decir, «¬H a » está en la
ejemplo 36

premisa 1. Sólo tengo que aislarla. Eso significa buscar en las demás premisas para
ver qué regla puedo usar para eliminar el material que me sobra.
Veo que tengo la fórmula «G a ⊃ ¬H a » en la premisa 1, que contiene a mi con-
clusión. Y en mi premisa 2, tengo a la fórmula «G a ». Usando una eliminación del
condicional, puedo eliminar el material sobrante para quedarme con la conclusión:
1. G a ⊃ ¬H a
2. G a
/ ∴ ¬H a
3. ¬H a E ⊃ (1, 2)
Veamos un ejemplo un poco más complicado. [??]

11.2. Reglas proposicionales y sustitución uniforme

Como vimos en la subsección 9.3.5, las fórmulas en las que hay predicación a objetos
particulares también tienen estructura proposicional. Ahora que ya conocemos todo el
lenguaje de LC1, podemos ver que lo mismo aplica para fórmulas cuantificadas.
Como las fórmulas de LC1 pueden tener estructura proposicional, las reglas propo-
sicionales nos permiten usar esa estructura para hacer inferencias válidas. Para ello,
necesitaremos el concepto de sustitución uniforme en una regla de LC0.
Definición 84: Sustitución Uniforme
Dada una regla de inferencia de la lógica proposicional (LC0), y una fór-
mula de la lógica cuantificacional (LC1): sustituir la fórmula en esa regla
significa reemplazarla por la metavariable correspondiente en todos los
lugares de la regla.

Veamos un par de ejemplos.

Supongamos que formalizo un argumento y me encuentro con que tiene la siguiente


ejemplo 37

estructura:
1. ∀x (F x) ∨ ∃x (G x ∨ H x)
2. ¬∃x (G x ∨ H x) ∴ ∀x (F x)
Después de revisar su forma, es fácil darse cuenta que tiene la estructura de un silo-
gismo disyuntivo. Es decir: tiene una premisa que es una disyunción, otra premisa

251
que niega uno de los disyuntos, y concluye el disyunto que no está negado.
Voy a usar colores para resaltar la estructura. Esta es la regla del silogismo disyun-
tivo:
A∨B
¬B
A
Entonces, puedo usar la regla proposicional para demostrar la validez del argumento:
1. ∀x (F x) ∨ ∃x (G x ∨ H x)
2. ¬∃x (G x ∨ H x) ∴ ∀x (F x)
3. ∀x (F x) SD(1, 2)
Obviamente, puedo usar cualquier regla de proposicional, siempre que tengan la
misma estructura.
Veamos otro ejemplo.
Supongamos que formalizo un argumento y me encuentro con que tiene la siguiente
estructura (de nuevo, he usado colores para enfatizarla):
1. A(b,e ) ⊃ ∃x (T d )
2. ¬ ∃x (T d ) ∴ ¬A(b,e )
Como la estructura ya se ve bien clara, es fácil ver que esto tiene la estructura de un
modus tollens—es decir, de esta regla:
A⊃B
¬B
¬A
Y así puedo demostrar el argumento con un solo paso:
1. A(b,e ) ⊃ ∃x (T d )
2. ¬∃x (T d ) ∴ ¬A(b,e )
3. ¬A(b,e ) MT(1, 2)

11.2.1. La forma proposicional de una fórmula cuantificacional

Vamos a usar tres pasos para distinguir la forma proposicional de cada fórmula y revisar
si podemos usar una regla proposicional. Ejemplificaré cada uno.
Primero Veo si hay una conectiva proposicional (condicional, negación, bicondicio-
nal, disyunción o conjunción) que sea la conectiva principal de la fórmula. Si
una conectiva principal está dentro de un cuantificador (es decir, en su alcan-
ce), entonces no es la conectiva principal. Por ejemplo, considera estas cuatro
fórmulas:
a. P b ⊃ ∃x (T x) b. ∀y (P y ⊃ ∃x (T x))
c. ¬∃x (C d ) d. ∃x¬(C x)
• La primera (a) tiene al condicional, «⊃», como conectiva principal.

252
• Pero la b no: su conectiva principal no es una conectiva proposicional, sino
el cuantificador universal.
• En la c, la conectiva principal sí es proposicional: es la negación.
• Pero en la d, no: es el existencial.
Segundo Si la conectiva principal es una conectiva proposicional, eso significa que hay
subfórmulas de la fórmula, que son las fórmulas conectadas por la conectiva pro-
posicional. Con cada una de ellas, repito el mismo paso: veo si hay una conectiva
proposicional que sea la conectiva principal de la forma. Si la hay, me fijo en
sus sub-fórmulas y repito el mismo procedimiento. Si no, paso al siguiente paso.
Por ejemplo:
a. P b ⊃ ∃x (S x & T x) b. ∀y [P y ⊃ ∃x (R (x, y))]
c. ¬[∀x (C x) ⊃ ∃y (H y & T y)] d. ¬∃x¬(C x)
• En la a, la conectiva principal es proposicional: el condicional. Sus dos sub-
fórmulas son: «P b» y «∃x (S x & T x)». De estas dos, ninguna tiene una co-
nectiva principal que sea proposicional: la primera ya no tiene conectivas, y
la segunda tiene al existencial como conectiva principal.
• En la b, no hay subfórmulas, pues la conectiva principal es el universal, y ni
«P y» ni «∃x (R (x, y))» son fórmulas, pues tienen una variable –la «x»– libre.
• En la c la conectiva principal sí es proposicional: la negación, y tiene una
subfórmula: ∀x (C x) ⊃ ∃y (H y & T y), a su vez, esta tiene una conectiva
proposicional como conectiva principal, que une dos subfórmulas: «∀x (C x)»
y «∃y (H y & T y))». Ninguna de estas tiene conectivas proposicionales como
conectiva principal, así que no tiene subfórmulas.
• En la d, hay una conectiva proposicional y su única subfórmula es: ∃x¬(C x);
esta ya no tiene subfórmulas, pues su conectiva principal es un cuantificador,
y «¬(C x)» no es fórmula, pues tiene una variable libre.
Tercero Ya que vi cuál es la forma proposicional de cada fórmula, solo resta identificar
si hay alguna regla proposicional que pueda usar. Por ejemplo:
1. ∃y (¬H y ∨ S y) & ∀x (T x ⊃ ¬G x)
2. ∀x (T x ⊃ ¬G x) ⊃ ∀x (¬G x) ∴ ∀x (¬G x)
Puedo ver cuáles son las conectivas principales de cada fórmula:
• En la 1, la conectiva principal es la conjunción, y tiene dos subfórmulas:
«∃y (¬H y ∨ S y)» y «∀x (T x ⊃ ¬G x)».
• En la 2, la conectiva principal es el condicional, con las dos subfórmulas:
«∀x (T x ⊃ ¬G x)» y «∀x (¬G x)».
• En la conclusión no hay subfórmulas.

253
Habiendo distinguido la estructura proposicional de cada premisa y de la conclu-
sión, podemos ver que tiene estructuras proposicionales que podemos usar para
llegar a la conclusión. La conclusión es: «∀x (¬G x)». Así que debo usar lo que
tengo en la premisa 2 para quedarme con esa parte. Si puedo eliminar el antece-
dente, puedo quedarme con la conclusión. Para eliminar el antecedente, necesito
tenerlo por separado para poder usar la eliminación del condicional. Esa fórmula
la tengo en la línea 1, pero en conjunción. Así que primero debo eliminar esa
conjunción. Por lo que utilizo la regla proposicional, que pondré en color para
resaltar su estructura:
1. ∃y (¬H y ∨ S y) & ∀x (T x ⊃ ¬G x) A&B
2. ∀x (T x ⊃ ¬G x) ⊃ ∀x (¬G x) ∴ ∀x (¬G x)
3. ∀x (T x ⊃ ¬G x) E & (1) B
Pero todavía no he llegado a la conclusión. Todavía necesito eliminar el condicio-
nal, y con colores he remarcado en dónde está la estructura necesaria:
1. ∃y (¬H y ∨ S y) & ∀x (T x ⊃ ¬G x)
2. ∀x (T x ⊃ ¬G x) ⊃ ∀x (¬G x) ∴ ∀x (¬G x) A⊃B
3. ∀x (T x ⊃ ¬G x) E & (1)
4. ∀x (¬G x) E⊃(2,3) B

Ejercicio # 47
Demuestra la validez de los siguientes argumentos usando las reglas de LC0.
I
1. ∀x (F x) & G a / ∴ ∀x (F x)
II
1. ∀x (F x) & G a
2. G a ⊃ T b / ∴ T b
III
1. ∀x (H x) ≡ ∃y (T y)
2. ¬∃y (T y) / ∴ ¬∀x (H x)
IV
1. Q b ∨ ¬P a
2. ¬Q b / ∴ ¬P a
V
1. R (s ,t ) ∨ ¬T b
2. ¬R (s ,t ) / ∴ ¬¬¬T b
VI
1. ∀x (Q x) ∨ ∃y (T y ∨ Q y)
2. ∀x (Q x) ⊃ ¬T a
3. ∃y (T y ∨ Q y) ⊃ ∃x (M x) / ∴ ∃x (M x) ∨ ¬T a

254
Nota que, hasta ahora, no hemos visto reglas que nos digan cómo «intervenir» con
con los cuantificadores. Eso es lo que haremos en el resto del capítulo.

11.3. Cuadrados de oposición

Los cuadrados de oposición reflejan, entre otras cosas, la relación de dualidad entre
los cuantificadores universal y existencial. La dualidad de los cuantificadores solamente
significa lo siguiente.
Definición 85: Dualidad de los cuantificadores
Que los cuantificadores sean duales significa que podemos definir uno en
términos del otro cuantificador más la negación lógica.

Esto es claro a partir del lenguaje natural. Como hemos visto, «∀» significa «todos» y
«∃» significa «al menos uno». Entonces, «¬∃¬» debe significar «no existe al menos uno que
no».
Supongamos que tomamos un modelo en el que el dominio es el conjunto de personas
del salón de clases, e interpretamos a «E» como la propiedad de ser estudiante. Enton-
ces, interpretada en ese modelo, la fórmula «¬∃x¬(Ex)» significará: «no existe al menos
una persona en este salón que no sea estudiante». Pero si no hay ni siquiera una persona en el
salón que no sea estudiante, eso debe ser porque toda persona en el salón es estudiante.
Es decir, «¬∃x¬(Ex)» implica que «∀x (Ex)».
Ahora consideremos la fórmula «∀x (Ex)» interpretada en el mismo modelo. Pregunté-
monos: si, como dice la fórmula, todas las personas en el salón son estudiantes, ¿podría
haber alguna que no fuera estudiante? Obviamente, no: si todas son estudiantes, no hay
ninguna que no lo sea. Es decir: no existe ni una sola que no lo sea. Es decir: «¬∃x¬(Ex)».
Por lo que ésta implica a la universal, y tenemos la siguiente equivalencia:

∀x (Ex) ≡ ¬∃x¬(Ex)

De hecho, esta equivalencia es verdad en todo modelo: no importa qué dominio tenga-
mos, ni cómo interpretemos el predicado «E», esta equivalencia va a ser verdad: nada
en el dominio es E, si y solamente si, no haya ni una sola cosa que no es E. Como
veremos después (sección 15.4.4), las fórmulas que son verdaderas en todo modelo, son
lógicamente verdaderas. Es decir, esta equivalencia es una verdad lógica de la lógica LC1.
Como no hay nada especial con el predicado E (pues, como vimos, no importa cómo
y en qué dominio lo interpretemos, la equivalencia seguirá siendo verdad), esto significa
que los argumentos de la forma:

255
∀x (Φ[x]) /∴ ¬∃x¬(Φ[x]),

van a ser válidos. Y los argumentos de la forma:

¬∃x¬(Φ[x]) /∴ ∀x (Φ[x]),

también.
En general, cada cuantificador se puede definir en términos del otro y las negaciones.
Básicamente, el truco mnemotécnico es el siguiente: un cuantificador es equivalente
al otro cuando le ponemos una negación a cada lado. Voy a hacer esto oficial con una
definición. Pero primero, hagamos una convención notacional.
Convención 8. Usaremos «A ⊨⊨ B» para decir que A y B son lógicamente equivalentes.
Esta notación significa lo mismo que usar las dos rayas:

A
B

La ventaja es que nos ahorra espacio.


Definición 86: Mnemotecnia de los cuantificadores, 1

Afirmar un cuantificador es equivalente a negar el otro cuantificador


negando. Es decir (usando, de manera informal, solamente los cuantifi-
cadores):

∀ ⊨⊨ ¬∃¬ y ∃ ⊨⊨ ¬∀¬ (mnemotecnia 1)

No importa qué pongamos después de cada cuantificador: es irrelevante para estas


equivalencias. Por ello, en esta sección vamos a seguir usando esta manera informal de
hablar, donde razonaremos usando sólo los cuantificadores, aunque es obvio que nos
estamos refiriendo a cualesquiera fórmulas del lenguaje que tengan esos cuantificadores
como conectiva principal.
Con estas equivalencias, y usando la regla de doble negación (A ⊨⊨ ¬¬A), podemos
saber qué hacer con las negaciones de los cuantificadores.
Como sabemos que: (a) ∀ ⊨⊨ ¬∃¬, y que (b) ¬¬∀ ⊨⊨ ∀, podemos sustituir el lado
izquierdo de (b) en (a), para tener (c): ¬¬∀ ⊨⊨ ¬∃¬. Por otro lado, sabemos que si dos
fórmulas son lógicamente equivalentes, entonces la negación de una es lógicamente
equivalente a la negación de la otra.1 Si aplicamos esto a (c), tendremos (d): ¬¬¬∀ ⊨⊨
¬¬∃¬. Por una última aplicación de la regla de doble negación, obtenemos (e): ¬∀ ⊨⊨
∃¬.
Este razonamiento (y uno análogo para el otro par de cuantificadores) justifica tener

256
las siguientes equivalencias:
Definición 87: Mnemotecnia de los cuantificadores, 2

La negación de un cuantificador es equivalente con el otro cuantificador


negando. Es decir: la negación salta el cuantificador y lo cambia por
el otro. Es decir (usando solamente los cuantificadores):

¬∀ ⊨⊨ ∃¬ y ¬∃ ⊨⊨ ∀¬ (mnemotecnia 2)

Estas relaciones se reflejarán en los cuadrados de oposición que veremos ahora.

11.3.1. Cuadrado clásico de oposición

En esta sección vamos a exponer el cuadrado «clásico» de oposición, al que llamamos


así sólo porque no consideramos las conectivas proposicionales en la matriz que está
en el alcance del cuantificador. Esto le da cierto parecido al cuadrado de oposición de
la lógica aristotélica.2
Los cuadrados de oposición nos dan las relaciones lógicas entre algunos tipos bá-
sicos de fórmulas cuantificacionales: aquéllas que dicen «todo», «ninguno», «algún» y
«alguno no». En particular, el cuadrado clásico no toma en cuenta las restricciones que
le pongamos a los cuantificadores (de lo que hablamos arriba, en la sección 10.3), pero
el moderno sí. Cuando no consideramos estas restricciones, los cuantificadores dicen:
«todo lo del modelo» (∀), «ninguna cosa del modelo» (¬∃), «alguna cosa del modelo»
(∃) y «alguna cosa del modelo no» (∃¬).
Vamos a usar algunas convenciones. La primera es la convención 7, que dice que el
dominio de cada modelo que usaremos (para interpretar o formalizar) no es vacío. La
otra es:
Convención 9. «Φ[𝛼]» es cualquier matriz en la que «𝛼» es la única variable que aparece
libre.
Ahora ya podemos definir el cuadrado clásico.

257
Definición 88: Cuadrado Clásico de Oposición

A Contrarias E
∀𝛼(Φ[𝛼]) ∀𝛼¬(Φ[𝛼])

Subalternas

Subalternas
Contradictorias

I Subcontrarias O
∃𝛼(Φ[𝛼]) ∃𝛼¬(Φ[𝛼])

Este cuadrado incluye las siguientes relaciones:


Contrariedad A y E son contrarias: si una es verdadera, la otra es falsa, pero ambas
pueden ser falsas.
Subcontrariedad I y O son subcontrarias: si una es falsa, la otra es verdadera, pero
ambas pueden ser verdaderas.
Subalternancia I es subalterna de A, y O es subalterna de E: si la de arriba es ver-
dadera, necesariamente la de abajo también; por lo que, si la de abajo es falsa,
necesariamente la de arriba también.
Contradictoriedad A y O por un lado, y E y I por el otro, son contradictorias: si una
es verdadera, la otra es falsa; si una es falsa, la otra es verdadera; una de las dos
tiene que ser verdadera.
Comentaremos ahora cada una de las relaciones de este cuadrado.

Contrariedad

En el habla cotidiana, a veces sucede que los conceptos de contradictoriedad y de


contrariedad se confunden entre sí. En lógica los vamos a separar.
Definición 89: Contrariedad
Que dos proposiciones sean contrarias significa que no puede suceder
que ambas sean verdaderas, pero sí puede suceder que ambas sean fal-

258
sas. Las reglas de la contrariedad son:

A ∴ ¬E (Contr)

E ∴ ¬A (Contr)

Por ejemplo, las proposiciones expresadas por «La mesa es cuadrangular» y «La mesa
es circular», son contrarias: no puede suceder que ambas sean verdaderas (suponiendo
que nada puede tener dos formas geométricas al mismo tiempo), pero sí que ambas
sean falsas (por ejemplo, si la mesa es triangular).
El ejemplo de las mesas no es un ejemplo de contrariedad debida a la forma lógica, que
es lo que nos interesa aquí. La contrariedad lógica se da entre las fórmulas de la forma:
∀ y ∀¬. Esto es porque no puede suceder al mismo tiempo que todas las cosas de un
dominio sean de alguna manera, y también que ninguna sea de esa misma manera. (Si
todos los objetos de un dominio son perros, ¡debe ser falso que ninguno es un perro!)
La contrariedad lógica está expresada por las reglas de la definición 89.

Subalternancia

Según esta relación, A implica lógicamente a I, y E a O. Estas implicaciones lógicas


nos dan reglas de los cuantificadores: toda fórmula con la forma de I puede inferirse
válidamente de la correspondiente fórmula con la forma de A, y así con E y O.
También reflejan una característica importante de los modelos: que todos los mode-
los tienen dominios no vacíos, como anunciamos con la convención 7. Como todos
los dominios de los modelos contienen algún elemento, si todos los elementos del domi-
nio son de una cierta manera, entonces existe al menos un elemento del dominio que es
de esa manera.
Si fuera posible tener «dominios» vacíos, la subalternancia fallaría: es decir, sería
lógicamente contingente, por lo que la «regla» sería inválida. Esto se sigue de dos hechos.
Primero, para cualquier dominio vacío, decir que «todo es F » es verdad. Esto
es fácil de demostrarlo: como veremos abajo, decir que «todo es F » es lógicamente
equivalente a decir que «no existe ni una cosa no sea F ». Entonces, si fuera falso que
«todo es F », sería verdad que «existe al menos una cosa que no es F ». Pero, como
estamos considerando sólo dominios vacíos, ahí obviamente no va a existir nada: ¡son
vacíos! En particular, no existe algo que no sea F . Por lo tanto, en todo dominio vacío,
es verdad que todo es F —para cualquier predicado F .
Segundo, en un dominio vacío, cualquier afirmación existencial es falsa. Para cualquier
predicado F , es falso decir cosas de la forma: «existe algo que es F »; pues no existe nada
en el dominio.

259
Por lo tanto, en dominios vacíos, para cualquier predicado F , es verdad decir que
todo es F , pero falso decir que existe al menos un F . Esto muestra que la relación de
subalternación no se da en esos dominios. Razonando de manera conversa, si la rela-
ción de subalternación es lógicamente necesaria, es porque no estamos considerando
dominios vacíos.3
Vamos a definir así a esta relación, junto con las reglas correspondientes:
Definición 90: Subalternancia
Que una proposición de la forma ∃𝛼(Φ[𝛼]) sea subalterna de otra, de la
forma ∀𝛼(Φ[𝛼]) , significa que la universal implica a la segunda, la exis-
tencial. Las reglas de la subalternancia son:

A∴I (Subalt)

E∴O (Subalt)

Subcontrariedad

La subcontrariedad se da entre las fórmulas de abajo del cuadrado de oposición: ∃ y


∃¬. Esta relación significa:
Definición 91: Subcontrariedad
Que dos proposiciones sean subcontrarias significa que no puede suceder
que ambas sean falsas, pero sí puede suceder que ambas sean verdade-
ras. Las reglas de la subcontrariedad son:

¬I ∴ O (Subcontr)

¬O ∴ I (Subcontr)

Como ejemplo, supongamos un modelo cuyo dominio son las personas en un salón
de clase de posgrado. Las proposiciones expresadas por «algunos estudiamos filosofía»
y «algunos no estudiamos filosofía», son subcontrarias. Ambas pueden ser verdaderas:
algunos sí y algunos no. Pero no pueden ser ambas falsas. Esto es fácil de demostrar,
basándonos en las equivalencias de los cuantificadores y en la relación de contrariedad
que vimos arriba.4
Entonces, si sabemos que una proposición con el cuantificador «∃» es falsa, sabemos
que su subcontraria debe ser verdadera. (Pero aunque sepamos que una es verdadera,
esto no nos permite inferir que la otra no lo es.)

260
Contradictoriedad

Ya arriba distinguimos contradictoriedad de contrariedad y subcontrariedad. Dijimos


(def. 89) que las proposiciones contrarias no pueden ser al mismo tiempo verdaderas,
pero sí al mismo tiempo falsas, y que (def. 91) las proposiciones contrarias no pueden
ser al mismo tiempo falsas, pero sí al mismo tiempo verdaderas. La contradictoriedad,
digamoslo así, «une» ambas propiedades.
Vamos a usar la convención 8, de manera que «A ⊨⊨ B» simplemente quiere decir que
A y B son lógicamente equivalentes.
Definición 92: Contradictoriedad
Dos proposiciones son contradictorias siempre y cuando: si una es verda-
dera, la otra debe ser falsa, y si una es falsa, la otra debe ser verdadera.
Las reglas de la contradictoriedad son:

A ⊨⊨ ¬O (Contradict)

E ⊨⊨ ¬I (Contradict)

En la lógica proposicional LC0 tenemos un caso claro de contradictoriedad: para toda


proposición p, su contradictoria es su negación lógica: ¬p. Por supuesto, la contradic-
toria de ¬p es su negación, ¬¬p, que es lógicamente equivalente a p misma. Y como es
fácil ver, p y su contradictoria ¬p cumplen con la definición 92: si p es verdadera, ¬p
debe ser falsa; si p es falsa, ¬p debe ser verdadera.

Equivalencias

En cada una de las cuatro esquinas del cuadrado de oposición nos encontraremos
con una regla de equivalencia (a las que llamaremos simplemente «Equiv», utilizando el
nombre de la esquina correspondiente).
Es fácil ver porqué: gracias a que la negación es exhaustiva y exclusiva—es decir: a
que tenemos dos valores de verdad, a que cada proposición tiene uno y sólo uno de
estos, y a que la negación toma uno de estos valores y resulta en el otro—, la negación de
la contradictoria de una proposición resulta en una proposición lógicamente equivalente.5
Entonces, como cada esquina es contradictoria con la otra, una esquina es equivalente
con la negación de la otra.
Te recomiendo que leas las dos fórmulas en cada equivalencia, para confirmar que
dicen lo mismo. (Es decir, que son verdaderas en exactamente las mismas circunstan-
cias: que una implica a la otra y viceversa.) Voy a poner el nombre de la equivalencia
en cada esquina.

261
Definición 93: Reglas de equivalencia del Cuadrado Clásico

∀𝛼(Φ[𝛼]) ⊨⊨ ¬∃𝛼¬(Φ[𝛼]) (EquivA)

∀𝛼¬(Φ[𝛼]) ⊨⊨ ¬∃𝛼(Φ[𝛼]) (EquivE)

∃𝛼(Φ[𝛼]) ⊨⊨ ¬∀𝛼¬(Φ[𝛼]) (EquivI)

∃𝛼¬(Φ[𝛼]) ⊨⊨ ¬∀𝛼(Φ[𝛼]) (EquivO)

Recuerda la mnemotecnia 1 y la mnemotecnia 2: cada cuantificador es equivalente


a la negación del otro negando, y la negación de un cuantificador es equivalente
a: la negación salta al cuantificador y lo cambia por el otro.

Resumen: las reglas del Cuadrado Clásico

Con el cuadrado de oposición clásico ya tenemos las primeras reglas propiamente de


LC1:
4 reglas de equivalencia Que son las cuatro equivalencias en cada esquina, las «Equiv»
de la definición 93.
6 reglas de inferencia Que son las reglas de subalternancia («Subalter» de la definición
90); las reglas de contrariedad («Contrar», definición 89); las reglas de subcontra-
riedad («Subcontra», definición 91) y las reglas de contradictoriedad, «Contra-
dict» (definición 92).

Supongamos que me encuentro con un argumento de la siguiente forma:


1. ∀x (T x)
2. ∃x (T x) ⊃ H a / ∴ H a
Es fácil demostrarlo con las reglas del cuadrado y las reglas proposicionales:
ejemplo 38

1. ∀x (T x)
2. ∃x (T x) ⊃ H a / ∴ Ha
3. ∃x (T x) Subalter(1)
4. H a E ⊃ (2, 3)
Veamos otro ejemplo. Supongamos que tengo un argumento de la siguiente forma:
1. ¬∃x [R (x,a)]
2. ∀x (F x) ∨ ∃x [R (x,a)] / ∴ ∃x (F x)
También puedo demostrarlo con las reglas proposicionales y del cuadrado:

262
1. ¬∃x [R (x,a)]
2. ∀x (F x) ∨ ∃x [R (x,a)] / ∴ ¬∃x¬(F x)
3. ∀x (F x) SD(1, 2)
4. ¬∃x¬(F x) EquivA(3)

Ahora vamos a hacer ejercicios como los del ejemplo anterior.

Ejercicio # 48
Utilizando las reglas proposicionales (sección 11.2) y las reglas y equivalencias del
cuadrado clásico de oposición de esta sección, demuestra la validez de los siguientes
argumentos.
I 1. ∀y (F y) / ∴ ∃y (F y) II 1. ∃x (H x) / ∴ ¬∀x¬(H x) ∨ G a

1. ¬∀x (S x) 1. ∀x¬[R (a,x)]


III IV
2. ∃x¬(S x) ⊃ M e / ∴ M e 2. T a ⊃ ∃x [R (a,x)] / ∴ ¬T a

1. ∀x (G x) ∨ ¬∀x (H x) 1. ¬∃z ¬[R (a, z )]


V VI
2. ∀x (H x) / ∴ ∃x (G x) 2. ∀z [R (a, z )] ≡ ∀z (M z ) / ∴ ∃z (M z )

11.3.2. Cuadrado moderno de oposición

Cuando están restringidos, los cuantificadores dicen «toda cosa del modelo que es de
tal forma, es de esta otra», «nada del modelo que es de tal forma, es de esta otra»,
«alguna cosa lo del modelo que es de tal forma, es de esta otra», y «alguna cosa del
modelo que es de tal forma, no es de esta otra».
Si tomamos en cuenta las restricciones de los cuantificadores, aparecen algunas rela-
ciones lógicas entre fórmulas con esa forma. Podemos resumir esas relaciones de manera
muy conveniente en otro cuadrado de oposición. A este le vamos a llamar «cuadrado
moderno», para diferenciarlo del clásico, en el que ignoramos la restricción de los cuan-
tificadores.
Como con el cuadrado clásico, vamos a usar algunas convenciones. Seguiremos usan-
do la convención 6, según la cual «𝛼» es una metavariable: representa cualquiera de las
variables del lenguaje lógico (x, y, z , . . . ). Y, extendiendo un poco la convención 9 usare-
mos «Φ[𝛼]» y «Ψ[𝛼]» para denotar a partes de fórmulas que tienen libre a esa variable.6
Por ejemplo, «∀x (F x ⊃ G x)» es un caso del esquema ∀𝛼 (Φ[𝛼] ⊃ Ψ[𝛼]), sustituyendo
la variable «x» por 𝛼. Otro caso de ese esquema es ∀z [(H x ∨ ¬T z ) ⊃ (F z & ¬G z ),
pues sustuimos «z » por 𝛼, «(H x ∨ ¬T z )» por Φ[𝛼], y «(F z & ¬G z )» por Ψ[𝛼].
Habiendo hecho estas convenciones para denotar esquemas, ahora definimos el cua-

263
drado moderno.
Definición 94: Cuadrado Moderno de Oposición

A E
∀𝛼(Φ[𝛼] ⊃ Ψ[𝛼]) ∀𝛼(Φ[𝛼] ⊃ ¬Ψ[𝛼])

Contradictorias

I O
∃𝛼(Φ[𝛼] & Ψ[𝛼]) ∃𝛼(Φ[𝛼] & ¬Ψ[𝛼])

En este caso, se pierden casi todas las relaciones lógicas: sólo se preservan las rela-
ciones de contradictoriedad:
• A y E ya no son contrarias: ambas pueden ser verdaderas, si no hay Φs en el
dominio (en ese caso, será verdad que todo Φ es Ψ, y también que todo Φ es
no-Ψ); y ambas pueden ser falsas, haya o no Φs en el dominio.
• I y O ya no son subcontrarias: ambas pueden ser falsas si no hay Ψs en el dominio,
o si no hay Φs (o si no hay ni Ψs ni Φs). Ambas pueden ser verdaderas también
(si hay algunos Φs que son Ψ’s y otros Φs que no son Ψs).
• Ya no hay subalternancia de I con A ni de O con E: de que A (o en su caso, E) sea
verdadera, no se sigue que I (o, en su caso, O) lo sea; esto falla cuando no hay
Φ’s en el dominio.
• A y O por un lado, y E y I por el otro, sí siguen siendo contradictorias: si una
es verdadera, la otra es falsa; si una es falsa, la otra es verdadera; una de las dos
tiene que ser verdadera.

Considera la proposición de que todos los círculos cuadrados son rojos. Usando un
modelo y una interpretación obvias, la formalizaríamos como: ∀x (C x ⊃ Rx) .
ejemplo 39

Ahora bien, es claro que no existen los círculos cuadrados (¡son auto-
contradictorios!). Eso implica que, si vamos revisando cada uno de los objetos del
dominio de nuestro modelo, nunca vamos a encontrar uno que sea círculo cuadrado:
nunca vamos a encontrar un objeto que cumpla con la propiedad de ser C .
Antes de seguir, recordemos la tabla de verdad del condicional material:

264
A ⊃ B
V V V
V F F
F V V
F V F
Como vemos en las últimas dos filas (que he remarcado con azul), cuando el ante-
cedente de un condicional material es falso, el condicional material es falso también.
¡No importa qué pase con el consecuente! Ya sea que el consecuente sea falso o
verdadero, el condicional material es verdadero cuando su antecedente es falso.
Pongamos todo junto. La fórmula «∀x (C x ⊃ Rx) » me dice que todos los círculos
cuadrados son rojos. Pero sé que nada es un círculo cuadrado: que nada es C .
Entonces, sé que si voy revisando cada cosa del dominio, va a ser verdad que: si
esa cosa es C entonces esa cosa es R . Esto es verdad por la tabla de verdad del
condicional: como nada es C , el antecedente siempre es falso. Pero como sucede
que, para cada cosa del dominio es verdad que: si esa cosa es C entonces esa cosa
es R , entonces, es verdad que ∀x (C x ⊃ Rx) . Esto se conoce como verdad por
vacuidad.
Pero resulta que también es verdadero decir que todo círculo cuadrado no es rojo.
Es decir, también es verdad que ∀x (C x ⊃ ¬Rx) . Y la razón de esto es muy parecida
a la anterior: como sé que nada es un círculo cuadrado (que nada es C ), entonces sé
que si voy revisando cada cosa del dominio, va a ser verdad que: si esa cosa es C
entonces esa cosa es ¬R . Esto es verdad por la tabla de verdad del condicional:
como nada es C , el antecedente siempre es falso, y por lo tanto, el condicional
siempre es verdadero. Como esto sucede para todo objeto del dominio, entonces,
es verdad que ∀x (C x ⊃ ¬Rx) . Otra verdad por vacuidad.

«Verdad por vacuidad», como vimos, significa que una oración es verdadera debido a
que no existen las cosas de las que habla. Como no hay círculos cuadrados, no hay cosas
que sean círculos cuadrados y no sean rojas. Por lo tanto, no va a haber contraejemplos
(casos contrarios) a la oración universal. Por la misma razón, no hay cosas que sean
círculos cuadrados y que sean rojas. Esto significa que nada va a hacer falso que todo
lo que sea círculo cuadrado no es rojo. Estos son los dos casos de verdad por vacuidad.
Pero la verdad por vacuidad se puede dar también en casos en los que tenemos
dominios restringidos. Veamos un ejemplo de esto.
ejemplo 40

Consideremos un modelo cuyo dominio es el conjunto que sólo contiene a los últimos
tres presidentes de México (hasta 2019). Es decir, el conjunto va a contener a AMLO,
a EPN, y a FCH, pero sólo a estos tres objetos. Podemos usar el siguiente diagrama:

265
AMLO EPN FCH

Ahora consideremos la oración «todo volcán está activo». Para formalizarla, vamos
a suponer que, en la interpretación de nuestro modelo, tenemos:
• V 𝛼 : 𝛼 es un volcán
• A𝛼 : 𝛼 está activo
Muy bien. Si ahora revisamos cada objeto en el dominio para ver si es un volcán de
manera que, si no lo es, ponemos un tache, «×», a su lado, y si lo es, ponemos una
palomita, « ✓ », a su lado, vamos a encontrar que:

× AMLO × EPN × FCH

¡Ninguna de las tres cosas en nuestro dominio es un volcán! Eso significa que la
oración «∀x (V x ⊃ Ax) », que bajo la interpretación en este modelo nos dice que
todos los volcanes son activos, va a ser verdadera por vacuidad: como nada en
nuestro dominio es un volcán, entonces, nada va a ser un volcán que no esté activo.
Un razonamiento parecido muestra que la oración «∀x (V x ⊃ ¬Ax) » también es
verdadera por vacuidad.
Por supuesto, ¡hay volcanes! Lo que sucede en este ejemplo es que estamos toman-
do un modeo cuyo dominio está muy restringido: se restringe a tres objetos, ninguno
de los cuales es un volcán. Este es un ejemplo de cómo la verdad por vacuidad tam-
bién puede suceder cuando hablamos cosas que sí existen, pero que no existen en
el dominio del modelo.

Aunque se pierden casi todas las relaciones lógicas —sólo se preserva la contradictoriedad—
en el cuadrado moderno también existen equivalencias de las fórmulas cuantificaciona-
les.

266
Definición 95: Equivalencias del cuadrado moderno de oposición

EquivA EquivE

∀𝛼 (Φ[𝛼] ⊃ Ψ[𝛼]) ∀𝛼 (Φ[𝛼] ⊃ ¬Ψ[𝛼])


¬∃𝛼 (Φ[𝛼] & ¬Ψ[𝛼]) ¬∃𝛼 (Φ[𝛼] & Ψ[𝛼])

EquivI EquivO

∃𝛼 (Φ[𝛼] & Ψ[𝛼]) ∃𝛼 (Φ[𝛼] & ¬Ψ[𝛼])


¬∀𝛼 (Φ[𝛼] ⊃ ¬Ψ[𝛼]) ¬∀𝛼 (Φ[𝛼] ⊃ Ψ[𝛼])

El cuadrado moderno de oposición nos muestra, entonces, las siguientes reglas váli-
das:
4 reglas de equivalencia Que son las que están en cada una de las cuatro esquinas en
la definición 95.
4 reglas de inferencia Que son las que dan las esquinas contradictorias:

A ∴ ¬O; O ∴ ¬A

y:
E ∴ ¬I; I ∴ ¬E

Ejercicio # 49
1. Asumiendo cualquier modelo que tenga como dominio al conjunto de las perso-
nas, da fórmulas de LC1 que correspondan a (es decir, que se interpreten como)
las afirmaciones que se te piden.
a) Supongamos que te digo que no todos somos marxistas. Da una afirmación
equivalente.
b) Si te digo que algunos no somos platónicos, una de las afirmaciones que se
sigue de esto es que . . .
c) Supongamos que te dijera: «No hay un solo ingeniero». Otra manera de decir
esto es que: todos . . .
d) Todos somos aristotélicos. Es decir . . .
2. Usando las reglas proposicionales y las de los cuadrados de oposición, demuestra
la validez de los siguientes argumentos.
a) 1) ∀x (F x) ⊃ ∃x (H xa)

267
2) ¬∃x¬(¬¬F x) / ∴ ∃x (H xa)
b) 1) ¬∃x (H x ∨ G x)
2) ¬∃x (M x) ⊃ ¬∀x¬(H x ∨ G x) / ∴ ¬∀x¬(M x)
c) 1) R (a,b) & H a
2) ∀x¬(F x) ≡ ¬H a / ∴ ∃x (F x)
d) 1) ∃x (F x) ∨ ∀x (G x)
2) ¬∃x¬(G x) ⊃ ¬¬∃x (F x) / ∴ ¬∀x¬(F x)

11.4. Reglas de eliminación e introducción

Los dos tipos de reglas para los cuantificadores que veremos ahora son las reglas de
introducción y las de eliminación. Vamos a recordar estos conceptos, que aprendimos
con LC0.
Regla de introducción de una conectiva Un esquema de argumento válido en el que
las premisas no necesariamente tienen a la conectiva como conectiva principal,
pero en la que la conclusión sí la tiene. (Como ejemplo, considera a la regla de
introducción de la disyunción: A ∴ A ∨ B.)
Regla de eliminación de una conectiva Un esquema de argumento válido en el que
al menos una de las premisas tiene a la conectiva como conectiva principal, pero
la conclusión ya no necesariamente la tiene. (Un ejemplo es la eliminación de la
conjunción: A & B ∴ A.)
Para enunciar las reglas, necesitaremos algunas convenciones:
Convención 10. Usaremos 𝛼, 𝛽 y 𝛾 como variables de variables o metavariables. (Es decir,
𝛼 puede ser x, y, z u otras; lo mismo para 𝛽 y 𝛾.)
Convención 11. Usaremos 𝜅 como una variable para constantes (de manera que puede
representar a a, b, c , d , etc.)
Convención 12. Usaremos Φ[𝛼] como una matriz en la que la única variable libre es 𝛼
(por ejemplo, si 𝛼 es «x», tendríamos como ejemplos a: F x, R (c ,b,x), R (c ,b, y); si 𝛼 es
«y», un ejemplo es: R (c ,b, y), otro ejemplo es: ∀x [G (x, y)]).
Convención 13. Usaremos Φ[𝜅] como una fórmula o matriz en la que aparece la constante
𝜅. (Si 𝜅 es «a», por ejemplo, un caso de Φ[𝜅] podría ser: H a∨G (b,c ), o también, G (x,a)).
Veamos ahora la primera regla.

268
Introducción del existencial: «I∃»

La primera regla es la eliminación del cuantificador existencial. Nos dice que lo siguiente
es una inferencia válida: si una afirmación es verdadera para una cosa particular, 𝜅, del
dominio, entonces es verdad para alguna cosa del dominio. Veamos un ejemplo.

Supongamos que tenemos como premisa que «F a ». Esta premisa es verdadera en


todo modelo cuyo dominio se vea así:

F
•a

Este diagrama representa al dominio como el círculo que contiene a lo demás; repre-
senta, también, que tenemos una interpretación bajo la cual el predicado «F » es la
elipse debajo de la letra «F », que hay al menos un objeto (el puntito) dentro de la in-
terpretación de «F », y que ese objeto se llama «a » (es decir, bajo esa interpretación,
ejemplo 41

«a » refiere a ese objeto).


Cuando tenemos situaciones como estas, es obvio que va a ser verdad que hay al
menos una cosa que es F . Es decir, va a ser verdad que:

∃x (F x)

Lo sabemos porque hay al menos un objeto que es F : a saber, a .


No hace falta que haya exactamente una cosa que es F . El existencial significa «al
menos una», por lo que, si hay más de una cosa que es F , la fórmula también va a
ser verdadera. Por ejemplo, si la situación se ve, más bien, así:

F • •
• •

. . . la fórmula también es verdadera.

Lo mismo vale para relaciones: en todo modelo, el que haya una cosa particular que
esté en una relación con otra(s) cosa(s), basta para que sea verdad que algo está en esa

269
relación con esas cosas.

Si sé que Ana es hermana de Beto, sé que alguien es hermana/o de Beto. Usando


una interpretación obvia en un dominio que incluye a Ana y a Beto, esto significa que
la fórmula:
H (a,b)
ejemplo 42

implica lógicamente a la fórmula:

∃xH (x,b)

Por la misma regla, si sé que Ana es hermana de Beto, sé que Ana es hermana de
alguien. Por lo tanto,
H (a,b)
también implica lógicamente a la fórmula:

∃xH (a,x)

Defino ahora la regla.


Definición 96: Introducción del cuantificador existencial

Φ[𝜅]
I∃
∃𝛼(Φ[𝛼])

Notemos que la introducción del existencial vale para cualquier tipo de constante que
tengamos: normal, y las que veremos abajo: «con gorrito» y «ficticia» o con asterisco.
En los ejemplos anteriores, nota algo importante: al introducir el existencial, siempre
lo introduzco ligando a la variable que introduzco para sustituir a la constante que estoy
generalizando. Voy a explicar esto ahora.

Sustitución uniforme

En I∃ y en todas las reglas, es importante tener en mente que debemos utilizar una
sustitución uniforme. Esto significa que (en el caso de I∃), debo siempre sustituir
todas las apariciones de la constante que estoy generalizando con la variable ligada con
el cuantificador; pero no se vale usar las demás constantes de la fórmula (si es que las
hay). Esto es más claro con los ejemplos que ahora explicaré.
A partir de la fórmula R (a,b), puedo utilizar I∃ para inferir:

270
∃x (R (x,b)) (SU1)

Pero no puedo—pues es lógicamente inválido—utilizar I∃ para inferir:

∃x (R (x,x)). (SU2)

Misma constante, misma variable; distinta constante, distinta variable. Si quie-


ro generalizar b en SU1, sí puedo aplicar una segunda vez I∃ a SU1, para inferir:

∃y∃x (R (x, y)). (SU3)

También podría haber empezado generalizando b:

∃x (R (a,x)) (SU4)

Y, como antes, podría dejarlo aquí o aplicar de nuevo I∃ para generalizar a. De nuevo:
lo que no se vale es generalizar dos constantes (¡o más!) al mismo tiempo.
A partir de una fórmula molecular como F a∨F b, puedo también aplicar I∃ y obtener:

∃x (F a ∨ F x) (SU5)

o también:

∃x (F x ∨ F b) (SU6)

Pero lo que no puedo hacer es este horror:

∃x (F x ∨ F x) (SU7)

pues empecé con dos constantes distintas. Claro, una vez teniendo SU5, puedo aplicar
I∃ de nuevo y terminar con:

∃y∃x (F y ∨ F x) (SU8)

Así como, teniendo SU6, puedo aplicar I∃ de nuevo y terminar con:

∃y∃x (F x ∨ F y) (SU9)

Entonces, hay que notar que el orden en que aplique la regla puede influir en si
termino con una fórmula como SU8 o como SU9, ¡que ciertamente son fórmulas muy
distintas!

271
Ejercicio # 50
1. Usando la regla I∃ y las reglas proposicionales, demuestra la validez de los si-
guientes argumentos.
a) 1) N a / ∴ ∃y (N y)
b) 1) P a ∨ Q d
2) ∃x (P x ∨ Q d ) ⊃ Q a / ∴ Q a
c) 1) ∃y (¬M y) ≡ S b
2) ¬M a / ∴ S b
d) 1) Q a / ∴ ∃x (Q x) & Q a
e) 1) T b ⊃ ¬[∃x (P x) & ∃y (P y)]
2) P a / ∴ ¬T b
2. Usando la regla I∃ además de las reglas proposicionales y de los cuadrados de
oposición clásico y moderno, demuestra la validez de los siguientes argumentos.
a) 1) Q a
2) U (d ,e ,a) ∨ ¬∃x (Q x) / ∴ U (d ,e ,a)
b) 1) ∃x [U (d ,x,a)] ⊃ ¬∀x (Q x)
2) U (d ,c ,a) / ∴ ∃x¬(Q x)
c) 1) ¬∀x¬[T (x,d ,x)] ≡ R (a,d )
2) T (g ,d , g ) / ∴ R (a,d )
d) 1) T (g ,d , g ) & R (a,b)
2) ∃y∃x [T (x, y,x)] ≡ ¬∃x¬(F x) / ∴ ∀x (F x)
e) 1) ¬(P a & Q a)
2) [¬∀x (P x & Q x)] ⊃ R (a,c ) / ∴ ∃x [R (a,x)]

Eliminación del universal: «E∀»

Esta regla nos dice que, de una afirmación universal, podemos inferir válidamente que
esa afirmación es verdadera para cualquier cosa particular. La idea es que si algo es
verdad de cada cosa en el dominio, va a ser verdad de una cosa particular del dominio.
Voy a poner la regla y después explicaré su significado formal.
Definición 97: Eliminación del Cuantificador Universal

∀𝛼(Φ[𝛼])
E∀
Φ[𝜅]

∀𝛼(Φ[𝛼])
E∀
Φ[ 𝜅]
ˆ

272
Como vimos en las convenciones antes de introducir las reglas, 𝜅 representa a cual-
quier constante. Por lo que la regla E∀ me dice que si Φ es verdad para cada cosa 𝛼 del
dominio, lo será también para una cosa particular 𝜅.
Pero en la definición también usé otro tipo de constante: «𝜅».
ˆ Llamaremos «constante
con gorrito» a este tipo de constantes que ahora estoy introduciendo al lenguaje.7 La
regla me dice que, de una afirmación universal, también puedo inferir que la afirmación
es verdad para una constante con gorrito.
Las constantes «normales» –las que hemos venido usando, del tipo de a, b, c , etcétera–
se refieren (suponiendo una interpretación) cada una a una cosa particular del dominio:
funcionan como nombres propios. Así, en un modelo, «a» puede referirse a Stan Lee;
sería el «nombre propio» de Stan Lee en ese modelo. En otro modelo (cambiando la
interpretación), «a» podría referirse al planeta Tierra. Pero siempre se refiere a alguna
cosa particular.
Pero las constantes con gorrito se refieren a una cosa particular y a todas las demás.
Entonces, podemos leer una constante con gorrito, â, así: «a y todas las demás cosas». Por
lo que leeríamos la fórmula «F â» como: «Efe de a y de todas las demás cosas».
Puede parecer un truco extraño—¡y lo es! Pero (1) no rompe ninguna regla y (2)
necesitamos hacer algo así para poder definir una regla razonable de introducción del
cuantificador universal (como veremos después de unos ejercicios). La idea es que voy a
eliminar un cuantificador universal con una constante con gorrito siempre que necesite
volver a un universal.
Vamos a hacer unos ejercicios y después veremos más sobre la importancia de este
nuevo tipo de constantes.
Ejercicio # 51
1. Usando la regla E∀ y las de la lógica proposicional, demuestra la validez de los
siguientes argumentos.
a) 1) ∀y (H y) / ∴ H b
b) 1) ∀x (H x)
2) T a ∨ ¬H b / ∴ T a
c) 1) G a ≡ R (a,c )
2) ∀x [R (a,x)] / ∴ G a
d) 1) Q d ⊃ (T d ∨ H d )
2) ∀x (Q x)
3) ¬H d / ∴ T d
e) 1) F a
2) (F a ∨ M a) ⊃ ∀x (G x) / ∴ G â
2. Usando las reglas E∀, I∃, y las de lógica proposicional, demuestra las siguientes
tres inferencias:

273
a) 1) ∀x¬(Q x)
2) ¬Q a ⊃ ∀x (Rax) / ∴ ¬¬∀x (Rax)
b) 1) F b & S a
2) ∃x (F x) ⊃ ∀x (Q x) / ∴ Q b
c) 1) ∃x (¬Q x & W x) ≡ ∀x (G x)
2) ¬Q a & W a / ∴ G a
3. Usando las reglas E∀, I∃, las de los cuadrados de oposición, y las de lógica pro-
posicional, demuestra las siguientes cinco inferencias:
a) 1) ¬∃x¬(Q x)
2) Q a ⊃ T a / ∴ T a
b) 1) ¬∃y (P y & H y)
2) ∀y (¬H y ∨ ¬P y) ≡ ∀x (Q x) / ∴ Q a
c) 1) ∃y (P y & ¬Q y)
2) T a ⊃ ∀y (P y ⊃ Q y) / ∴ ¬T a
d) 1) Q a
2) ∀x [R (x,b) ≡ Q x] / ∴ R (a,b)
e) 1) [∀x (Ax ⊃ ¬Bx)] ≡ [∀y (Q y)]
2) ¬∃y¬(Q y) / ∴ ¬∃x (Ax & Bx)

Introducción del universal: «I∀»

Evidentemente, inferir que todos son F a partir de que Juanito es F, es inválido: hay
muchos modelos en los que Juanito es F sin que todos lo sean. Entonces, sería desastroso
proponer algo así como regla I∀:

Φ(𝜅) ∴ ∀𝛼(Φ𝛼)

Y sería desastroso porque, como en el caso de Juanito, de que alguna cosa particular
tenga una cualidad, no se sigue que toda cosa del dominio también tenga esa cualidad.
Así que necesitamos una manera de «codificar» a todas las cosas del dominio en
una constante. Ese es precisamente el papel de las constantes con gorrito, que vienen a
salvarnos el día.
Como vimos arriba (sec. 11.4), una constante con gorrito es una constante como
las que hemos usado: a,b,c . . ., pero con su correspondiente gorrito: â, b̂, cˆ . . . Estas
significan, respectivamente: «a y todas las demás cosas del dominio», «b y todas las
demás cosas del dominio», «c y todas las demás cosas del dominio», y así sucesivamente.
Pero por esa misma razón—porque las constantes con gorrito «codifican» a todas las
cosas del dominio—las fórmulas que tienen constantes con gorrito sólo pueden infe-
rirse de fórmulas que tienen cuantificadores universales. No podemos introducir

274
constantes con gorrito de otra forma, más que sacándolas de cuantificadores universa-
les. Y como las constantes con gorrito vienen de cuantificadores universales, eso nos
permite trabajar con ellas y volver a introducir cuantificadores universales de manera
lógicamente válida.
Esta es la regla:
Definición 98: Introducción del Cuantificador Universal

Φ[ 𝜅]
ˆ
I∀
∀𝛼(Φ[𝛼])
donde 𝜅ˆ es una constante «con gorrito» que se obtiene de una previa
aplicación de la regla 97.

Nuestra regla es válida: es válido inferir que toda cosa del dominio es F , a partir de que
a y todas las demás cosas del dominio son F .
Ahora vamos a ver un par de ejemplos de cómo usar esta regla.

Si tengo como premisa que todos los seres humanos somos mortales, y que, ade-
más, todos los filósofos somos seres humanos, eso debería implicar que todos los
filósofos somos seres humanos. (Este es un caso de la figura BARBARA de la silo-
gística aristotélica.) Usando un modelo que dejaremos implícito, la formalización de
este argumento es:
1. ∀x (S x ⊃ M x)
ejemplo 43

2. ∀x (F x ⊃ S x) / ∴ ∀x (F x ⊃ M x)
Y podemos demostrar su validez usando la regla de silogismo hipotético de LC0 y
las reglas de eliminación e introducción del cuantificador universal:

1. ∀x (S x ⊃ M x)
2. ∀x (F x ⊃ S x) / ∴ ∀x (F x ⊃ M x)
3. (S â ⊃ M â) E∀(1)
4. (F â ⊃ S â) E∀(2)
5. (F â ⊃ M â) S.D.(3,4)
6. ∀x (F x ⊃ M x) I∀(5)

En el ejemplo anterior, fíjate qué importante es usar la misma constante con gorrito
para poder aplicar las reglas: si hubiera utilizado una constante distinta para eliminar
el universal en las líneas 3 y 4, no podría haber hecho el silogismo disyuntivo de la línea
5.
En otros casos, es importante utilizar distintas constantes con gorrito, para poder
introducir cuantificadores universales ligando distintas variables. Veamos un ejemplo

275
de esto.

Supongamos que me ofrecen el siguiente argumento:


1. Todos los que estamos en esta comuna somos hermanos.
2. Los hermanos comparten todo. / Por lo tanto, todos los que estamos en esta
comuna, compartimos todo.
Para confirmar su validez, defino un modelo:
Dominio = Irrestricto.
Interpretación E𝛼 : 𝛼 está en esta comuna. H (𝛼, 𝛽 ) : 𝛼 es hermano de 𝛽 .
C (𝛼, 𝛽 , 𝛾) : 𝛼 comparte 𝛽 con 𝛾 .
Dando por sentado este modelo, formalizo así al argumento:
1. ∀x∀y [(Ex & Ey) ⊃ H (x, y)]
2. ∀x∀y [H (x, y) ⊃ ∀z (C (x, z , y))] / ∴ ∀x∀y [(Ex & Ey) ⊃ ∀z (C (x, z , y))]
Este argumento parece más complejo que la mayoría de los que hemos visto hasta
ahora, debido a la presencia de varios cuantificadores. Pero, en realidad, es fácil de-
ejemplo 44

mostrarlo usando las reglas de introducción y eliminación del cuantificador universal,


así como las de las conectivas proposicionales:

1. ∀x∀y [(Ex & Ey) ⊃ H (x, y)]


2. ∀x∀y [H (x, y) ⊃ ∀z (C (x, z , y))] / ∴ ∀x∀y [(Ex & Ey) ⊃ ∀zC (xz y)]
3. ∀y [(E â & Ey) ⊃ H ( â, y)] E∀(1)
4. (E â & E b̂) ⊃ H ( â, b̂) E∀(3)
5. ∀y [H ( â, y) ⊃ ∀z (C ( â, z , y))] E∀(2)
6. H ( â, b̂) ⊃ ∀z [C ( â, z , b̂)] E∀(5)
7. (E â & E b̂) ⊃ ∀z [C ( â, z , b̂)] S.H.(4,6)
 
8. ∀y (E â & Ey) ⊃ ∀z [C ( â, z , y)] I∀(7)
 
9. ∀x∀y (Ex & Ey) ⊃ ∀z [C (x, z , y)] I∀(8)

En este ejemplo, nota que fue importante sustituir los cuantificadores universales
en 1 y 2 por distintas constantes con gorrito, porque así pude volver a introducir
cuantificadores ligando a distintas variables en los pasos 8 y 9. Sin ello, no podría
haber llegado a la conclcusión.

En resumen:
Si quiero introducir el cuantificador universal para la misma variable, debo usar la misma
constante con gorrito.
En cambio,
Si quiero introducir el cuantificador universal con distintas variables, debo usar distintas
constantes con gorrito.
Ahora vamos a ejercitar el uso de esta regla.

276
Ejercicio # 52
1. Usando las reglas I∀, E∀ y las de la lógica proposicional, demuestra la validez de
los siguientes argumentos.
a) 1) ∀x (Q x & P x) / ∴ ∀x (P x)
b) 1) ∀z (Q z ∨ P z )
2) ∀x (¬Q x) / ∴ ∀x (P x)
c) 1) ∀x∀z [R (x, z ) & T (z ,x)]
2) ∀x∀z [R (x, z )] ⊃ ∀y (Q y) / ∴ Q b

Eliminación del existencial: «E∃»

Ya vimos reglas para eliminar e introducir el cuantificador universal y para introducir el


existencial. Nos falta la regla para eliminar el existencial, que es un poco más elaborada
que las anteriores, pero una vez que entendemos la razón de las complicaciones, es fácil
ver su validez.
Empecemos. La regla que más inmediatamente se nos podría ocurrir para eliminar
el existencial es un desastre:
∃𝛼Φ(𝛼) ∴ (Φ𝜅)
Esta es una mala «regla» porque es inválida: es decir, porque hay modelos en los que
la premisa es verdad, pero la conclusión es falsa. Por ejemplo, si tenemos un modelo
cuyo dominio es el conjunto de todos los seres humanos, y que interpreta a «Φ» como
el predicado «es el más grande ajedrecista vivo» y «𝜅» como Cuahutémoc Blanco, la
premisa es verdadera—alguien es el más grande ajedrecista vivo—pero la conclusión
es falsa—es falso que Cuahutémoc Blanco sea el más grande ajedrecista vivo.
Esto pasa comúnmente: podemos saber que alguien se robó mi billetera y tiró mi cre-
dencial, sin saber quién específicamente lo hizo. Sin embargo, de nuestro conocimiento
meramente sobre «alguien», usualmente podemos inferir algunas cosas: por ejemplo,
de que que alguien se robó mi billetera y tiró mi credencial seguramente es lógicamente
válido inferir que alguien se robó mi billetera: ¡Esta parece una clara eliminación de la
conjunción!
Pero nuestro sistema de reglas no nos permite eliminar la conjunción «dentro» (en el
alcance de) un cuantificador. Necesitamos primero eliminar el cuantificador y entonces
eliminar la conjunción. Ya sabemos cómo hacerlo con el universal, ahora falta saber
cómo hacerlo con el existencial.
Necesitamos una regla que nos permita trabajar con las conectivas dentro de un
existencial, pero que no caiga en la falacia que vimos arriba: que no nos permita inferir
que alguien particular hizo algo, a partir de la información de que alguien (no específico)
lo hizo.

277
La idea básica es expandir el lenguaje para introducir un tercer y último tipo de
constantes: las «constantes ficticias» o «constantes con asterisco». Una constante con
asterisco, como a ∗ ,b ∗ ,c ∗ , . . . y que representaremos con la metavariable para constantes
𝜅 ∗ , significa algo como «quien sea que haga verdad la fórmula existencial», o, digamos,
«quien lo haya hecho». Entonces, una fórmula como «F c ∗ » significa: «quien lo haya
hecho, es F ».
Por supuesto, cuando hablamos de «la fórmula existencial» o cuando decimos «lo
haya hecho», nos referimos a una fórmula específica en cada demostración. Es por eso
que la E∃ requiere de una demostración bajo un supuesto: comenzamos con una
fórmula existencial, como ∃x (G x), y suponemos que alguien, a quien no conocemos pero
que es uno de los que hace verdad a la fórmula existencial, es G . A ese alguien es a
quien llamamos «a ∗ ».
(Para repetir: «a ∗ » no es el mismo nombre que «a». La primera es sólo una manera
de decir «alguien que haga lo que dice la fórmula existencial». La segunda es el nombre
de algún objeto específico del dominio.)
Entonces, al abrir la demostración bajo un supuesto, estamos diciendo: «Supongamos
que llamamos ‘a ∗ ’ a quien haga verdad el existencial. Entonces. . . » y los tres puntitos
representan pasos en una demostración que hacemos usando las reglas que ya tenemos.
Si usando las reglas podemos demostrar una fórmula específica, eso significa que esa
fórmula se sigue de que alguien hace verdad el existencial, sin necesidad de saber quién
es específicamente. (Por ello, a ese alguien lo hemos llamado «a ∗ », pero en realidad sólo
sabemos que es quien hace verdad al existencial.)
Pero hay que recordar que la fórmula a la que lleguemos no puede contener a
la constante ficticia que introducimos en la sub-prueba de E∃. Queremos demostrar
que esa fórmula se sigue sólo de la suposición de que alguien hace verdad la fórmula
existencial, por lo que la demostración no puede requerir usar un nombre ficticio
particular. De ahí la restricción.
En resumidas cuentas, definamos la regla.
Definición 99: Eliminación del Cuantificador Existencial

∃𝛼(Φ[𝛼])
Φ[𝜅 ∗ ]
..
.
E∃ donde A no contiene a 𝜅 ∗
A

Los tres puntos verticales representan el uso de las reglas válidas (tanto las que ya
hemos visto como las que veremos después). Es decir: empezamos con una fórmula

278
existencial, y para eliminar el existencial, introducimos un supuesto (representado por
la línea vertical). Bajo este supuesto, quitamos el existencial y sustituimos la variable
(¡en todas sus apariciones!) por una constante ficticia. Después, utilizamos las reglas
válidas para llegar a la fórmula que nos interese en esa demostración. Esa fórmula no
puede contener a la constante ficticia, porque la vamos a sacar del supuesto, y será la
conclusión de la eliminación del existencial.
La constante ficticia es, por así decir, un mero instrumento para poder quitar el
existencial. Es por eso que no debe referir a nadie específico: como no sabemos quién
hace verdad al existencial, mi inferencia sólo puede depender de que yo sepa que alguien
lo hace verdad. Es por eso que la constante ficticia sólo sirve para nombrar a una de
las cosas, la que sea, que haga verdad al existencial.

Supongamos que me encuentro con el siguiente argumento:


1. Alguien se robó mi billetera y tiró mi credencial. / Por lo tanto, alguien tiró mi
credencial.
Usando un modelo que dejaré implícito, lo formalizo así:
1. ∃x (Rx & T x) / ∴ ∃x (T x)
Ya puedo demostrar la validez de este argumento, usando la regla de eliminación
del existencial.
ejemplo 45

1. ∃x (Rx & T x) / ∴ ∃x (T x)
a. Ra ∗ & T a∗ Sup.
2. b. T a ∗ E&(2a)
c. ∃x (T x) I∃(2b)
3. ∃x (T x) E∃(1,2)

Y la notación «E∃(1,2)» significa: «por una eliminación del cuantificador existencial


que está en la línea 1, en la sub-demostración de la línea 2». Como siempre que
usamos supuestos, recuerda: excepto por la última línea de la sub-demostración,
nada de lo que está en la caja puede salir de la caja.

Vamos a ejercitar el uso de esta regla.


Ejercicio # 53
1. Utiliza la regla de eliminación del existencial (y las demás) para demostrar la vali-
dez de los siguientes argumentos.
a) 1) ∃x (P x & Q x) / ∴ ∃x (Q x)
b) 1) ∃x (P x & Q x)
2) ∀x (Q x ⊃ Ax) / ∴ ∃x (Ax)
c) 1) P b & S a

279
2) ∃x (S x) ⊃ ∀y∃z [R (y, z ) & Q z ] / ∴ ∃x (Q x)
2. .

Recapitulando: las cuatro reglas

Vamos a cerrar esta sección listando las cuatro reglas que hemos visto hasta ahora.
Definición: Reglas de los cuantificadores

I∃ I∀

Φ[𝜅] o bien, ˆ o bien, Φ[𝜅 ∗ ]


Φ[ 𝜅] Φ[ 𝜅]
ˆ
∃𝛼(Φ[𝛼]) ∀𝛼(Φ[𝛼])

E∃

∃𝛼(Φ[𝛼])
E∀
Φ[𝜅 ∗ ]
..
. ∀𝛼(Φ[𝛼])
A
ˆ o bien, Φ[𝜅 ∗ ]
Φ[𝜅] o bien, Φ[ 𝜅]

A
donde A no contiene a 𝜅 ∗

Ejercicio # 54
1. Formaliza y demuestra los siguientes argumentos, usando las reglas de introduc-
ción y eliminación de los cuantificadores, además de las proposicionales. Puedes
usar el mismo modelo, o distintos.
a) Todo el que haya hecho trampa, será castigado. Si alguien copió en el
examen, entonces, alguien hizo trampa. Pepe copió en el examen. Por lo
tanto, alguien será castigado.
b) Nadie es perfecto. Si todos son imperfectos (no-perfectos), entonces algu-
nos son imperfectos y humanos. Por lo tanto, algunos son humanos.
c) Algunos humanos no serán castigados. Todo el que no sea castigado, es
puro. Por lo tanto, algunos humanos son puros.

280
d)
e)
f)
g)
h)
i)
j)
2. Demuestra los siguientes argumentos, usando las reglas de los cuadrados de
oposición, las de introducción y eliminación de los cuantificadores, y las proposi-
cionales.
a) 1) ∀x (P x ⊃ Q x)
2) P a / ∴ Qa

b) 1) ∃x (P x & Q x)
2) ∀x (Q x ≡ S x) / ∴ ∃x (P x & S x)

c) 1) ¬∃x (¬M x & ¬S x)


2) ¬M b / ∴ Sb

d) 1) T a
2) [¬∀y¬(T y)] ⊃ ∀y¬(T y & ¬M y) / ∴ Ma

e) 1) ¬∃x (P x & Q x)
2) ¬∃x¬(H x) ≡ ∀x (P x ⊃ ¬Q x) / ∴ Ha

f) 1) (¬F a & ¬P a) ⊃ ¬Q a
2) S a & Q a
3) ¬∃x (¬F x & ¬F x) / ∴ Pa

g) 1) ∀x (Q x ∨ S x) ⊃ ∀z [P z ≡ R (a, z )]
2) ∀x (S x) / ∴ ¬∃z ¬(P z ≡ R (a, z ))

h) 1) ∃x (F x & G x)
2) ¬∀x (H x & I x) ⊃ ¬∃x (F x)
3) ¬∀x¬(H x) ≡ ∀x (M x & J x) / ∴ ∀x ( J x)

i) 1) ∀x (P x) ⊃ ∃x ( J x & H x)
2) ¬[∀x (M x) & ¬∃x (Q x & I x)]
3) ¬∀x¬(H x) ⊃ ∀x (M x & S x) / ∴ ∀x (P x) ⊃ ¬∀x¬(I x)

281
j) 1) ¬[∀x (M x & T x) & ¬∃x¬(Q x ⊃ I x)]
2) ∀x (Q x & M x)
3) [¬∃x¬(T x)] ∨ [¬∃x (Q x)] / ∴ ∃x¬(I x)

11.5. Demostraciones con generalidad múltiple

11.6. Reglas derivadas de interacción *

Además de las reglas de eliminación e introducción para los cuantificadores, así como
de equivalencia entre ellos, y de las reglas para la identidad que revisaremos en el
siguiente capítulo (12), nos falta revisar cómo es que los cuantificadores «interactúan»
con las conectivas proposicionales. Claro está que ya las reglas de equivalencia del
cuadrado de proposición moderno (11.3.2) nos dicen cómo es que los cuantificadores
restringidos por «su conectiva natural» («⊃» para «∀» y « & » para «∃») equivalen entre
sí y cómo estas equivalencias se comportan con estas conectivas; pero falta revisar cómo
se comportan los cuantificadores—es decir, qué inferencias son válidas—cuando tenemos
conectivas, sin enfocarnos en las equivalencias con otros cuantificadores.
Resulta que podemos demostrar a partir de las reglas que ya tenemos—o, de manera
alternativa, de las características de los modelos—que otras inferencias son válidas.
Estas reglas derivadas de interacción son de las que hablaremos ahora.
Dado que son derivadas —es decir, que su validez se sigue de las reglas básicas—,
estas reglas no son estrictamente necesarias. Pero tenerlas en el repertorio de reglas
tiene una ventaja: hace a las demostraciones más cortas. En general, siempre nos en-
frentaremos con un dilema:
Entre más reglas tengamos, más hay que memorizar. Pero entre menos reglas tengamos, las
demostraciones pueden ser más largas y complicadas.
Así que tú puedes elegir si memorizar o no las siguientes reglas. Sólo considera que
podrían ser útiles después.
Como siempre, que una regla sea válida significa aquí que, para cada sustitución uni-
forme de los esquemas de premisa y conclusión, en todo modelo en el que la premisa sea
verdadera, también lo será la conclusión. Si la regla es, además, de equivalencia—si
nos dice que dos tipos de fórmulas son lógicamente equivalentes—entonces toda susti-
tución uniforme de los esquemas de premisa y conclusión son verdaderos en exactamente
los mismos modelos.
Usando esta definición semántica, podemos demostrar las siguientes reglas. Estas
también, como hemos dicho, son demostrables a partir de las reglas de introducción y

282
eliminación de los cuantificadores, así como las reglas de los cuadrados de oposición.
Para demostrarlas, lo único que tenemos que hacer es tomar a sus premisas como pre-
misas de un argumento, y la conclusión como la conclusión de un argumento; usando
las reglas que hemos visto, podríamos inferir la conclusión a partir de las premisas.
(Por supuesto, dado que son reglas, ellas no nos hablan de fórmulas particulares —
como «F a» o «H (b,c ) ⊃ ¬F d »— sino de esquemas —tipos, formas— de fórmulas. Para
hacer la demostración de la que estoy hablando, tendremos que suponer que las reglas
que hemos visto —como E∀— valen no sólo con las fórmulas, sino con los esquemas
mismos: es decir (usando el ejemplo de E∀), que si tenemos un esquema ∀𝛼(Φ[𝛼]), de
ahí podemos inferir un esquema Φ[𝜅]. Esto requiere suponer que la lógica de la «meta-
lógica» es la misma; que es lo que haremos para hacer las demostraciones pertinentes.)
Empecemos.

11.6.1. Cambios de variable

El primer par de reglas significa que la variable que usemos en una fórmula cuantifi-
cada no es importante: sólo se requiere que esté ligada adecuadamente. Por eso es que
una fórmula con una variable particular implica a la misma fórmula cuando le susti-
tuimos esa variable por cualquier otra, siempre que esa variable no esté ya siendo
ligada por otro cuantificador dentro de la misma fórmula.
Definición 100: Cambios de variable

∀𝛼(Φ[𝛼])
CambioVar∀
∀𝛽 (Φ[𝛽 ])

∃𝛼(Φ[𝛼])
CambioVar∃
∃𝛽 (Φ[𝛽 ])
En ambos casos, la variable por la que cambio la original no puede estar
ya ligada por otro cuantificador dentro de la misma fórmula.

Entonces, estas reglas reflejan lo que habíamos dicho en la sección sobre modelos
(9.5): es irrelevante qué variable usemos para expresar una afirmación universal o exis-
tencial. Mientras no haya confusión acerca de qué variable está siendo ligada por cuál
cuantificador, ni acerca de cuál es el orden (secc. 10.2), nada nos obliga a usar «x» en
lugar de «z », por ejemplo.

283
11.6.2. Distribuciones y contracciones

Las siguientes reglas son importantes, pues nos reflejan el comportamiento de los cuan-
tificadores en distintos de dominio.
Vamos a llamarle «reglas de distribución» a las reglas que nos aseguran la validez de
una inferencia en la que se empieza con un cuantificador en cuyo alcance está una conec-
tiva proposicional, y se concluye una fórmula cuya conectiva principal es esa conectiva,
donde cada lado de la conectiva tiene el cuantificador. Es decir: en estas inferencias, el
cuantificador se «distribuye» entre las diferentes partes de la conectiva. Por ejemplo:
Distribución ∃/&
∃𝛼(Φ[𝛼] & Ψ[𝛼])
∃𝛼(Φ[𝛼]) & ∃𝛼(Ψ[𝛼])
Indicamos que la regla es de equivalencia usando las dos rayas, «//», e indicamos que
es de inferencia si sólo usamos una: «/».
Por otro lado, y de manera «inversa» o «dual», le llamaremos «reglas de contracción»
a las reglas en las que empezamos con una conectiva proposicional que tiene un cuanti-
ficador (ya ambos universales, ya ambos existenciales) en cada lado, y concluimos con
una fórmula que tiene un solo cuantificador que tiene en su alcance a esta conectiva.
En estas inferencias, los cuantificadores se «contraen» en uno solo. Por ejemplo:
Contracción ∀/∨
∀𝛼(Φ[𝛼]) ∨ ∀𝛼(Ψ[𝛼])
∀𝛼(Φ[𝛼] ∨ Ψ[𝛼])
Muy bien. Vamos a empezar con la conjunción.
Definición 101: Distribución en &

∀𝛼(Φ[𝛼] & Ψ[𝛼])


Dist∀//&
∀𝛼(Φ[𝛼]) & ∀𝛼(Ψ[𝛼])
∃𝛼(Φ[𝛼] & Ψ[𝛼])
Dist∃/&
∃𝛼(Φ[𝛼]) & ∃𝛼(Ψ[𝛼])

Es muy útil ver por qué son válidas estas inferencias, y por qué la primera es de
equivalencia, pero no la segunda.
Considera Dist∀//&. La fórmula de arriba dice que todo lo del dominio es: tanto Φ
como Ψ. La de abajo dice que, por un lado, todo es Ψ, y por el otro, todo es Ψ. Es
decir: la de arriba le atribuye a cada objeto del dominio la propiedad compuesta ser-Φ-
y-Ψ. La de abajo dice que suceden dos hechos: que todo es Ψ y que todo es Ψ. ¿Cómo

284
demostramos esta equivalencia?
Una manera es demostrando una fórmula a partir de la otra, usando las reglas que
ya tenemos. Otra es mediante un método semántico: demostrar que todo modelo en el
que la primera es verdadera, la segunda también, y viceversa.
Empecemos con el método semántico. La primera fórmula dice que cada objeto del
dominio es Φ-y-Ψ. ¿Cómo modelamos eso?
Bueno, consideremos el dominio de cualquier modelo. Para que sea verdad que todo
en el dominio es Φ-y-Ψ, el dominio del modelo se tiene que ver así:

Dominio
Φ Ψ

Figura 11.1: Un dominio en el que todas las cosas son tanto Φ como Ψ.

Ahora bien, la segunda fórmula dice que suceden dos hechos: que todo es Ψ y que
todo es Ψ. ¿Qué tiene que pasar para que sea verdad que suceden ambos hechos?
Por principio de cuentas, esto es una conjunción, así que sólo es verdadera si ambos
conyuntos lo son. Vamos por partes. Para que sea verdad el primer conyunto —que
todo es Φ—, el dominio del modelo se tiene que ver así:

Dominio Φ

Es decir, el Dominio es un conjunto de cosas que son, todas, Φ.


Por otro lado, para que sea verdad el segundo conyunto —que todo es Ψ—, el dominio
del modelo se tiene que ver así:

Dominio Ψ

Es decir, el Dominio es un conjunto de cosas que son, todas, Ψ.


Ahora bien, ¿cómo se tiene que ver el dominio para que ambos hechos sean verdad?

285
Pues así:

Dominio ΦΨ

En este caso, todas las cosas del Dominio son Φ y también son Ψ. Pero entonces,
el dominio va a ser un conjunto de cosas, todas las cuales son tanto Φ como Ψ. Esto
significa que hemos demostrado que: en todo modelo en el que sea verdad que todo es
Φ y que todo es Ψ, será verdad que todo es Φ-y-Ψ.
Esto da una de las implicaciones lógicas de la regla Dist∀//&. Falta la otra: que en
todo modelo en el que sea verdad que todo es Φ-y-Ψ, será verdad que todo es Φ y
también que todo es Ψ.
Demostrar esto segundo es fácil. Si todo es Φ-y-Ψ, el dominio se verá como el dia-
grama 11.1. Pero entonces, eso significa que el toda cosa en el dominio es Φ, y que
toda cosa en el dominio es Ψ. Esto demuestra la implicación de arriba hacia abajo en
Dist∀//&.
También podríamos haber usado las reglas que ya tenemos y mostrar ambas impli-
caciones. Podemos usar ese método para las siguientes reglas.
Las siguientes son las reglas de distribución y contracción con la disyunción.
Definición 102: Distribución y contracción en ∨

∀𝛼(Φ[𝛼]) ∨ ∀𝛼(Ψ[𝛼])
Contr∀/∨
∀𝛼(Φ[𝛼] ∨ Ψ[𝛼])
∃𝛼(Φ[𝛼] ∨ Ψ[𝛼])
Distr∃//∨
∃𝛼(Φ[𝛼]) ∨ ∃𝛼(Ψ[𝛼])

Las siguientes son reglas para la interacción entre los cuantificadores y el condicional
material.
Definición 103: Distribución y contracción en ⊃

∀𝛼(Φ[𝛼] ⊃ Ψ[𝛼])
Distr∀/ ⊃
∀𝛼(Φ[𝛼]) ⊃ ∀𝛼(Ψ[𝛼])

286
∃𝛼(Φ[𝛼]) ⊃ ∃𝛼(Ψ[𝛼])
Contr∃/ ⊃
∃𝛼(Φ[𝛼] ⊃ Ψ[𝛼])
∃𝛼(Φ[𝛼] ⊃ Ψ[𝛼])
Distr∃// ⊃
∀𝛼(Φ[𝛼]) ⊃ ∃𝛼(Ψ[𝛼])

Nota. Hay una «regla», que podría parecerse a la última, pero que, de hecho, es invá-
lida:

∃𝛼(Φ[𝛼] ⊃ Ψ[𝛼])
∃𝛼(Φ[𝛼]) ⊃ ∃𝛼(Ψ[𝛼])
Finalmente,
Definición 104: Distribución en ≡

∀𝛼(Φ[𝛼] ≡ Ψ[𝛼])
Distr∀/≡
∀𝛼(Φ[𝛼]) ≡ ∀𝛼(Ψ[𝛼])

11.6.3. Distribuciones y contracciones, condicionadas

Donde la variable 𝛼 ligada por el cuantificador no está libre en A, valen las siguientes
reglas:
Definición 105: Distribuciones condicionadas de cuantificadores

A & ∀𝛼(Φ[𝛼])
DistrCond∀//&
∀𝛼( A & Φ[𝛼])
A & ∃𝛼(Φ[𝛼])
DistrCond∃//&
∃𝛼( A & Φ[𝛼])
DistrCond∀//∨
DistrCond∃//∨
DistrCond∀// ⊃
DistrCond∀, ∃// ⊃
DistrCond∃,∀// ⊃

287
11.6.4. Permutaciones

Definición 106: Permutación de, y entre, cuantificadores

∀𝛼∀𝛽 (Φ[𝛼, 𝛽 ])
Perm∀//∀
∀𝛽∀𝛼(Φ[𝛼, 𝛽 ])
∃𝛼∃𝛽 (Φ[𝛼, 𝛽 ])
Perm∃//∃
∃𝛽 ∃𝛼(Φ[𝛼, 𝛽 ])
∃𝛼∀𝛽 (Φ[𝛼, 𝛽 ])
Perm∃∀/∀∃
∀𝛽 ∃𝛼(Φ[𝛼, 𝛽 ])

Es fácil ver por qué la conversa de la última regla, que llamaríamos «Permutación∀∃/∃∀»
no es una regla válida, si recuerdas la sección sobre la importancia del orden (10.2).
Ejercicio # 55
1. Usando las reglas que ya vimos, demuestra que estas también son válidas (Tip:
recuerda la regla de introducción del condicional: si, suponiendo A y usando las
reglas (proposicionales y cuantificacionales), llego a B , se sigue que A ⊃ B ):
a) 1. ∀x (P x)
∴ ∃x (P x)
b) 1. ∃x (P x ⊃ Q x)
∴ ∀x (P x) ⊃ ∃x (Q x)
c) 1. ∀x (P x ↔ Q x)
∴ ∀x (P x) ↔ ∀x (Q x)
2. Recuerda que esto: «A ⊨⊨ B » significa que A y B son lógicamente equivalen-
tes: una se puede demostrar a partir de la otra, y viceversa. (Es un bicondicional
lógicamente necesario). Cuando esto pasa, tenemos una regla de equivalencia.
Para demostrarla, sólo demuestra un lado a partir del otro (usando las reglas), y
viceversa.
a) 1. ∃x∃y [P (x, y)] ⊨⊨ ∃y∃x [P (x, y)]
b) 1. ∃x∀y [P (x, y)]
∴ ∀y∃x [P (x, y)]
c) Da una explicación informal de por qué (2b) sólo es de inferencia, y no de
equivalencia.
Como ejercicio opcional, demuestra que la inferencia de la página 287 de hecho es
inválida. Para ello, construye un contramodelo: un modelo en el que un caso —es decir,
una sustición de 𝛼 por una variable, y de Φ y Ψ por matrices que contienen a la variable

288
que sustuiste por 𝛼 — de la premisa sea verdadera, pero la conclusión sea falsa. (Nota
que la premisa tienen a «∃» como conectiva principal, pero la conclusión tiene a « ⊃ ».)

Resumen del capítulo


289
Proyecto del capítulo:
Antecedentes d [Este proyecto podría ser sobre lenguajes formales en general.
Podría ser diseñar un lenguaje formal. O también podría ser sobre reglas de trans-
formación en general: reglas para pasar de una cadena de símbolos a otra. O dise-
ñar un lenguaje formal arbitrario, diseñar reglas de transformación, y demostrar
unos teoremas en ese lenguaje.
Un segundo proyecto podría ser revisar un probador de teoremas y aprender
a usarlo.
Un tercer proyecto podría ser una exposición oral y/o audiovisual sobre cual-
quiera de estos temas. Podría usar Prezi.
Un cuarto proyecto podría ser relacionar los cuadrados de oposición con la
historia: Revisar a Aristóteles. Exponer sobre esto o diseñar un mapa mental.
Un quinto proyecto sería diseñar un diagrama de flujo para usar algunas reglas
seleccionadas y exponer el diagrama en clase.]
Problema d [Aquí describiré este proyecto.]

Notas

1. Esto es fácil de demostrar con la semántica de nuestra lógica, aunque requiere conceptos más avanzados
que no veremos hasta el capítulo 15.

2. Pero hay que notar que la lógica LC1 y la silogística aristotélicas son sistemas distintos: Refs.

3. Existen sistemas lógicos no-clásicos para tratar con dominios vacíos.

4. Pues, si «algunos estudiamos filosofía» es falsa, esto implica que es verdad su contradictoria: «no existe
alguno que estudió filosofía», que es equivalente a: «todos no estudiamos filosofía». Y, si «algunos no
estudiamos filosofía» también es falsa, esto implica que es verdad su contradictoria: «no existe alguno que
no estudió filosofía», que es equivalente a: «todos estudiamos filosofía». Pero entonces tendríamos que es
verdad tanto que «todos no estudiamos filosofía» como que «todos estudiamos filosofía», lo cual no puede
ser, pues estas son contrarias.

5. En LC0, esto justifica la regla de doble negación: p ⊨⊨ ¬¬p.

6. Al introducir el lenguaje en la definición 82, a estas les hemos llamado matrices.

7. Les llamaremos así porque el nombre del caracter «ˆ» es «hat».

290
capítulo

12

La identidad

Contenidos del capítulo

La constante de identidad 293


Las reglas de la identidad 296
«Hay a lo más n» y «Hay al menos n» * 302
Cuantificadores exactos y descripciones definidas * 306
Resumen del capítulo 312

Objetivos de aprendizaje
1.
2.

291
n este capítulo vamos a extender la lógica clásica de primer orden, LC1, a la lógica
E clásica de primer orden con identidad, LC1=. Recordemos que LC1 tiene un lenguaje,
una semántica formal (teoría de modelos) y un aparato deductivo (deducción natural).
Extender LC1 a LC1= significa extender cada uno de los tres aspectos mencionados.
La razón para ello es que existen ciertos enunciados que no son formalizables en LC1
de manera completamente perspicua. Por ejemplo, el enunciado:
Sólo Andrés Manuel López Obrador es el presidente de México en 2019,
no se puede formalizar de manera perspicua en LC1. Podemos, por ejemplo, escribir
(dando un modelo por sentado):
P (a,m),
donde «P » sea el predicado de dos lugares «_ es el presidente de _ en 2019», y donde,
obviamente, «a» y «m» denotan, respectivamente, a AMLO y a México. Pero en este
modelo, la fórmula significa que «AMLO es presidente de México en 2019», pero no
recuperamos el «sólo», que nos dice que únicamente AMLO es el presidente.
Podríamos intentar utilizar los cuantificadores, pero esto no sería adecuado. Si usa-
mos el existencial, esto no recupera el sentido original:

∃x [P (x,m)]

Esta fórmula nos dice que al menos una cosa del dominio del modelo es presidente de
México en 2019. Ni siquiera si ponemos una conjunción:

P (a,m) & ∃x [P (x,m)],

pues esta nos dice que AMLO es presidente y que al menos una cosa lo es. Usar el
universal sería desastroso:
∀x [P (x,m)],
pues nos diría que todos en el modelo son presidentes (de México en 2019). Y no hay otra
manera —no, al menos, una obvia— de formalizar en LC1 que nos permita recuperar
el significado original.
Esto no sería tan importante de no ser porque parece que la validez de algunos
argumentos depende de que formalicemos bien la proposición expresada por «Sólo
AMLO es el presidente de México en 2019». Por ejemplo, el siguiente argumento parece
válido:
1. Sólo AMLO es el presidente de México en 2019.
2. Sólo quien sea presidente de México en 2019, es comandante en jefe.
∴ AMLO es comandante en jefe.

292
Como veremos en este capítulo, introducir la constante lógica de identidad nos permi-
te confirmar la apariencia de que este argumento es válido, pues las reglas de deducción
natural para la identidad nos permiten demostrar su validez.

12.1. La constante de identidad

En esta sección vamos a ampliar el lenguaje de LC1 al lenguaje de LC1=, introducien-


do una nueva constante lógica. También veremos cómo utilizar esta constante para
formalizar oraciones del lenguaje natural.

12.1.1. Conectivas definibles y primitivas

La lógica clásica de primer orden con identidad (LC1=) incluye tres tipos de constantes
lógicas:
• Las conectivas proposicionales, una monádica y cuatro diádicas: ¬, ∨, &, ⊃, ≡.
• Los cuantificadores universal y existencial: ∀ y ∃.
• La relación de identidad: =.
Como se explicita en las reglas de deducción natural, algunas de estas constantes son
definibles en términos de otras:
• La conjunción (A & B) se puede definir en términos de la disyunción y la negación
(¬(¬A∨ ¬B)) o del condicional y la negación (¬(A ⊃ ¬B)).
• En general, toda conectiva proposicional diádica se puede definir en términos de
la negación y la disyunción, o la negación y la conjunción, o la negación y el
condicional.1
• Los cuantificadores son definibles entre sí: ∀ es lógicamente equivalente a ¬∃¬, y
viceversa: ∃ es ¬∀¬.
Sin embargo, esto no pasa con todas las conectivas proposicionales. La negación no se
puede definir en términos de las demás conectivas diádicas que hemos visto (aunque sí
en términos de otras que no hemos visto2 ).
Otra constante que tampoco es definible es la identidad, =, que no se puede definir
con las que hemos visto. Esta es una relación lógica primitiva, lo cual sólo significa
que no se define en términos de ninguna otra constante lógica de LC1=.

293
12.1.2. El símbolo de identidad

Este símbolo es una relación de dos lugares cuya interpretación es constante, es decir:
su interpretación nunca cambia a través de los modelos: siempre se interpreta de la
misma manera: como la relación de identidad.
Usando la notación que hemos estado usando para relaciones, en la que escribimos
el símbolo relacional fuera del paréntesis y los términos dentro del paréntesis (tantos
términos como lugares tenga la relación), escribiríamos así: = (𝛼, 𝛽 ). Sin embargo, usa-
remos la notación usual en matemáticas: 𝛼 = 𝛽 (a esto se le conoce como notación
de infijo). De igual manera, usando la notación que hemos usado hasta ahora, escribi-
ríamos la negación de la identidad así: ¬ (𝛼 = 𝛽 ). Siguiendo la práctica usual, también
podemos escribir: 𝛼 ≠ 𝛽 . Ambas notaciones para la negación de identidad son correctas
en nuestro sistema.
Que 𝛼 = 𝛽 significa que 𝛼 es 𝛽 , que son una y la misma cosa —en fin, que son idénticas.
Cuando «dos» cosas «son» idénticas, en realidad no son dos: es una. Esto significa que
si 𝛼 = 𝛽 , entonces 𝛼 va a tener exactamente las mismas propiedades que 𝛽 (¡pues son
la misma!), y viceversa.
Ahora bien, en el lenguaje común, a veces oímos decir cosas como: «¡a y b son
idénticos!» o que «son igualitos» como hipérboles para decir que a y b son muy parecidos.
Pero en este libro sólo usaremos «idénticos» e «iguales» en el sentido lógico estricto: la
identidad.
En el Español, «es» puede significar varias cosas: puede significar predicación (como
en «La rosa es roja») o puede significar identidad (como en «Superman es Clark Kent»).3
De igual manera, usando negación podemos tener la negación de una predicación («La
rosa no es azul»), o la negación de una identidad («Clark Kent no es Lois Lane»).

12.1.3. Oraciones con identidad

Usar la relación de identidad nos permite formalizar oraciones que sin ella no podríamos
formalizar. Ahora veremos varios ejemplos.

Usando las interpretaciones obvias y un dominio que dejamos implícito, voy a poner
ejemplo 46

varios enunciados del lenguaje natural y sus formalizaciones en el lenguaje de LC1=.


• Clark Kent es Superman: c = k .
• Clark Kent no es Batman: c ≠ b .
• Clark Kent es Superman o Batman: c = s ∨ c = b .
• Todos, excepto Clark Kent, fueron a la fiesta: ∀x (x ≠ c ≡ F x) .
• Si alguien es Superman, vuela: ∀x (x = s ⊃ V x) : Quien sea Superman, va a

294
volar.
• Nadie, excepto Superman, vuela: V s & ¬∃x (V x & x ≠ s ) , o de manera
equivalente (por el cuadrado moderno de oposición): V s & ∀x (V x ⊃ x = s ) :
Sólo Superman vuela: V s & ∀x (x ≠ s ⊃ ¬V x) (por transposición).
• Sólo Superman y Batman son superhéroes: H s & H b & ∀x [H x ⊃ (x =
s ∨ x = b)] .
• Superman y Batman son justos: J s & J b , o, de manera equivalente: ∀x [(x =
s ∨ x = b) ⊃ J x] .
• Superman no existe: ¬∃x (x = s ) . O, de manera equivalente: ∀x (x ≠ s ) . [Esto
significa que Superman no existe en el dominio; si el dominio es irrestricto,
entonces esto sí significa que Superman no existe en absoluto.]

Para comprobar que lo anterior es suficiente para entender el concepto de identidad,


vamos a resolver algunos ejercicios.

Ejercicio # 56
1. Interpreta las siguientes fórmulas en el lenguaje natural. Define un modelo para
cada una (puede ser uno distinto para cada una, o el mismo para varias o todas
las fórmulas).
a) ∃x (F x & G x) ⊃ ∀y (P y ⊃ y ≠ b) .
b) F a ≡ ¬∃x (F x & x = a) .
c) ¬∀x (P x ⊃ x ≠ b) .
d) ∃x¬(F x ∨ H x) & ∀y (H y ⊃ a = x) .
e) ∀x∃y [x ≠ y ⊃ (H x & G x)] .
2. Formaliza usando el modelo que se ofrece después de las oraciones:
a) No todos vamos a la Cineteca.
b) Algunos vemos algunas películas, pero nadie ve todas las películas.
c) Algunos vemos alguna película de Del Toro.
d) Memo es Guillermo del Toro.
e) Algunos, que no son del Toro, no ven The Shape of Water.
f ) Quien aprecie The Shape of Water no ve todas las películas de Del Toro.
g) Memo aprecia toda película de Del Toro que no sea The Shape of Water.
h) Si Memo va al cine, ese cine al que va es la Cineteca; también aprecia algu-
nas películas, pero sólo si no son The Shape of Water.
i) Todos, excepto Memo, aprecian todas las películas de Del Toro que no sean
The Shape of Water; pero Memo aprecia todas las películas de Del Toro
(incluyendo The Shape of Water).
j) Cualquiera que vea alguna película de Del Toro que no sea The Shape of
Water, aprecia The Shape of Water.

295
Modelo
Dominio: Irrestricto (el conjunto de todas las cosas).

 V (𝛼, 𝛽 ) : 𝛼 va a 𝛽 . E (𝛼, 𝛽 ) : 𝛼 ve 𝛽 .




 A(𝛼, 𝛽 ) : 𝛼 es el autor de 𝛽 . R (𝛼, 𝛽 ) : 𝛼 aprecia a 𝛽 .


Interpretación: P (𝛼) : 𝛼 es una película.



 c : La Cineteca Nacional. g : Guillermo del Toro.


 m : Memo. s : The Shape of Water.

12.2. Las reglas de la identidad

La identidad posee algunas propiedades, que deberían ser obvias si realmente compren-
demos lo que significa «=». Por ejemplo:
1. Todo es idéntico a sí.
2. Nada es distinto de sí.
3. Dadas cualesquiera dos cosas, o son distintas, o en realidad son la misma.
4. Si algo es idéntico a «otra» cosa, esta «otra» es idéntica a la primera.
5. Cosas idénticas tienen exactamente las mismas propiedades.
6. Si dos cosas difieren en alguna propiedad, entonces no son la misma cosa.

12.2.1. Reglas básicas

Resulta que estas propiedades se pueden inferir a partir de las siguientes reglas de
inferencia. Recordemos que, cuando aparece una línea en blanco y debajo de ella un
esquema de fórmula, esto significa que cualquier fórmula con esa forma se puede intro-
ducir en cualquier momento de la demostración; o, lo que es lo mismo, que tal fórmula
es una verdad lógica del sistema.
La primera regla es la reflexividad de la identidad.
Definición 107: Reflexividad de =

Refl=
∀𝛼(𝛼 = 𝛼)

Esta regla corresponde a la afirmación 1 de arriba, e implica a 2.


Seguimos con la simetría de la identidad, con la que podemos demostrar la afirmación

296
3 de arriba.
Definición 108: Simetría de =

Sim=
∀𝛼∀𝛽 [(𝛼 = 𝛽 ) ⊃ (𝛽 = 𝛼)]

La siguiente propiedad lógica de la identidad es la transitividad.


Definición 109: Transitividad de =

Trans=
∀𝛼∀𝛽∀𝛿[(𝛼 = 𝛽 & 𝛽 = 𝛿) ⊃ 𝛼 = 𝛿]

La validez de esta regla nos permite inferir la afirmación 4 de arriba. Es fácil ver
que es una verdad lógica. Los ejemplos son infinitos: si Andrés es el mismo que Manuel,
y Manuel es el mismo que El Peje, entonces Andrés es el mismo que El Peje. O: si f (x) = y,
y además y = z 2 , se debe seguir que f (x) = z 2 . Para verlo por transposición: si Peter
Parker es Spiderman, y Spiderman es el mejor reportero de El Clarín, entonces, si Peter
Parker no fuera el mejor reportero de El Clarín, como él es Spiderman, Spiderman no
podría ser tampoco el mejor reportero de El Clarín.
Finalmente, tenemos:
Definición 110: Sustitución de idénticos

SustId
∀𝛼∀𝛽 [((𝛼 = 𝛽 ) & Φ[𝛼]) ⊃ Φ[𝛽 ]]

Esta última regla simplemente nos dice que lo siguiente es una verdad lógica: los
objetos idénticos tienen las mismas propiedades, lo cual corresponde a la afirmación 5.
Usando estas cuatro reglas, podemos inferir todas las afirmaciones 1-6 de arriba.
Ejercicio # 57
Formaliza las oraciones 1-5 y utiliza las cuatro reglas que hemos visto (y las ante-
riores) para demostrarlas. Como no parten de ninguna premisa, sólo vas a poner cada
afirmación como la conclusión de un argumento sin premisas, y utilizarás las cuatro re-
glas anteriores para introducir cualquier fórmula que tenga esa forma.

Aunque ninguna de estas cuatro reglas es estrictamente de eliminación o de introduc-

297
ción, porque no contienen ninguna premisa, sí se relacionan con inferencias que pueden
usarse para introducir o eliminar la conectiva. Estas inferencias serán reglas derivadas
de la identidad, pues su validez se puede demostrar a partir de las que acabamos de
ver. Y como son válidas, las podemos utilizar en cualquier demostración.

12.2.2. Reglas derivadas

La regla SustId nos permite, suponiendo que tengamos una afirmación de identidad y
una predicación a uno de los objetos, «eliminar» la identidad predicando lo mismo al
«otro» objeto. No importa si no tengo cuantificadores. Por ejemplo, si tengo que:

a =b

y que:
F c ∨ ¬H a,
entonces puedo inferir:
F c ∨ ¬H b,
al introducir la fórmula en SustId, sustituyendo la matriz «Φ» que aparece en ella por
«F c ∨ ¬H _», y después usar eliminación de los cuantificadores universales y del condi-
cional. Esto es válido porque la regla SustId contiene esquemas de matrices Φ en la que
las únicas variables libres están ligadas por los cuantificadores al inicio. Ejemplificando
sobre el caso de arriba, y usando las variables x y y tendríamos:

∀x∀y [((x = y) & (F c ∨ ¬H x)) ⊃ (F c ∨ ¬H y)],

lo cual, por aplicaciones de E∀, nos permite hacer la inferencia de arriba.


En resumen: tenemos, como regla derivada a partir de SustId y de E∀. También la
podemos llamar «Sustitución de Idénticos» (SustId). Usando las kappas (𝜅 1 , 𝜅 2 , 𝜅 3 ) para
cualquier tipo de constante (normales, con gorrito, y con asterisco), la definimos así:
Definición 111: Sustitución de idénticos (derivada)

𝜅1 = 𝜅2
SustId Φ[𝜅 1 ]
Φ[𝜅 2 ]

Veamos un ejemplo de una inferencia que podemos justificar con esta SustId.

298
ejemplo 47
1. a = b
2. H (a,c ) / ∴ H (b,c )
3. H (b,c ) SustId(1,2)

Algo parecido sucede con las demás reglas. Usándolas y con aplicaciones de E∀, po-
demos justificar que las siguientes son inferencias válidas para todas las constantes (con
gorrito, ficticias, y normales). En primera, Refl= significa que siempre puedo introducir
a = a, para cualquier constante. Eso justifica la siguiente regla derivada.
Definición 112: Reflexividad de = (derivada)

Refl=
𝜅1 = 𝜅2

También podemos justificar la siguiente versión derivada de la regla de simetría:


Definición 113: Simetría de = (derivada)

𝜅1 = 𝜅2
Sim=
𝜅2 = 𝜅1

De igual forma, la versión derivada de la regla de transitividad:


Definición 114: Transitividad de = (derivada)

𝜅1 = 𝜅2
Trans= 𝜅2 = 𝜅3
𝜅1 = 𝜅3

Para cerrar, vamos a poner todas las reglas que introdujimos este capítulo, básicas y
derivadas, en el mismo lugar.
Definición: Reglas de la identidad

Refl= (básica)
∀𝛼(𝛼 = 𝛼)

299
Sim= (básica)
∀𝛼∀𝛽 [(𝛼 = 𝛽 ) ⊃ (𝛽 = 𝛼)]

Trans= (básica)
∀𝛼∀𝛽∀𝛿[(𝛼 = 𝛽 & 𝛽 = 𝛿) ⊃ (𝛼 = 𝛿)]

SustId (básica)
∀𝛼∀𝛽 [((𝛼 = 𝛽 ) & Φ[𝛼]) ⊃ Φ[𝛽 ]]

Refl= (derivada)
𝜅1 = 𝜅2

𝜅1 = 𝜅2
Sim= (derivada)
𝜅2 = 𝜅1

𝜅1 = 𝜅2
Trans= (derivada) 𝜅2 = 𝜅3
𝜅1 = 𝜅3

𝜅1 = 𝜅2
SustId (derivada) Φ[𝜅 1 ]
Φ[𝜅 2 ]

Ejercicio # 58
1. Formaliza y demuestra (puedes usar el mismo modelo para todos, o distintos):

a) Todas las orcas son mamíferos. Keiko es Willy. Willy es una orca. Por lo
tanto, Keiko es un mamífero.
b) Todas las orcas son cetáceos, y todos los cetáceos son mamíferos. Willy es
una orca. Por lo tanto, algunos mamíferos son cetáceos.
c) No todos los mamíferos son cetáceos. Si algunos mamíferos no son cetá-
ceos, entonces, o Willy es un cetáceo o Willy es un mamífero. Si Willy es un
cetáceo, Willy es un mamífero. Por lo tanto, Willy es un mamífero.
d) Ningún cetáceo es un pez; pero todos son mamíferos. Willy es Keiko, y es
un cetáceo. Por lo tanto, Keiko es un mamífero, pero no es un pez.
e) Algunos cetáceos son orcas, otros no. Si no todos los cetáceos son orcas,
entonces algunos cetáceos no son peces. Por lo tanto, existe algo que no

300
es un pez.
f ) Ningún pez es mamífero. El que todos los peces no sean mamíferos implica
que Nemo no es mamífero. El que Nemo no sea mamífero equivale a que
Tiburoncín no sea mamífero. Por lo tanto, Tiburoncín no es mamífero.
g) Tiburoncín no es una orca, pero sí es un pez. Ningún pez es cetáceo. Por lo
tanto, Tiburoncín no es cetáceo.
h) Todos los cetáceos son mamíferos. Pero Nemo no es mamífero. Tiburoncín
es distinto de Keiko, pero es el mismo que Nemo. Keiko es cetáceo. Por lo
tanto, Keiko es mamífero, pero Tiburoncín no.
i) Eres cetáceo sólo si eres mamífero. Eres pez sólo si no eres cetáceo. O
Tiburoncín es un pez o es un cetáceo. Nemo es Tiburoncín. Por lo tanto, o
Nemo es no es cetáceo o es un mamífero.
j) Es falso que Nemo sea Keiko, pero es verdad que Nemo es Tiburoncín.
Keiko, más bien, es Willy. Willy es un cetáceo, Nemo no. Todos los cetáceos
son mamíferos. Por lo tanto, existen mamíferos y no toda cosa es un cetáceo.
2. Formaliza los siguientes argumentos (puedes definir el mismo modelo para to-
dos) y demuestra su validez usando las reglas proposicionales, las de eliminación
e introducción de los cuantificadores, las equivalencias de los cuadrados de opo-
sición, y las reglas de la identidad.
a) Ningún superhéroe es paciente. Batman es superhéroe y millonario. Por lo
tanto, hay algún millonario que no es paciente.
b) Peter Parker no es millonario. Esto se infiere de lo siguiente. Todo millona-
rio es adinerado. Spiderman es un superhéroe no-adinerado. Spiderman es
Peter Parker.
c) Peter Parker no es Batman. Sólo Batman es millonario. Por lo tanto, Peter
Parker no es millonario.
d) Ningún superhéroe no es ágil. Batman y Peter Parker son superhéroes.
Quien sea ágil es hábil. Por lo tanto, algunos superhéroes son hábiles.
3. Usando las reglas de los cuantificadores (E∀, I∀, E∃, I∃), las reglas de los dos
cuadrados de oposición, las reglas de la identidad,4 y las de lógica proposicional,
demuestra las siguientes tres inferencias:
a) 1) ∀x¬(Q x)
2) ¬Q a ⊃ ∀xR (a,x) / ∴ ¬∃x¬R (a,x) & R (a,c )
b) 1) F b & S a
2) ∃x (F x) ⊃ ∀x (Q x) / ∴ ∀x (P x ∨ Q x)
c) 1) ¬G (a,b) ⊃ ∀x (x ≠ a) / ∴ ∃x∃yG (x, y)

301
12.3. «Hay a lo más n» y «Hay al menos n» *

La lógica que estamos estudiando, LC1=, es la lógica de dos cuantificadores básicos:


«todos» y «alguno». Como vimos con los cuadrados de oposición, usando la negación
podemos expresar otras frases cuantificacionales, es decir, frases que expresan la
cantidad de objetos de un dominio de discurso que tienen alguna propiedad. Estas
son: «ninguno» (es decir, «ni al menos uno») y «algunos no» (es decir, «no todos»). En
esta sección y la siguiente vamos a ver cómo usar las conectivas que ya tenemos para
expresar otras frases cuantificacionales: «al menos n», «a lo más n» y «exactamente n»,
donde n es un número natural (es decir: uno finito, positivo y entero, como 0, 1, 2, . . . ).
Esta es una muestra del poder expresivo de la lógica LC1=: es decir, es un ejemplo
de qué tanto puede expresar nuestra lógica. Por supuesto, como todo aparato formal,
la lógica no puede expresar toda frase imaginable. Por ejemplo, no podemos expresar
«hay a lo más 𝜆 », donde «𝜆 » es cualquier número infinito (sobre esto, ver la sección
14.5.1, abajo), simplemente porque para ello necesitaríamos fórmulas de una longitud
infinita, algo que no nos permiten nuestras reglas de formación (def. 82). Otras frases
cuantificacionales que no podemos expresar en nuestra lógica son, por ejemplo, «la
mayoría . . . » (como en «La mayoría de los países en América no son islas») y «la minoría
. . . ». Para esto se requieren otros formalismos, que no revisaremos en este libro.

12.3.1. «Hay al menos n»

Ya sabemos cómo expresar que hay al menos un F : «∃x (F x)». Esto nos podría llevar
a pensar que, para expresar que hay al menos dos F s —o lo que es lo mismo que hay
mínimo dos F s—, simplemente escribiríamos:

∃x∃y (F x & F y) (12.1)

Pero esto es incorrecto. La fórmula 12.1 también es verdadera en modelos en los que
solamente hay un F . ¿Por qué? [...]
Entonces, la fórmula 12.1 no es la adecuada para expresar lo mismo que «hay al
menos dos F s». Tampoco nos ayudaría la siguiente:

∃x (F x) & ∃y (F y), (12.2)

por básicamente la misma razón: esta también es verdadera en modelos en los que hay
un único F .
Para tener la formalización correcta, la idea es partir de la fórmula que habíamos
pensado inicialmente (12.1) y agregarle lo necesario para eliminar el problema que
tenía. El problema es que ella también era verdadera en modelos en los que hay un solo

302
F . Entonces, la idea es agregar lo necesario para que sea falsa en esos modelos en los
que solamente hay un F .
Podemos usar esta:
∃x∃y [(F x & F y) & (x ≠ y)], (12.3)
que es la fórmula correcta, pues es verdadera en todos y sólo aquellos modelos en los que
haya dos o más cosas que son F .
(Nota que si hubiéramos intentado lo mismo en 12.2, no hubiera funcionado, pues la
cláusula de diferencia, «x ≠ y», tiene que estar en el alcance de ambos cuantificadores.
El resultado sería: «∃x (F x) & ∃y (F y) & x ≠ y», que no es una fórmula del lenguaje,
pues las dos últimas variables no están siendo ligadas.)
Vamos a definir estos cuantificadores que, en general, llamaremos «cuantificadores
de mínimos». Pero, antes de hacerlo, vamos a establecer una convención sobre el uso
de paréntesis, que nos ayudará a simplificar la notación cuando sea necesario.
Convención 14. Cuando tengamos una fórmula (o subfórmula o matriz dentro de una
fórmula) que sólo contenga conjunciones o que sólo contenga disyunciones como co-
nectivas principales, podemos ahorrarnos los paréntesis interiores.
Por ejemplo, podemos abreviar a:

[(S b & ¬P d ) & (Q e & P c )] & ¬Q a

como:
(S b & ¬P d & Q e & P c & ¬Q a)
debido a la convención 14. De igual forma, podemos abreviar a:

(Rd ∨ Q a) ∨ [(S b ∨ ¬Q c ) ∨ S e ]

como:
(Rd ∨ Q a ∨ S b ∨ ¬Q c ∨ S e )
gracias a la misma convención.
Esta convención se justifica debido a que tanto la conjunción como la disyunción son
conmutativas: (A ∨ B) ⊨⊨ (B ∨ A) y (A & B) ⊨⊨ (B & A), y asociativas: (A ∨ B) ∨ C ⊨⊨
A ∨ (B ∨ C ) y (A & B) & C ⊨⊨ A & (B & C ).
Habiendo establecido la convención sobre el uso de paréntesis cuando tenemos a
conjunciones o negaciones como conectivas principales, ya podemos definir los que
cuantificadores de mínimos.
En la definición, usaré variables con subíndices (como «x 1 ») para el caso gene-
ral. Variables con distintos subíndices cuentan como variables distintas. Usar estas nos
ayudará a ver el patrón formal que subyace a todos estos casos: la idea básica que ge-
neralizamos para cualquier número natural n. Entonces, algo como «∃x 1 ∃x 2 . . . ∃x n »

303
representa una cadena de n cuantificadores existenciales. Si (por ejemplo) n = 4, enton-
ces esa cadena sería: «∃x 1 ∃x 2 ∃x 3 ∃x 4 », pero si n = 2, la cadena, más bien, es: «∃x 1 ∃x 2 ».
Lo mismo para «(F x 1 & F x 2 & . . . & F x n )», que representa n matrices en conjun-
ción, cada una predicando «F » de una variable. Por ejemplo, si n = 4, lo anterior sería:
«(F x 1 & F x 2 & F x 3 & F x 4 )». Ahora sí: veamos la definición.
Definición 115: Cuantificadores de mínimos

Hay al menos 1 F : ∃≥1x (F x)


∃x (F x)

Hay al menos 2 F s: ∃≥2x (F x)


∃x∃y (F x & F y & x ≠ y)

Hay al menos 3 F s: ∃≥3x (F x)


∃x∃y∃z (F x & F y & F z & x ≠ y & x ≠ z & y ≠ z )

.. ..
. .

Hay al menos n F s: ∃≥n x (F x)


∃x 1 ∃x 2 . . . ∃x n [(F x 1 & F x 2 & . . . & F x n )
( & x 1 ≠ x 2 & x 1 ≠ x 3 & . . . & x n−1 ≠ x n )]

12.3.2. «Hay a lo más n»

Ya que sabemos expresar que hay mínimo dos F s , la generalización natural es pregun-
tarnos si podríamos expresar que hay máximo dos F s —o lo que es lo mismo, que hay
a lo más dos F s — y, en general, si podríamos expresar que hay un máximo de n cosas
que sean F . La respuesta es que sí.
Como en el caso anterior, la fórmula adecuada tiene que ser aquella que sea verdadera
en todos y solamente aquellos modelos en cuyo dominio haya máximo dos F s: esos
en los que haya o bien 0, o bien 1, o bien 2 cosas que son F , pero ni una sola más.
¿Cómo lo expresaríamos?
Como queremos permitir modelos en los que no haya ninguna F , no sería útil usar
el cuantificador existencial. Esto sugiere usar el universal. Otro hecho que apoya esto
es que una fórmula cuya conectiva principal es un universal puede ser verdadera por
vacuidad (ver el ejemplo 39), de manera que sea verdadera incluso si ninguna cosa en
el dominio es F . Y esto último nos importa porque queremos una fórmula que también
sea verdadera en dominios en donde no hay ni un solo F .

304
Esta es la fórmula:
∀x∀y∀z [(F x & F y & F z ) ⊃ (x = y ∨ x = z ∨ y = z )] (12.4)
¿Cómo sabemos que es la correcta? Pues porque es verdadera en todos y sólo los mo-
delos en cuyo dominio hay o bien cero, o bien una, o bien dos cosas que son F , y ni
una sola más. ¿Cómo sabemos esto? Vamos por casos.
Si hay cero F s en el dominio, 12.4 será verdadera por vacuidad. Pues, en ese caso,
¡es verdad decir «hay máximo dos F s»! Esto es porque «máximo» nos da el tope superior:
aquél número del que no pasa el número de F s. Pero, obviamente, el 0 no pasa de 2.
(Por la misma razón, por supuesto, en ese modelo será verdad decir que hay máximo
tres, o máximo cuatro, o máximo cinco, . . . F s en este dominio.)
Ahora bien, si hay solo un F en el dominio, 12.4 también será verdad. Supongamos
que el único F es una cosa llamada «a». Entonces, 12.4 es verdad debido a dos razones.
Primera, que cualesquiera cosas que sean F , van a ser idénticas con a —van a ser,
simplemente, a misma. Segunda, que la disyunción es inclusiva y, por ello, cualesquiera
x, y, w, z que sean F , van a ser todas idénticas entre sí: van a ser una y la misma. Esta
única cosa F es la misma a. Un razonamiento parecido demuestra la verdad de 12.4 en
modelos donde hay dos F s.
Finalmente, debe suceder que 12.4 sea falsa en modelos donde hay tres o más cosas
que son F . Y eso, de hecho, sucede. Por ejemplo, si hay tres F s, habrá tres cosas F
que son distintas entre sí. Usemos «a», «b» y «c », respectivamente, para nombrarlas.
Entonces, será verdad que F a & F b & F c , pues las tres son F . Sin embargo, será falso
que a = b ∨ a = c ∨b = c , pues las tres son distintas entre sí, por lo que los tres disyuntos
son falsos. Por lo tanto, 12.4 es falsa en modelos donde hay tres cosas. Razonamientos
parecidos demuestran la falsedad de 12.4 en modelos con cuatro o más cosas F .
Podemos generalizar la idea. Para decir que hay máximo n cosas F (para n un número
natural), utilizaremos n + 1 cuantificadores universales, y tendremos una disyunción,
para cada par de las variables ligadas por ellos, diciendo que son idénticas entre sí
(como la identidad es simétrica, si ya tenemos, por ejemplo, que x = y, no es necesario
poner que y = x.) Como antes, para el caso general usaremos variables con subíndices
(como «x 1 »), notando que variables con distintos subíndices cuentan como variables
distintas.
Definición 116: Cuantificadores de máximos

Hay a lo más 1 F : ∃≤1x (F x)


∀x∀y [(F x & F y) ⊃ x = y]

Hay a lo más 2 F s: ∃≤2x (F x)


∀x∀y∀z [(F x & F y & F z ) ⊃ (x = y ∨ x = z ∨ y = z )]

305
Hay a lo más 3 F s: ∃≤3x (F x)
∀x∀y∀z∀w [(F x & F y & F z & F w) ⊃ (x = y ∨ x = z
∨x = w ∨ y = z ∨ y = w ∨ z = w)]

.. ..
. .

Hay a lo más n F s: ∃≤n x (F x)


∀x 1∀y 2 . . . ∀x n [(F x 1 & F x 2 & . . . & F x n ) ⊃
(x 1 = x 2 ∨ . . . ∨ x n1 = x n )]

12.4. Cuantificadores exactos y descripciones definidas *

Como vimos antes, una oración de la forma «∃x (F x)» sólo significa que hay al menos
una cosa en el dominio que es F ; puede haber exactamente una, o más de una. Otra
manera de verlo es así: fórmulas como «∃x (F x)» van a ser verdaderas en todo modelo
que contenga una o más cosas que sean F .
Pero a veces deseamos decir cosas más específicas: cuando hablamos, por ejemplo,
del Presidente de México, no suponemos que hay uno o más; tampoco suponemos que
no hay ninguno. Suponemos que hay uno y sólo uno, o como también podemos decirlo,
exactamente uno. El cuantificador existencial, por sí mismo, no puede expresar esto; pero,
afortunadamente, podemos definirlo con la ayuda de la constante de identidad.
Cuando decimos que hay exactamente una cosa que es F , decimos que hay una y sólo
una cosa F (en el dominio). Todo esto es decir simplemente que: primero, hay al menos
una, pero —segundo— que no hay ninguna otra. (Pues si hubiera una distinta, habrían
dos F s, no una.) La primera parte ya sabemos cómo formalizarla: ∃x (F x). Podríamos
intentar esto para la segunda parte (la de «no hay ninguna otra»): ¬∃x (F x), pero es
una obvia contradicción con la primera (y de nada servirá intentar usar «x» para una y
«y» para la otra.5 ) La idea es que no exista ninguna otra cosa, además de la primera que
hemos mencionado, que sea F . Así que necesitamos que esta segunda variable esté en el
alcance del cuantificador de la primera parte:

∃x (F x & no hay ninguna otra cosa que sea F, además de x) (12.5)

¿Cómo formalizamos esta idea de «otra cosa, además de x»?


Pues ya que sabemos cómo expresar que hay mínimo un F y también sabemos có-
mo expresar que hay máximo un F , podemos juntar ambas ideas para decir que hay
exactamente un F .

306
Recordemos que «Nadie que no sea Superman puede volar» sería (usando predicados
y constante obvia) algo como: ¬∃x (x ≠ s & V x), o, lo que es lo mismo (por el cuadrado
moderno de oposición): ∀x (x ≠ s ⊃ ¬V x). Usando transposición en esta, tenemos una
tercera forma equivalente: ∀x (V x ⊃ x = s ). Esta última nos permite ver que «Nadie
que no sea Superman puede volar» en realidad significa lo mismo que «Sólo Superman
puede volar».
Con base en lo anterior, podemos ver que: «Ninguna otra cosa, además de Super-
man, es F » puede formalizarse como: ∀x (F x ⊃ x = s ): todos los F s, son, en reali-
dad, Superman. Análogamente, «Nadie fuera de AMLO es Presidente» sería algo como
∀x (P x ⊃ x = a): sólo AMLO es presidente: todo Presidente es, en realidad, AMLO:
quien no sea AMLO, no es Presidente.
Ahora ya podemos ver cómo terminar de formalizar la oración 12.5. Primero, que-
remos decir que hay al menos una cosa F , para después decir que esa cosa de hecho
es la única que es F . Ya vimos cómo decir que nada fuera de una cosa particular a es
F : ∀x (F x ⊃ x = a). Juntando ambas ideas, podemos definir al cuantificador «existe un
único F », que a veces se abrevia con «∃!x (F x)», como dice la siguiente definición.
Definición 117: Cuantificador exacto «existe un único F »
 
∃!x (F x) ≡ ∃x F x & ∀y (F y ⊃ x = y)
def.

Es muy importante notar que en el lado derecho de la definición 117 el cuantificador


existencial alcanza todo lo que sigue, pues de otra manera la última aparición de «x»
quedaría libre y no tendríamos una fórmula (sino una matriz).
Este tipo de oraciones existenciales nos dicen que una única cosa es F . Podemos ver,
por lo de arriba, que siempre se van a descomponer en dos frases o cláusulas:

∃x [F x & ∀y (F y ⊃ x = y) ]
| {z } | {z }
Cláusula de existencia Cláusula de unicidad

Descripciones definidas

A inicios del siglo XX,6 Russell notó que se pueden usar este tipo de fórmulas existen-
ciales para analizar lógicamente lo que se conocen como descripciones definidas. Una
descripción definida es una frase como «El actual presidente de Rusia» o como «La me-
jor gimnasta del mundo en 2018». Es decir, las descripciones definidas son frases en las
que nos referimos a un único individuo del dominio, usando artículos definidos (como
«el», o «la»), junto con propiedades que sólo un objeto del dominio satisface.
De acuerdo con Russell y otros, las cuantificaciones numéricas (es decir, las fórmulas
definidas en la definición 117) pueden usarse para modelar a las descripciones defini-

307
das.7 Para formalizar una oración como «El actual presidente de Rusia es un judoka»,
Russell propuso, primero, definir un operador que significara «el único que es el actual
presidente de Rusia», y después predicar de ese objeto, que es un judoka. Para esto,
definimos el operador «ı».
Definición 118: Operador de unicidad de Russell

El operador de unicidad de Russell es «ı », que liga variables variables


(como los cuantificadores). Significa «el único que. . . ». Entonces,

ı𝛼(Φ𝛼)

se refiere al único objeto del dominio que es Φ en ese dominio, es decir,


al objeto que haga verdad que ∃!𝛼(Φ𝛼) . Es decir, «ı𝛼(Φ𝛼) » funciona
como un nombre para ese objeto.
Una fórmula de la forma:
Ψ[ı𝛼(Φ𝛼)]
significa que el único objeto del dominio que es Φ también es Ψ, y es
verdadera en un dominio siempre y cuando la correspondiente fórmula
sea verdadera:

∃𝛼 [Φ𝛼 & ∀𝛽 (Φ𝛽 ⊃ 𝛼 = 𝛽 ) & Ψ𝛼]

Con esto, la formalización de «El actual presidente de Rusia es un judoka» (usando


«P » para el predicado «es presidente de Rusia actualmente» y « J » para el predicado
«es un judoka») sería así:
J [ıx (P x)] (12.6)

Como dice la definición 118, el operador compuesto «ıx (P x)» significa: «el único que
es P ». Entonces, 12.6 nos dice: «el único que es P , es J », es decir: ∃x [P x & ∀y (P y ⊃
x = y) & J x]. Como se puede ver, a la fórmula cuantificacional se agrega una cláusula
de predicación; y eso se abrevia con la ayuda del nuevo operador «ı».

Cuantificadores y números finitos

Regresemos a los cuantificadores numéricos. Usando una variación de la misma idea


para cuantificadores numéricos para exactamente un objeto —tener cláusulas de existen-
cia y de unicidad— podemos decir cosas como «hay exactamente dos hemisferios en el
planeta Tierra». Si interpretamos «H » como la cualidad de ser un hemisferio de la Tierra,
sería:
 
∃x∃y (H x & H y & x ≠ y) & ∀z (H z ⊃ (z = x ∨ z = y)) (12.7)

308
Aunque parece más complicada, la idea es la misma que antes, con un «extra». Primero,
afirmamos que hay al menos una x y al menos una y que son H . Esto, por sí mismo,
no nos asegura que x y y sean distintas cosas. (Por ejemplo, aún cuando hay un único
Presidente, es verdad decir que ∃x∃y (P x & P y): ambos existenciales son hechos verdad
por esa única persona.) Es por ello que incluimos la cláusula de diferencia: x ≠ y. Esta
sí nos asegura que hablamos de al menos dos cosas distintas.
Lo que sigue en la fórmula es simplemente una cláusula de unicidad. Nos dice que
cualesquiera cosas que sean H , deben ser o bien x, o bien y. Esto impide que haya una
tercera cosa que es H , y termina de asegurar que la fórmula 12.7 sea verdadera en
todos y sólo los modelos en los que hay exactamente dos H s.
Si descomponemos esto como arriba, tendríamos algo así:
∃x∃y [(F x & F y) & (x ≠ y) & ∀z (F z ⊃ (z = x ∨ z = y)) ]
| {z } | {z } | {z }
Cláusula de existencia Cláusula de diferencia Cláusula de unicidad

Iterar estas ideas nos permite decir que hay exactamente tres, o exactamente cuatro, o
exactamente cinco, . . . cosas que son F (para cualquier predicado F ). Para cada número
natural n, decimos que hay exactamente n cosas que son F , simplemente poniendo n
cláusulas de existencia, poniendo todas las cláusulas de diferencia entre las n cosas
(diciendo que cada una es distinta de las demás), y usando un cuantificador universal
con una variable que no haya aparecido antes, digamos z , para poner una cláusula de
unicidad que tendrá n disyuntos diciendo: «o bien z no es . . . , o bien z no es . . . », etc.
Esto significa que, para cada número natural n, podemos expresar que hay exactamente
n cosas (que simbolizaremos como «∃n ») con el aparato de la lógica LC1=, como se ve
en la definición que sigue.
Definición 119: Cuantificadores numéricos

Hay 0 F s: ∃0x (F x)
¬∃x (F x)

Hay exactamente 1 F (también «∃!x (F x) »): ∃1x (F x)


 
∃x F x & ∀y (F y ⊃ x = y)

Hay exactamente 2 F s: ∃2x (F x)


∃x∃y [(F x & F y & x ≠ y) & ∀z (F z ⊃ (z = x ∨ z = y))]

.. ..
. .

Hay exactamente n F s: ∃n x (F x)

309
∃x 1 . . . ∃x n [(F x 1 & . . . & F x n & x 1 ≠ x 2 & . . . & x 1 ≠ x n
& . . . & x n−1 ≠ x n ) & ∀z (H z ⊃ (z = x 1 ∨ . . . ∨ z = x n ))]

Esto muestra que la lógica clásica de primer orden con identidad, LC1=, nos per-
mite definir a los números naturales. Desafortunadamente, otros sistemas numéricos
requieren de aparatos más expresivos, como la teoría de conjuntos.
Ejercicio # 59
I Formaliza la oración «Hay a lo más tres candidatos» (o «Hay máximo tres candida-
tos»). Da un dominio en el que interpretes «C » como el predicado para ser un candidato.
II Formaliza la oración «Hay al menos cuatro casas». Da un dominio en el que
interpretes «A » como el predicado para ser una casa.
III Formaliza la oración «Hay exactamente tres personas, a lo más cuatro coches,
al menos tres casas, y cada persona tiene al menos una casa y un coche». Da un do-
minio en el que interpretes «P » como el predicado para ser una persona, «A » como el
predicado para ser una casa, «O » como el predicado para ser un coche, y «T » como el
predicado de dos lugares para tener (es decir, T (𝛼, 𝛽 ) significa que 𝛼 tiene a 𝛽 ).

Ejercicio # 60
Los siguientes acertijos pueden resolverse usando la lógica LC1=. Resuélvelos.
1. Quien haya asesinado al rey tiene las manos manchadas de sangre. Juan es co-
cinero y Luis, mayordomo. Ningún jardinero anduvo en la cocina el domingo por la
noche; pero cualquiera que tenga las manos manchadas de sangre estuvo en la
cocina el domingo por la noche. Pedro es un jardinero y sale los domingos por la
noche. Lupe es cocinera pero salió el sábado por la noche, y quien sale el sábado
por la noche, no está en la cocina el domingo por la noche. Juan es Pedro, pero
Luis no es Juan. El asesino del rey es sólo uno de los ya mencionados (es decir,
es o Juan, o Luis, o Pedro, o Lupe). ¿Quién mató al rey?
2. Beto el jardinero es futbolista, como Juan. Pero Rob el sacerdote no es futbolista
aunque Alberto el mayordomo, sí. El asesino tenía sangre en las manos a las 5
pm, y es una única persona. Todos los futbolistas jugaron un partido, pero no se
sabe a qué hora; sin embargo, solo los mayordomos son futbolistas. Juan tenía
las manos limpias a las 5 pm, y sabemos que Rob no es mayordomo; porque hay
un único mayordomo. ¿Quién es el asesino, y por qué?
3. Todo el que juega, baila; y todo el que baila, se mueve. Si Juan juega pero Rosa no
se mueve, y además, sólo puedes bailar con una persona distinta de ti, y además,
María viene con José pero María no se mueve, y no hay nadie además de ellos
cuatro, entonces . . . ¿José baila? Si es así, ¿con quién? ¿Por qué?
4. Si al menos un profe es buena onda, entonces, todos los profes son buena onda.

310
Ahora bien: si Juan es profe, Juan es buena onda. Sin embargo, no todos los
profes son buena onda. En conclusión. . . ¿Juan es un profe o no es un profe?
¿Por qué?
5. Todo el que asesina, comete pecado mortal. Cualquiera que cometa pecado mor-
tal, se va a existir al Infierno. Pero en el Infierno sólo puede existir un único ente:
El Enemigo. Entonces: ¿Qué relación tendrán Richard, quien es un asesino, y El
Enemigo?

311
12.5. Resumen del capítulo
⋆ La constante de identidad, ‘=’, es una nueva constante lógica primitiva, que
siempre se pone entre dos constantes, o entre dos variables, o entre una
constante y una variable.
⋆ Al expandir el lenguaje de la lógica LC1 con ella (añadiéndola al alfabeto y
añadiendo reglas de formación para ella), tenemos el lenguaje de la lógica
LC1.
⋆ La constante de identidad nos permite expresar oraciones que no eran ex-
presables en la lógica LC1. Por ejemplo, oraciones del tipo de «tal (no) es
idéntico a tal», de «Solamente tal (no) es . . . » y de «Exceptuando a tal,
todos son . . . »
⋆ Las reglas de la identidad reflejan que esta ella una relación reflexiva, simé-
trica y transitiva, además de que permite la sustitución uniforme. Tenemos dos
tipos de reglas para la identidad: las básicas, que nos permiten introducir fór-
mulas que expresan las propiedades de la identidad, y las derivativas, que
nos permiten hacer inferencias con constantes, que también reflejan esas
propiedades.
⋆ Al usar la nueva constante de identidad, podemos definir tres nuevos tipos
de expresiones cuantificacionales: los cuantificadores de máximos y mínimos, y
los cuantificadores numéricos. Los cuantificadores de máximos son expresiones
de la forma «hay máximo n cosas que . . . », los de mínimos, expresiones
de la forma: «hay mínimo n cosas que . . . », mientras que los numéricos,
expresiones de la forma: «hay exactamente n cosas que . . . »
⋆ La constante de identidad también nos permite expresar descripciones defini-
das, que funcionan como expresiones que refieren a una cosa particular. Con
ello, introducimos un nuevo operador, «ı», definible en términos de una des-
cripción definida, y con el cual podemos abreviar fórmulas que dicen cosas
como «El único que es de tal forma, también es de tal otra».

312
Proyecto: Existencia e inexistencia
Antecedentes d Uno de los problemas que Russell quería resolver en su ensayo
clásico «Sobre el denotar», era el siguiente. Las oraciones que contienen términos
que se usan para referir a objetos que, de hecho, no existen, parecen ir en contra
de la lógica. Por ejemplo, hoy en día Francia es una república. Por ello, la frase
«El actual rey de Francia» no refiere a ningún objeto: por más que busquemos en
todo el planeta y en todo el universo, nunca encontraremos a ninguna cosa que
sea el actual rey de Francia. Pero según la ley del tercero excluido, una de las dos
siguientes oraciones tiene que ser verdadera:
• o bien, «El actual rey de Francia es calvo»,
• o bien «El actual rey de Francia no es calvo».
¡Pero parece que ninguna lo es! Como el actual rey de Francia no existe, no hay
cosa alguna en el universo que responda a esa descripción —«el actual rey de
Francia»— y que sea calva. Por lo que la primera oración parece falsa. Pero por
la misma razón, no hay cosa alguna en el universo que responda a esa descripción
y no que sea calva; por lo que la segunda oración también parece falsa. ¿Significa
esto que la mayoría de los lógicos desde Aristóteles han estado equivocados sobre
la validez de la ley del tercero excluido?
El problema es todavía más grave. Si la oración «El actual rey de Francia es
calvo» es falsa, parece que debe ser verdad que el actual rey de Francia no es calvo.
Sin embargo, como sabemos que «El actual rey de Francia no es calvo» también
es una oración falsa, eso parecería implicar que el actual rey de Francia sí es
calvo. Pero que sea verdad tanto que el actual rey de Francia no es calvo como
que el actual rey de Francia sí es calvo ¡parece una contradicción! ¿Significa esto
que la mayoría de los lógicos desde Aristóteles han estado equivocados sobre la
validez de la ley de no contradicción?
«No», dijo Russell sobre ambas preguntas. Propuso su teoría de las descrip-
ciones definidas, de acuerdo a la cual, la expresiones como «el actual rey de
Francia» (y otras) son descripciones definidas (en el sentido de la sección 12.4).
Entonces, usando una interpretación obvia (y un dominio irrestricto), la forma
lógica que, de acuerdo con Russell, tiene la oración «el actual rey de Francia es
calvo» es:
C [ıx (Rx)] (12.8)
Y la forma lógica de «el actual rey de Francia no es calvo» sería:

¬C [ıx (Rx)] (12.9)

Con esto, Russell argumentó que el conflicto entre las leyes lógicas y el par de
oraciones sobre la calvicie del actual rey de Francia, era meramente aparente:

313
¡No hay tal conflicto! ¿Cómo lo hizo? Primero, Russell notó que ambas fórmulas
(12.8 y 12.9) son falsas. Pero esto no entra en conflicto ni con la ley del tercero
excluido, ni con la de no contradicción, dijo Russell, pues estas fórmulas no son
contradictorias, sino contrarias. ¿Puedes ver cómo?
Problema d Primero, desarrolla las formas lógicas de las fórmulas que Russell
propuso (12.8 y 12.9), siguiendo las definiciones de este capítulo. Después de ello,
argumenta cómo es que ellas son contrarias. Finalmente, di qué formula(s) sí son
falsa(s), de manera que sea vea cómo se siguen cumpliendo las leyes del tercer
excluso y de no contradicción.

Notas

1. Ver Hunter 1971, §21.

2. Se puede definir en términos del condicional ⊃ y una conectiva 0-ádica que no hemos visto: ⊥, que
representa una contradicción y a la que siempre se le asigna el valor falso. Así, A ⊃ ⊥ define a ¬A.
También se puede definir en términos de cualquiera de dos conectivas diádicas que no hemos visto: o
la barra de Sheffer |, que significa «no ambas», o la daga de Peirce: ↓, que significa «ni una ni otra». La
negación ¬A se puede definir con ya sea A|A o con A ↓ A.

3. Sobre la importancia filosófica de distinguir estos distintos significados de «es», veáse Moro Simpson
1975. Por otro lado, algunos filósofos han pensado que hay otros sentidos importantes y distintos de «es»
—como el «es» de esencia, o el de constitución, o el de un tipo generalizado de identidad—, e incluso
se han sugerido sistemas lógicos para algunas de estas nociones. No podremos revisar estas cuestiones
metafísicas aquí (pero véase Correia 2017, Fine 1994, Johnston 1992.) Ferrater Mora y LeBlanc reconocen,
además, el «es» de inclusión conjuntística (que ejemplifican con «los limeños son peruanos») y el de
pertenencia (∈) conjuntística, que revisaremos en la sección 14. Ver Ferrater Mora y LeBlanc 1962, pp.
104-105.

4. En realidad, esta vez sólo se necesita Refl=.

5. Como hemos visto, qué variables usemos es irrelevante, mientras estén siempre ligadas y no haya am-
bigüedad en el alcance de los cuantificadores—por lo que, como ambas fórmulas tienen el alcance de
sus respectivos cuantificadores definido y sin afectar al otro, podemos usar la misma variable para ambas
fórmulas.

6. Ver su artículo «Sobre el denotar» («On denoting»).

7. Russell, Quine

314
capítulo

13

Teoría de las relaciones *

Contenidos del capítulo

Propiedades lógicas de las relaciones 316


Relaciones, entimemas, postulados de significado 328
Introducción a la teoría de los órdenes 330

Objetivos de aprendizaje
1.
2.

315
omo vimos en el capítulo 12, las siguientes inferencias son válidas para las cons-
C tantes de todos los tipos:

𝜅1 = 𝜅2
Refl= (derivada) Trans= (derivada) 𝜅2 = 𝜅3
𝜅1 = 𝜅2
𝜅1 = 𝜅3

𝜅1 = 𝜅2
𝜅1 = 𝜅2
Sim= (derivada) SustId (derivada) Φ[𝜅 1 ]
𝜅2 = 𝜅1
Φ[𝜅 2 ]

En realidad, las tres primeras reglas reflejan ciertas propiedades de alto nivel de la
relación lógica de identidad.
(Decimos que son propiedades de alto nivel porque son características de esa entidad
que es la relación de identidad. Y decimos que son propiedades de alto nivel porque,
al menos conceptualmente, podemos separar una «jeraraquía» de propiedades.1 Las de
primer nivel serían las propiedades que tienen los individuos: por ejemplo, el pizarrón
tiene la cualidad de ser blanco y la de ser rectangular. Las de segundo nivel serían las
propiedades que tienen las propiedades de primer nivel: el blanco tiene la propiedad de
ser un color, la rectangularidad la propiedad de ser una figura geométrica, por ejemplo.
Las de tercer nivel serían propiedades que tienen las propiedades de segundo nivel; las
de cuarto nivel serían propiedades de las propiedades de tercer nivel, y así ad infinitum.)

13.1. Propiedades lógicas de las relaciones

Regresando al tema, las reglas reflejan las propiedades de la identidad, y ahora veremos
cómo estas pueden no ser únicas de la identidad. Nos vamos a restringir a las pro-
piedades de las relaciones de dos lugares, pues desde este punto ya surgen muchas
propiedades lógica y matemáticamente importantes.
Un estudio más profundo de las propiedades lógicas de relaciones de más lugares
(que llamaremos relaciones poliádicas) queda para otro momento.

13.1.1. Transitividad, no transitividad y anti-transitividad

Regresando a las propiedades lógicas, como ejemplo tenemos a Tran=, que refleja la
propiedad de la identidad que se conoce como transitividad. Pero esta propiedad
también puede ser una propiedad de muchas otras relaciones: por ejemplo, la relación
«_ es más alto que _», también es transitiva.

316
En este capítulo, voy a usar la letra R como variable para relaciones binarias (es
decir, relaciones entre dos cosas).
Definición 120: Relación transitiva
Una relación R es transitiva en un modelo específico, siempre y cuando
en ese modelo sea verdad que:

 
∀x∀y∀z (R (x, y) & R (y, z )) ⊃ R (x, z ) (Transitividad)
R es una relación transitiva si la fórmula Transitividad es verdadera en
todo modelo que no cambie la interpretación de R .

Un ejemplo de relación transitiva es «ser más alto que». Poniéndola en lugar de «R»,
tendríamos este como un caso de Transitividad:
∀x∀y∀z (si x es más alto que y y y es más alto que z , entonces x es más alto que z )
Además de «ser idéntico a» y «ser más alto que», existen muchísimas relaciones bina-
rias que también son transitivas. Por ejemplo, deberías comprobar que la relación «es
de igual altura que» es transitiva.
Pero muchas relaciones no son transitivas. Por ejemplo, si sustituimos «aprecia a» por
R en Transitividad, obtenemos un condicional que es falso en algunos modelos. Se dice
que John Lennon estaba muy enamorado de Yoko Ono, pero que ella era muy mal vista
por los demás miembros de los Beatles. Supongamos por un momento que esto fuera
verdad. Es claro que R no es transitiva en ese modelo: aunque es verdad que R(Paul,
John) y que R( John, Yoko) —McCartney apreciaba a Lennon, y éste a Yoko—, no es
verdad que R(Paul, Yoko).
Se sigue de Transitividad que, si R es una relación transitiva, entonces es lógicamente
válido «unir» el primer «eslabón» de la «cadena» con el último. Vamos a usar constantes
para ejemplificarlo. Al unir los eslabones, podríamos hacer inferencias de esta forma:
R (a,b)
R (b,c )
R (c ,d )
Por lo tanto, R (a,d ).
La «cadena» estaría formada (abusando de la notación) así:

aRbRcRd

y uniríamos el primer «eslabón» con el último infiriendo —válidamente, si la relación


es transitiva— que aRd .
En general, donde a 1 ,a2 , . . . ,an son n constantes (distintas o iguales entre sí), y si R
es una relación transitiva, no importa la longitud de la cadena, siempre podemos unir

317
el primero con el último eslabón:

R (a 1 ,a 2 )
R (a 2 ,a 3 )
..
.
R (an−1 ,an )
Por lo tanto, R (a 1 ,an ).
Algo parecido es lógicamente válido cuando tenemos cuantificadores y variables.
Y, como sabemos, si una inferencia es lógicamente válida, entonces el condicional
formado por la conjunción de sus premisas como antecedente y la conclusión como
consecuente, será también lógicamente verdadero (verdadero en todo modelo). Usando
la inferencia de arriba, podríamos ver que un caso especial de Transitividad para n
constantes es:
[R (a1 ,a2 ) & R (a 2 ,a 3 ) & . . . & R (an−1 ,an )] ⊃ R (a 1 ,an )

Típicamente, una propiedad va a ser transitiva si es de cualquiera de estos tres tipos:


• Habla de «ser el mismo _ que», o
• Habla de «ser más _ que».
• Habla de «ser menos _ que».
(Probablemente haya más casos de tipos de relaciones que siempre sean transitivas,
sólo que por ahora no puedo pensar en otro.)
Como ejemplo de lo primero, «ser del mismo peso que» es transitiva; como ejemplo
de lo segundo, «ser más joven que», también. «Tener menos plumas» es un caso de
lo tercero. Por ejemplo, para cualesquiera aves, es un hecho puramente lógico que: si
a tiene menos plumas que b, y éste tiene más plumas que c , entonces a tiene menos
plumas que c .
Pero debemos notar que relaciones de la forma «ser distinto _ que» no son transitivas.
Por ejemplo, de que la dirección de a sea distinta de la dirección de b, y de que la
dirección de b sea distinta de la dirección de c, no se sigue que la dirección de a sea
distinta de la dirección de b. Habrá casos—modelos—en los que sí, y casos en los que
no. Análogamente, la relación de diferencia (≠) no es transitiva. De:
Superman ≠ Spiderman, y
Spiderman ≠ Clark Kent,
¡por supuesto que no se sigue que Superman ≠ Clark Kent!
Vamos a distinguir entre relaciones transitivas, no-transitivas, y antitransitivas.
Las primeras ya las vimos. Las no-transitivas son relaciones que son transitivas en algu-
nos modelos, pero que no son transitivas en otros (es decir, que satisfacen Transitividad

318
en algunos modelos, pero no en otros). Por ejemplo, la relación «_ es amigo de _» en un
modelo donde el dominio consiste sólo en mis amigos Álvaro, Ezequiel y Rafa, que
además son amigos entre sí, esta relación es transitiva, pues el siguiente condicional es
verdadero:
Si Carlos es amigo de Ezequiel, quien es amigo de Rafa, quien es amigo de Álvaro,
entonces Carlos es amigo de Álvaro.
Y este condicional es verdadero porque todos somos amigos. Sin embargo, existen otros
modelos donde la misma relación «_ es amigo de _» no es transitiva, es decir, no se cumple
el condicional. Por ejemplo, un modelo cuyo dominio consiste sólo de Paul McCartney,
John Lennon, y Yoko Ono. Así que «_ es amigo de _» es una relación no transitiva, pues
en algunos casos (dominios) satisface la fórmula de la transitividad, y en otros no.
Pero también existen relaciones que podemos llamar anti-transitivas:
Definición 121: Relación anti-transitiva

 
∀x∀y∀z (R (x, y) & R (y, z )) ⊃ ¬R (x, z ) (Anti-transitividad)

Por ejemplo, la relación «_ es hijo de _» es anti-transitiva: si a es hijo de b y b es hijo de


c , entonces a no es—¡en ningún modelo!—padre de c : es decir, en todo modelo donde
el antecedente sea verdad, será falso que a sea hijo de c . (Será su nieto, pero esta es otra
relación.)
Otro ejemplo de relación anti-transitiva viene de la aritmética. Consideremos como
dominio al conjunto de los números enteros, es decir, el conjunto:

ℤ = . . . , −3, −2, −1, 0, 1, 2, 3, . . .

y, usando «n», «m», como variables para números enteros, definamos la siguiente rela-
ción, que llamaremos «S »:

S (n,m) siempre y cuando: n = m + 1,

es decir, «S (n,m)» significa que n es el sucesor de m. Esta relación es anti-transitiva: no


importa cuáles números le asignemos a «n» y «m» en el conjunto ℤ, si n es el sucesor
de m, y m, a su vez, es el sucesor de otro número, o, entonces n no es el sucesor de o.
Las relaciones «_ aprecia a _» y «≠» son no-transitivas, mientras que «_ es hijo de _» y
la relación de sucesor en los números enteros son anti-transitivas.
Ejercicio # 61
I Da dos ejemplos de relaciones transitivas y explica por qué son transitivas.
II Da dos ejemplos de relaciones que no sean transitivas y explica por qué son
transitivas.

319
III Da una demostración de lo afirmado en el texto: «si n es el sucesor de m , y m ,
a su vez, es el sucesor de otro número, o , entonces n no es el sucesor de o ». Usa la
definición de sucesor: S (n,m) siempre y cuando: n = m + 1.

13.1.2. Simetría, Asimetría, y Antisimetría

La identidad, comos nos dice la regla Sim=, es una relación simétrica. Vamos a definir
esta propiedad ahora.
Definición 122: Relación simétrica
Una relación R es simétrica en un modelo específico, siempre y cuando
en ese modelo sea verdad que:

 
∀x∀y R (x, y) ⊃ R (y,x) (Simetría)
R es una relación simétrica siempre y cuando la fórmula Simetría sea
verdadera en todo modelo que no cambie la interpretación de R .

Es decir: una relación simétrica es aquélla que se puede «voltear» de dirección, de


manera lógicamente válida: si R es una relación simétrica entre dos cosas a y b, en
realidad no importa si escribimos R (a,b) o R (b,a), pues estas fórmulas son lógicamente
equivalentes (se implican en todo modelo que deje fija la interpretación de «R»). Es
decir: las relaciones simétricas no tienen una «dirección» intrínseca.
Como vimos antes (sección 12.2), la identidad es simétrica: siempre que a = b, tam-
bién b = a. Gracias a esto, todas las relaciones que hablen de algún tipo de identidad
exacta en algún aspecto —como ser igual de perseverante, o tener la misma cantidad de hi-
jos— van a ser simétricas: si a tiene la misma cantidad de hijos que b, entonces —como
cuestión de necesidad lógica— b tiene la misma cantidad de hijos que a.
Sin embargo, muchísimas relaciones no son simétricas: si a tiene más hijos que b, por
supuesto que no se sigue que b tenga más hijos que a. Resulta que, como con las rela-
ciones no-transitivas (sección 13.1.1) podemos clasificar a las relaciones no-simétricas
en dos tipos.
Las relaciones asimétricas son aquellas que son simétricas en algunos casos y no-simétricas
en otros. Por ejemplo, la relación amar a es asimétrica: en algunos casos, a ama a b y
b ama a a; en otros —los amores no-correspondidos— la relación no es simétrica. Es
decir: las relaciones asimétricas van a ser simétricas en algunos modelos, pero van a
ser no-simétricas en otros.
Más importante es la definición de las relaciones anti-simétricas.

320
Definición 123: Relación anti-simétrica
Una relación R es anti-simétrica siempre y cuando lo siguiente sea verda-
dero en todo modelo que no cambie la interpretación de «R »:
 
∀x∀y (R (x, y) & R (y,x)) ⊃ x = y (Anti-simetría)

Un caso claro de anti-simetría es la relación «mayor o igual que» (≤) en los números:
si a es un número mayor o igual que b, y si b es mayor o igual que a, entonces a es el
mismo número que b.
Ejercicio # 62
I Da dos ejemplos de relaciones simétricas y explica por qué son simétricas.
II Da dos ejemplos de relaciones que no sean simétricas y explica por qué son
simétricas.

13.1.3. Reflexividad, Irreflexividad y Antireflexividad

Otra propiedad que tiene la identidad es la reflexividad.


Definición 124: Relación reflexiva
Una relación binaria es reflexiva en un dominio cuando todo objeto en
ese dominio está relacionado, mediante esa relación, consigo. Así, R será
reflexiva cuando este condicional sea verdadero en todo dominio que no
cambie la interpretación de «R »:

∀x [R (x,x)] (Reflexividad)

A diferencia de las propiedades anteriores, esta no está condicionada. Sin embargo,


podemos definir una noción más débil de reflexividad, que llamaremos cuasi-reflexividad:
∀x [∃yR (x, y) ⊃ R (x,x)] (Cuasi-reflexividad)

Como en los casos anteriores, es fácil ver un patrón en el tipo de relaciones que
son reflexivas o cuasi-reflexivas: involucran algún tipo de igualdad; aunque las cuasi-
reflexivas suponen que hablamos de un tipo de objeto. Por ejemplo, la relación «proceder
del mismo país que» es cuasi-reflexiva: como las galaxias no provienen de ningún país, no
provienen de su mismo país y así, no provienen del país de nadie.
Como con las dos propiedades anteriores, podemos diferenciar entre relaciones irre-
flexivas y anti-reflexivas.
Las relaciones irreflexivas van a ser reflexivas en algunos modelos y no reflexivas en
otros. Un ejemplo es la relación «_ es el peor enemigo de _»: en un modelo cuyo dominio

321
contiene sólo a Donald Trump, como Donald Trump es su peor enemigo, esta relación
será reflexiva. Pero en modelos que incluyen a más cosas, esta relación no será reflexiva
—por ejemplo, el peor enemigo de Trótskiy no era Trótskiy mismo, sino Stalin.
Las relaciones anti-reflexivas son aquéllas que en ninguna circunstancia —en ningún
modelo— relacionan a un objeto consigo.
Definición 125: Relación anti-reflexiva
Una relación R es anti-reflexiva si lo siguiente es verdadero en todo mo-
delo que deje fija la interpretación de «R »:

∀x¬[R (x,x)] (Anti-reflexividad)

Por ejemplo, «_ es más alto que _» es anti-reflexiva, pues ninguna cosa es más alta que
sí misma (al menos, si consideramos a la cosa en un instante determinado). También
la relación entre cantidades «_ es mayor que _» es anti-reflexiva, pues ninguna cantidad
es mayor que sí misma.
Ejercicio # 63
I Da dos ejemplos de relaciones reflexivas y explica por qué son reflexivas.
II Da dos ejemplos de relaciones que no sean reflexivas y explica por qué son re-
flexivas.

13.1.4. Relaciones de equivalencia y clases de equivalencia

Ahora vamos a definir un tipo muy importante de relaciones: las relaciones de equiva-
lencia. Se les conoce así porque nos permiten definir un sentido exacto en el que dos
cosas distintas pueden ser «equivalentes» en un aspecto —pueden contar como «las
mismas» cuando consideramos sólo algunas de sus propiedades. Esto nos permite usar
a las relaciones de equivalencia para definir clases de equivalencia, construcciones muy
importantes en lógica y matemáticas.
Definición 126: Relación de equivalencia

R es una relación de equivalencia siempre y cuando sea una relación


reflexiva, simétrica y transitiva.

Como se ve en las reglas de la identidad, la identidad es una relación de equivalencia.


Pero otras relaciones también lo son: las que involucren un sentido de «identidad de as-
pectos». Por ejemplo, la relación «tener la misma edad» es una relación de equivalencia:
es reflexiva —todo objeto tiene la misma edad que sí mismo—, simétrica —la relación
no tiene una dirección intrínseca—, y transitiva —si alguien es de la misma edad que

322
otra persona, que a su vez es de la misma edad que una tercera, entonces ésta será de
la misma edad que la primera.
Como la relación «tener la misma edad» es de equivalencia, nos permite definir un
sentido en que dos cosas son «la misma»: cuando dos cosas están relacionadas por ella,
serán idénticas con respecto a su edad. En general, si R es una relación de equivalencia,
cualesquiera cosas relacionadas por R son idénticas en el aspecto «remarcado» por R.
Ejercicio # 64
I Da dos ejemplos de relaciones de equivalencia y explica por qué son de equiva-
lencia.
II La relación «𝛼 es sucesor de 𝛽 » se define entre números enteros y positivos, y
significa que: 𝛼 = 𝛽 + 1. ¿Es simétrica? ¿Es transitiva? ¿Es reflexiva?
III

Bien. Además de esto, para cualquier relación binaria R, podemos definir el conjunto
que da su extensión.
Definición 127: Extensión de una relación binaria
La extensión de una relación binaria es el conjunto de los pares de cosas,
⟨a,b⟩ , tales que R (a,b) .

Cuando R es una relación de equivalencia, es común usar el símbolo «≃» para de-
notarla. A la extensión de tales relaciones (el conjunto definido por 127) se le conoce
como clase de equivalencia, y se suele denotar: ⟦ ⟧≃ .
De esta manera, si a es un elemento del dominio que se relaciona con otras cosas
mediante la relación de equivalencia ≃, decir que otro elemento del dominio, b, es un
elemento de ⟦a⟧≃ es decir que a y b son equivalentes en el aspecto «remarcado» por ≃.

Veamos tres ejemplos de relaciones de equivalencia.


1. Cualquier objeto que sea elemento del conjunto:

⟦Barack Obama en enero de 2018⟧tener la misma edad


ejemplo 48

será un objeto que tenga exactamente la misma edad que tenía Barack Obama
en enero de 2018. Entonces, esta clase de equivalencia puede tomarse como
representante de un número de años: los años que tenía Obama —y todos
sus equivalentes— en ese entonces.
2. La relación entre flechas «_ tiene la misma dirección que _» es una relación
de equivalencia: toda flecha tiene su misma dirección, si una tiene la misma
dirección que otra entonces también a la inversa, y la relación es transitiva.

323
Consideremos entonces la clase de equivalencia correspondiente a esta rela-
ción, para la flecha particular ↗:

⟦↗⟧tener la misma dirección

Todo elemento de esta clase va a ser una flecha con la misma dirección que
↗. En lo único en que van a diferir las flechas de esta clase es en su longitud.2
3. Como último ejemplo, deberías revisar que la equivalencia material de la lógica
proposicional, ≡, de hecho es una relación de equivalencia en el dominio de
todas las proposiciones.

Cada relación de equivalencia, como hemos dicho, induce clases de equivalencia, en el


sentido en que éstas se definen en términos de la primera. Otro hecho central acerca de
las clases de equivalencia es que éstas son una partición del dominio. En general, hacer
una partición de un conjunto consiste en acomodar sus elementos en subconjuntos, de
manera que todo elemento del conjunto esté alguno de estos subconjuntos, pero que no
esté en más de uno. Esto se ve más claro con un diagrama. Una partición de un conjunto
(el círculo más grande) va a definir subconjuntos (las elipses) de sus elementos (los
puntos), véase la Figura 13.1. Como hemos dicho, las clases de equivalencia inducidas
por una relación de equivalencia son un tipo de partición; de hecho, toda partición
generará, a su vez, una relación de equivalencia. Después, cuando veamos teoría de
conjuntos con un poco de mayor profundidad, definiremos formalmente el concepto de
partición (sección 14.9).


• •



• •

Figura 13.1: Una partición del dominio.

324
Las relaciones de equivalencia son importantes en matemáticas porque nos permi-
ten hablar de cuándo dos objetos matemáticos distintos tienen la misma estructura, y
en muchos casos, las demostraciones matemáticas sólo requieren pensar en la misma
estructura, no en cualidades particulares de objetos particulares. Así, en matemáticas
es usual demostrar propiedades para clases de equivalencia de objetos, de manera que
esas clases representen una estructura general. También son importantes en metafísica
para el problema de la individuación de objetos al menos desde que Frege notó que las
relaciones de equivalencia podían servirnos para abstraer «nuevos» objetos a partir de
objetos previamente «dados»—así como individuamos direcciones a partir de flechas,
mediante una relación de equivalencia.3

13.1.5. Relaciones triviales, totales, conexas y seriales

Existen diferentes maneras de definir relaciones en un dominio que «relacionen todo en


el dominio».

Trivialidad

La manera más directa es la noción de relación trivial: una relación R tal que cuales-
quiera objetos del dominio están R-relacionados, es una relación trivial en ese dominio.
Como en los casos anteriores, una relación será trivial siempre y cuando sea trivial en
todo dominio (de todo modelo que deje fija la interpretación de R como esa relación).
Es decir, la relación denotada por «R» en un modelo es trivial siempre y cuando, en
todo modelo que interprete de igual manera «R», esto sea verdad:
∀x∀y [R (x, y)] (13.1)
Se le llama «trivial» porque «no exige nada»: su definición no tiene ninguna condición
especial. Es obvio que una relación trivial va a ser una relación de equivalencia: es
reflexiva, simétrica, y transitiva.
La relación trivial es la relación de equivalencia «más grande» en el sentido de relacio-
nar cualquier cosa con todas las demás. En este mismo sentido, la relación de identidad
es la relación de equivalencia «más pequeña», pues relaciona a cada cosa sólo consigo
misma.
Esto se entiende muy bien gráficamente. El dominio de un modelo es un conjunto
de cosas, que podemos representar por un círculo—el conjunto—que adentro contiene
puntos: sus elementos. Cada punto distinto representa un elemento distinto, como se
ilustra en la Figura 13.2.
Si ahora representamos las clases de equivalencia definidas por la identidad, éstas van
a tener un único elemento, ¡pues ninguna cosa está relacionada mediante la identidad
con alguna cosa distinta! (Figura 13.3)

325


• •



• •

Figura 13.2: El dominio de un modelo y sus elementos.


• •



• •

Figura 13.3: Clases de equivalencia definidas por la identidad.

326


• •



• •

Figura 13.4: Clases de equivalencia que no son definidas por la relación de identidad o por una
relación trivial.

Ahora bien, la relación trivial sobre un dominio se vería exactamente como la Figura
13.2: la relación trivial coincidiría exactamente con todo el modelo, pues relaciona a
cada cosa con cada cosa.
En cambio, relaciones de equivalencia que no son triviales—que no incluyen a todo
el dominio—pero tampoco las más pequeñas (no son la identidad) inducirían clases de
equivalencia que se verían de formas parecidas a la Figura 13.4.

Totalidad

Una noción más débil de «relación entre todo del dominio» es la de relación total.
Una relación R es total en un dominio siempre y cuando, para cualesquiera elementos
x y y del dominio, o bien R (x, y), o bien R (y,x). (Como es una tautología que [R (a,a) ∨
R (a,a)] ≡ R (a,a), toda relación total va a ser reflexiva.) Una relación total, entonces, va
a ser total en todo dominio; es decir:
Definición 128: Relación total
La relación referida por una interpretación de «R » es total siempre y cuan-
do, en todo modelo que interprete igual a «R », sucede que:

∀x∀y [R (x, y) ∨ R (y,x)] (Total)

Otras maneras de llamarle a las relaciones totales son «relaciones completas», «re-
laciones estrictamente conexas», o «relaciones dicotómicas», pues obedecen la ley de la

327
dicotomía, 128.4

Conexividad

Todavía más débil que la totalidad, es la propiedad de conexividad. Una relación R


es conexa es un dominio si satisface la ley de tricotomía (Total) al menos para objetos
distintos; lo cual es decir que será conexa si para todo dominio satisface:
∀x∀y [x ≠ y ⊃ (R (x, y) ∨ R (y,x))] (13.2)
Como es claro, una relación será total, si y solamente si es conexa y además es reflexiva.
Otra manera de verlo es que una relación conexa es una relación total sin «exigir»
que R (a,a) para toda a del dominio. Como algunos llaman «estrictamente conexas»
a las relaciones totales, algunos llaman «débilmente conexas» a las relaciones que aquí
simplemente llamamos «conexas».

Serialidad

La conexividad (débil o estricta) es distinta de la serialidad, que es la noción más


débil de «relación entre todo del dominio». R es serial en un dominio siempre y cuando
todo objeto del dominio tenga al menos otro con el que está R-relacionado. A diferencia
de la conexividad, la serialidad no exige que todo objeto esté R relacionado o por
la «izquierda» o por la «derecha» con todo objeto del dominio (que sea distinto, si
hablamos de conexividad débil); y todavía menos exige, a diferencia de la trivialidad,
que todo objeto esté relacionado con todos los demás (y él mismo) del dominio.
Entonces, una relación es serial si es serial en todo dominio, es decir, hace verdad
que:
∀x∃y [R (x, y)] (13.3)
Debería ser obvio que toda relación reflexiva es serial: si R (a,a) para toda a del dominio,
entonces cada a del dominio tendrá al menos una cosa con la cual está R-relacionada—
a saber, a misma. Sin embargo, no necesariamente toda relación serial es reflexiva: en 13.3,
nada fuerza a «x» y «y» a ser la misma cosa.
(Ejemplos de relaciones triviales, totales, conexas y seriales.)

13.2. Relaciones, entimemas, postulados de significado

Cuando sabemos que una relación es de algún tipo de los estudiados arriba—por ejem-
plo, es un orden parcial o total, o es asimétrica, etc.—podemos usar esas características
de la relación como un tipo de «reglas» nuevas acerca de esa relación. Así, si en una in-
ferencia tenemos una relación R de la que se nos dice que es transitiva —o de la que

328
sabemos que es transitiva, como «_ tiene más libros que _»—, podemos usar la regla de
la transitividad (la fórmula 120) como premisa explícita extra (es decir, la escribimos
como nueva premisa), o como una regla que usamos si se requiere en el argumento. Por
ejemplo, si nos dieran un argumento como este:
Rita tiene más libros que Pedro, y Pedro tiene más libros que Josefina. Por lo tanto,
hay al menos dos personas tales que Rita tiene más libros que cada una de ellas,
podríamos usar el hecho de que la relación «_ tiene más libros que _» es transitiva, para
poder demostrar la conclusión (junto con la regla de introducción de ∃, claro está).
En general, se conoce como entimemas a los argumentos que tienen premisas im-
plícitas, es decir, premisas que se dan por sentado en el argumento pero que no se
mencionan (ver la definición 5). Los argumentos con relaciones pueden ser entimemá-
ticos al dejar implícitas las características lógicas de las relaciones de las que hablan, y
por lo tanto, para demostrar su validez al formalizarlos para utilizar el sistema LC1=,
usualmente deberemos formular estas características, ya sea como premisas explícitas
o como reglas válidas acerca de tales relaciones.5
Esto sería un caso de lo que Rudolf Carnap introdujo con el nombre de «postulados
de significado» o «reglas semánticas».6 La idea esencial es que los postulados de
significado de un elemento de algún lenguaje son las reglas o afirmaciones que definen
el significado de ese elemento lingüístico. En el caso que nos ocupa en esta sección, las
propiedades lógicas de las relaciones serían definitorias de las palabras o símbolos con
los que nombramos a tales relaciones, por lo que usarlas como premisas nuevas es un
caso de postulados de significado. L.T.F. Gamut lo explica así:
La función de los postulados de significados es la de restringir la clase de
todos los modelos a una cierta subclase. La subclase debe consistir en aque-
llos modelos en los cuales algún tipo de relación semántica entre (clases de)
predicados sea válido, ciertas subclases de expresiones tengan propiedades
semánticas específicas, y así en adelante.[. . . ] Los postulados de significado
son fórmulas de nuestro lenguaje lógico. Las usamos para imponer restric-
ciones sobre los modelos para nuestro lenguaje lógico y, por lo tanto, indirec-
tamente, para el lenguaje natural, al estipular que solamente consideramos
aquellos modelos en los cuales los postulados son válidos.7
Cabe notar que hay más tipos de postulados de significado que los provistos por las
propiedades lógicas de las relaciones binarias, que convierten argumentos entimemáti-
cos en argumentos con todas las premisas explícitas. Por ejemplo, algunas propiedades
están relacionadas con otras por tales postulados: el ejemplo clásico sería:
a es soltero si y sólo si a no está casado,
pero seguramente podemos encontrar muchas más. Esto dependerá del argumento u
oración del lenguaje natural que queramos formalizar en LC1=, y, por supuesto, de que

329
comprendamos todos los términos involucrados en tal argumento.8

13.3. Introducción a la teoría de los órdenes

Un tipo especial de relación binaria entre muchos tipos distintos de cosas, son los órdenes.
Muchas veces nos interesa ordenar un conjunto de cosas: decir qué cosa va «antes» que
otra, o «después» de otra, o incluso cuándo ambas «están al mismo nivel». Un ejemplo
de orden es el de los números naturales: los números 0, 1, 2, 3, 4, . . . , hasta el infinito.
Estos números tienen un orden «obvio» entre ellos: 0 es menor que 1, el que a su vez
es menor que 2, y así sucesivamente. Gracias a este orden de los números naturales,
podemos usarlos para, a su vez, ordenar muchas otras cosas. Por ejemplo, podemos
hacer una lista de l@s alumn@s de un salón, diciendo que tal persona es la primera, a
la que le sigue tal otra, que sería la segunda, y así sucesivamente.
Como en el ejemplo de la lista del salón, un orden puede tener un criterio bien
definido—en ese caso, el orden alfabético. Pero también podríamos definir un orden
arbitrario, como cuando tenemos un conjunto de sillas muy parecidas entre sí y las or-
denamos solo para hacerlas corresponder con una lista de invitados: la primera en ese
orden le corresponde a la primera persona en la lista y así sucesivamente, pero seleccio-
namos a una silla como la «primera» sin algún criterio específico. De cualquier forma,
al terminar el «pareo» entre sillas e invitados, hemos ordenado a las sillas también.
Resulta que los órdenes tienen características que pueden ser estudiadas con la lógica
cuantificacional.

13.3.1. Preorden

Antes de todo, revisaremos brevemente la noción de pre-orden (o cuasi-orden). Como


antes, la constante de predicado «R» se refiere a un pre-orden siempre y cuando, en
todo modelo que la interprete de la misma forma, se refiera a una relación que es un
pre-orden en el modelo.
Definición 129: Pre-orden
Una relación R es un pre-orden en un modelo siempre y cuando R es
reflexiva y transitiva en ese modelo.

A partir de cada pre-orden podemos definir un orden, si hacemos cierta «identifica-


ción» de objetos distintos en esta relación. Pero para entender esto, primero necesitamos
revisar el concepto de orden.

330
13.3.2. Orden parcial

Primero hablaremos de los órdenes parciales. Como veremos ahora, resulta muy intuitivo
usar la notación «≤» para referirse a los órdenes, si mantenemos en mente que la teoría
de los órdenes es una generalización de las propiedades de órdenes más «familiares»,
entre cosas que ya conocemos bien, como los números naturales: 0 ≤ 1 ≤ 2 ≤ 3 ≤ 4 ≤
5...
Como esta mismo ejemplo nos sugiere, usaremos la notación de infijo, que es lo que
ya hacemos con la constante de identidad: en lugar de escribir (por ejemplo) «≤ (1, 2)»,
como lo hacemos con las relaciones en general, al escribir cosas como «R (a,b)» —a lo
cual se le conoce como la notación de prefijo—, pondremos al símbolo en medio de
los términos, como ya hacíamos al aprender aritmética y álgebra. (Si pusiéramos al
símbolo relacional después de los relata, esto se conoce como la notación de sufijo, y
se vería así: «(a,b)R». Esta no la usaremos en estas notas, pues es menos usual; pero
no tiene ningún defecto puramente lógico.)
La manera en que debemos leer fórmulas como «a ≤ b» es: «a es menor o igual que
b». Pero no se requiere que necesariamente entendamos esto en un sentido cuantitativo,
sino en un sentido ordinal. Si ordeno mis libros en el librero por orden alfabético a
partir del autor, diré que tal libro va «antes» que otro en ese orden, y lo mismo podría
decir que es «menor» que otro en ese orden. No presupongo ningún tipo de magnitud
que esté comparando entre ambos libros. Con esta forma de leerlo, definamos qué es
un orden parcial.
Definición 130: Orden parcial

Una relación binaria, ≤ , es un orden parcial cuando tiene estas tres pro-
piedades (para todo x, y, z ):
Reflexividad x ≤ x .
Antisimetría Si x ≤ y y también y ≤ x , entonces x = y .
Transitividad Si x ≤ y y también y ≤ z , entonces x ≤ z .
Como antes, un orden es parcial en un modelo si satisface estas propie-
dades en ese modelo, y es parcial (ya no relativo a un modelo específico,
sino por sí mismo) cuando es parcial en todo modelo.

En general, puedes pensar a un orden parcial como definiendo un «árbol», donde la


raíz es el elemento que está antes de una serie de elementos, que formarían sus ramas.
Dos elementos que sean incomparables —es decir, tales que ni x ≤ y ni y ≤ x— vivirán
en diferentes ramas del árbol.

331
Un ejemplo de esto son los árboles genealógicos que usamos para confirmar que
una cadena de símbolos de LC0 sea una fórmula en la sección 4.5, def. 29 (ver, por
ejemplo, la figura 4.3).
En general, consideremos un árbol en el sentido de la teoría de gráficas:
a
ejemplo 49

b c

b1 c1 c2

b 11 b 12 c 21

Confirmando lo dicho arriba, este árbol representa el siguiente orden parcial:


{ a < b < b 1 < b 11 ; a < b < b 1 < b 12 ; a < c < c 1 ; a < c < c 2 < c 21 } ,
donde, por ejemplo, vemos que b 1 y c 21 son incomparables.

Veamos un ejemplo de orden parcial, que es de relevancia para la ontología contem-


poránea.

Por ejemplo, en la mereología —la teoría que estudia la relación entre parte y todo—,
ejemplo 50

es usual suponer que la relación _ es parte de _ (que podemos simbolizar con «⊑»),
es (al menos) un orden parcial. Entonces, a ⊑ b significa que a es una parte de b .
Toda cosa es una parte de sí misma, en un sentido generalizado —o «impropio»—
de parte, de manera que Reflexividad vale para ⊑. Antisimetría también parece una
regla adecuada para la relación de parte-todo; así como Transitividad.

Como mencioné arriba y como se ve en estos ejemplos, los órdenes parciales se llaman
así —«parciales»— porque no necesitan ordenar todo lo que está en un modelo. Habrá
cosas que sean «incomparables» o «indiferentes» respecto a estos órdenes. En el ejemplo
de la mereología, si ⊑ es un orden parcial (que no es total, en el sentido que veremos
en la sección 13.3.4, abajo), entonces habrá objetos que son «incomparables»: objetos
distintos tales que ni uno sea parte del otro, ni el otro del primero. Por ejemplo, ni mi
computadora es parte de la Pirámide del Sol, ni ésta es parte de mi computadora.
Los órdenes parciales son representables mediante lo que se conoce como diagramas
de Hasse, en los que una flecha a −→ b significaría que a ≤ b (o, en el ejemplo de
la mereología, que a ⊑ b). Si no hay flechas entre dos cosas, significa que éstas son
incomparables.
Siguiendo con el ejemplo de la mereología, y tomándome a mi como ejemplo (a

332
Yo

sistema nervioso sistema digestivo sistema óseo

s.n. central s.n. periférico estómago faringe axial apendicular

Figura 13.5: Diagrama de Hasse para el orden parcial ⊑ entre algunas de mis partes.

cierto nivel de descripción), podríamos usar un diagrama de Hasse para representar la


relación entre algunas de mis partes, como en la Figura 13.5.

13.3.3. Órdenes estrictos y no estrictos

A partir de un orden parcial podemos definir un orden estricto. Como habíamos visto, la
intención es leer «a ≤ b» como «a es menor o igual que b». A partir de esto, podemos
definir un orden «estricto»: uno que no sea una disyunción, sino que se lea solamente
como «a es menor que b»; la notación obvia sería: «a < b».
Definición 131: Orden estricto
Un orden estricto tiene las siguientes propiedades (para cualesquiera ob-
jetos x, y, z del dominio):
Antirreflexividad No sucede que x < x .
Antisimetría «fuerte» Si x < y , entonces no sucede que y < x .
Transitividad Si x < y y también y < z , entonces x < z .

A la segunda propiedad le llamamos «Antisimetría ‘fuerte’» porque sería una conse-


cuencia de la antirreflexividad y de la antisimetría que revisamos en la sección 13.1.2,
o, también, de la antirreflexividad y la transitividad.

13.3.4. Orden total o lineal

Un orden total o (lineal) en un dominio es un orden parcial que, además, es una


relación total en el dominio. Recordemos que (según la definición 128) una relación
R es un orden total cuando satisface: ∀x∀y [R (x, y) ∨ R (y,x)]. Esto motiva la siguiente
definición.

333
Definición 132: Orden total
Un orden ≤ es total siempre y cuando satisface:
Reflexividad x ≤ x
Antisimetría (x ≤ y & y ≤ x) ⊃ x = y
Transitividad (x ≤ b & y ≤ z ) ⊃ x ≤ z , y
Totalidad x ≤ y ∨ y ≤ x
Como antes, un orden es total en un dominio si cumple estas cuatro pro-
piedades en el dominio, y es total (no relativo a un dominio particular) si
satisface estas propiedades en todo dominio en el que se encuentre tal
relación.

Los órdenes totales también se conocen como «lineales» porque nos permiten poner
a los elementos del dominio en una línea, de esta manera:

a ≤ b ≤ c ≤ d ≤ e ≤ f ≤ ...,

agotando a todos los elementos del dominio, pues, gracias a la propiedad de Totalidad,
ningún elemento va a ser incomparable con otro. Es decir: podríamos dibujar un dia-
grama de Hasse también para órdenes totales, pero ese diagrama será indistinguible de
una línea:
a ←− b ←− c ←− . . .

Como en el caso de los órdenes parciales, podemos definir órdenes totales estrictos
<, en los que nunca sea el caso que a < a. Como antes, este orden se podría leer «a es
menor que b», excluyendo que a = b.
Cada orden parcial se puede extender a un orden total sobre el mismo dominio, en
el sentido en que si ≤ es un orden parcial, entonces existe un orden total ⩽ tal que, si
a ≤ b, entonces a ⩽ b, y si hay elementos c ,d que sean incomparables respecto a ≤,
serán comparables respecto a ⩽: ya sea que c ⩽ d o que d ⩽ c .9 Sin embargo, nada nos
asegura que el orden total de la extensión sea un orden «natural».
Un ejemplo de esta no-naturalidad sería el siguiente. Considerando el orden de la
Figura 13.5, este se puede extender a un orden total ⩽—de manera que o bien faringe ⩽
cerebro o bien cerebro ⩽ faringe; aunque, obviamente, ni la faringe es parte (⊑) del cerebro
ni viceversa. Entonces, en este caso (y en muchos otros), el orden total de la extensión
es puramente «formal». (Tenemos otro caso donde las matemáticas nos permiten definir
cosas que no corresponden a algo en el mundo físico.)

13.3.5. Orden inverso

Tanto los órdenes parciales como los totales tienen órdenes inversos (también llamados
«conversos»).

334
Definición 133: Orden inverso
Si ≤ es un orden parcial o total sobre un dominio, un orden (parcial o total,
según corresponda) ≥ es su inverso si y solamente si sucede esto (para
todos los objetos x, y del dominio):
Si x ≤ y , entonces y ≥ x .
Lo mismo se puede hacer para definir órdenes inversos para órdenes es-
trictos (parciales o totales) <, cuyo inverso sería >.

Por ejemplo, el orden parcial «_ es parte de _», que formalizamos con «⊑», tendría
un orden inverso ⊒, que significaría «_ tiene como parte a _». De manera que, como el
sistema nervioso tiene como parte al cerebro, podemos decir: sistema nervioso ⊒ cerebro.

13.3.6. Maximales, máximos, cotas, supremos

Cuando tenemos un orden que es al menos parcial (de manera que incluimos también a
los totales), podemos definir distintos pares de nociones —unas más estrictas que otras—
de elementos «más grandes» o «más pequeños» que los demás.
El par menos estricto es el par maximal/minimal.
Definición 134: Elemento maximal
Dado un orden parcial ≤ sobre un dominio, un elemento maximal del domi-
nio (respecto a ese orden) es un elemento m que no es menor que ningún
otro, es decir:

m está en el dominio, y ∀x en el dominio: m > x

De manera equivalente, la definición 134 se podría enunciar diciendo que ¬∃x en el


dominio tal que: (x ≠ m) & (m ≤ x). O bien, diciendo que: ∀x en el dominio, x ≮ m.
El concepto dual es el concepto de minimal.
Definición 135: Elemento minimal
Si ≤ es un orden parcial sobre un dominio, entonces m es un elemento
minimal de ese dominio, relativo a ese orden, siempre y cuando:

m está en el dominio, y ∀x en el dominio: m < x

De manera equivalente, la definición 135 se podría enunciar diciendo que: ¬∃x en el


dominio tal que: [(x ≠ m) & (m ≥ x)]; o bien, diciendo que: ∀x en el dominio, x ≮ m.
Cabe notar que un mismo dominio puede tener varios maximales y minimales relativo
a un mismo orden parcial. Un ejemplo de esto es el árbol del ejemplo 49. Ahí, los

335
elementos b 12 y c 21 son, ambos, maximales de acuerdo a ese orden.
Un par más fuerte (es decir, más restrictivo) de nociones de «ser el mayor de un
orden» es el par máximo–mínimo.
Definición 136: Elemento máximo
Si ≤ es un orden parcial sobre un dominio, entonces m es un elemento
máximo de ese dominio relativo a ese orden, siempre y cuando:

m está en el dominio, y ∀x del dominio: x ≤ m

Definimos así al concepto dual.


Definición 137: Elemento mínimo
Si ≤ es un orden parcial sobre un dominio, entonces m es un elemento
mínimo en ese dominio relativo a ese orden, siempre y cuando:

m está en el dominio, y ∀x del dominio: m ≤ x

A diferencia del par maximal/minimal, si un dominio bajo un orden tiene un elemento


máximo (o un mínimo), éste va a ser único.
Podemos ver que no todo elemento maximal es un elemento máximo. Pues supon-
gamos que m sea un maximal de un orden parcial ≤. Como ≤ es un orden parcial,
esto es compatible con que haya elementos incomparables con respecto a ≤ (como el
cerebro y la faringe con respecto al orden de la parte-todo). Entonces, podríamos tener
algún elemento a que sea incomparable con m, con lo que sería falso que todo elemento
sea ≤ m. Sin embargo, esto es compatible con que no haya un elemento del dominio
≥ m; por lo que m sería un maximal pero no un máximo. Un argumento dual muestra
también que los minimales no necesariamente son mínimos.
Como se puede ver por los argumentos anteriores, cuando tratamos con órdenes que
además de ser parciales, son totales, todo maximal va a ser el máximo, y todo minimal
va a ser el mínimo. Esto no implica que todo orden total tenga un máximo o un mínimo.
Por ejemplo, el conjunto ℝ de los números reales tiene un orden total ≤, pero no tiene
ni mínimos ni máximos: no hay ningún número real que sea «el más grande» ni uno que
sea «el más chico».10 Por supuesto, en ese caso, tampoco hay minimales ni maximales.
Otro par de nociones de «elemento más grande/chico de un orden» es el par co-
ta superior–cota inferior. Para esto, debemos podemos distinguir subconjuntos de un
dominio —por ejemplo, si nuestro dominio consiste en el conjunto de todos los se-
res humanos, podemos distinguir el conjunto de todos los seres humanos nacidos en
el continente americano. En una sección posterior daremos la definición rigurosa del
concepto de subconjunto (sec. 14.4).

336
Definición 138: Cota superior de un orden

Dado un dominio que tiene un orden parcial ≤ , y tomando un subconjunto


S de ese dominio, entonces un elemento c del dominio (no necesariamen-
te de S ) es una cota superior de ese subconjunto S si se satisface:

∀s que esté en S : s ≤ c

Es decir, la cota superior de un subconjunto puede no ser elemento de ese subconjun-


to. Por ejemplo, si tenemos como dominio al conjunto de los números enteros 1, 2, 3,
4, 5, 6, 7, con su orden usual ≤, y si tomamos al subconjunto de este dominio: {1, 2, 3},
entonces 4 va a ser una cota superior de este subconjunto. Pero también 5, 6 y 7.
Definimos, de manera dual, la cota inferior.
Definición 139: Cota inferior de un orden
Dado un dominio que tiene un orden parcial ≤ , y tomando un subconjunto
S de ese dominio, entonces un elemento c del dominio (no necesariamen-
te de S ) es una cota inferior de ese subconjunto S si se satisface:

∀s que esté en S : c ≤ s

De nuevo tomando como dominio al conjunto de números {1, 2, 3, 4, 5, 6, 7}, si nuestro


subconjunto es {3, 4, 5}, entonces 1 va a ser una cota inferior de este subconjunto, así
como 2 y 1.
Definición 140: Supremo de un orden

Dado un dominio que tiene un orden parcial ≤ , y tomando un subconjunto


S de ese dominio, un elemento del dominio (no necesariamente de S ) es
el supremo de ese subconjunto S , sup(S ) , siempre y cuando sup(S ) sea
la mínima cota superior de S .
Es decir, sup(S ) :
1. Es una cota superior de S : ∀s en S, sup(S ) ≥ s , y
2. es el mínimo de las cotas superiores de S : sup(S ) ≤ c , para toda
cota superior c .

Como concepto dual del supremo, tenemos al ínfimo.


Definición 141: Ínfimo de un orden
Dado un dominio que tiene un orden parcial ≤ , y tomando un subconjunto
S de ese dominio, un elemento del dominio (no necesariamente de S ) es
el ínfimo de ese subconjunto S , ınf(S ) , siempre y cuando ınf(S ) sea la

337
máxima cota inferior de S .
Es decir, ınf(S ) :
1. Es una cota inferior de S : ∀s en S,ınf(S ) ≤ s , y
2. es el máximo de las cotas inferiores de S : ınf(S ) ≥ c , para toda
cota inferior c .

Como ejemplos de órdenes con supremos e ínfimos, podemos dar muchos tipos de
intervalos de los números reales.
Consideremos el intervalo abierto (−3, 2) , es decir, el conjunto de todos los números
ejemplo 51

estrictamente mayores a -3 y estrictamente menores a 2, aquí pintados de azul:


-5 -4 -3 -2 -1 0 1 2 3 4 5
Cuando consideramos el orden total <, una de las cotas inferiores de ese intervalo
es el número -5. Pero el ínfimo de ese intervalo es el número -3 —pues es el máximo
de las cotas inferiores. Y una de las cotas superiores de ese intervalo es el número
4. Pero el supremo es el número 2 —pues es el mínimo de las cotas superiores. Nota
que ni -3 ni 2, en este caso, pertenecen al conjunto del cual son cotas.

Los ínfimos y supremos, en general, son como las límites más «apretados» de un orden.
Las cotas, en general, sólo nos dicen qué está más arriba o más abajo que el conjun-
to, pero los ínfimos y supremos son como las tapas de un tubo, que lo limitan más
inmediatamente.

13.3.7. Orden bien fundado

13.3.8. Buen orden

13.3.9. Orden denso

Notas

1. Digo que esto se puede hacer al menos conceptualmente debido al debate metafísico entre el nominalismo
y el realismo acerca de las propiedades. Ver Garrett 2006, capítulo 3.

2. En algunos contextos más avanzados, a estas clases de equivalencia se les conoce como rayos.

3. Ver Frege, Los Fundamentos de la Aritmética, Instituto de Investigaciones Filosóficas–UNAM, 1972; Fine,
«Identity Criteria and Ground», Philosophical Studies, 2016.

4. Abajo (????) definiremos la noción de la inversa de una relación, y también (????) a la operación de unión

338
de conjuntos. Con estos conceptos en mano, otra manera de definir a las relaciones totales es así: una
relación es total en un dominio si y sólo si, al unirla con su inversa tenemos la relación trivial.

5. Sobre esto, cf. Irving Copi, Lógica Simbólica (CECSA, 2001), secc. 5.3.

6. Cf. Rudolf Carnap, Meaning and Necessity, The University of Chicago Press, 1975.

7. L.T.F. Gamut, Lógica, Lenguaje y Significado: Lógica Intensional y Gramática Lógica (Editorial Universidad
del Rosario), p. 216.

8. Para más sobre postulados de significado en la formalización de argumentos, ver Jon Barwise & John
Etchemendy (con Dave Barker-Plummer), Language, Proof and Logic (2da edición; CSLI Publications,
2011), secc. 10.5.

9. La tesis de que todo orden parcial estricto se puede extender a un orden total se conoce como el «Teorema
de Extensión de Szpilrajn». Edward Szpilrajn la demostró en 1930. Lo dicho en el texto principal se sigue
de este teorema y del hecho de que todo orden parcial se puede convertir a un orden parcial estricto.

10. Aunque en algunos contextos, es usual el sistema real «extendido», ℝ∗, en el que se agregan un máximo:
+∞, y un mínimo: −∞.

339
340
capítulo

14

Teoría básica de los conjuntos

Contenidos del capítulo

Elemento y extensionalidad 343


Representación extensional, intensional y gráfica 344
El conjunto vacío 345
Subconjunto —impropio y propio 346
Cardinalidad 347
Conjunto potencia 349
Operaciones básicas entre conjuntos 350
Productos cartesianos, secuencias y relaciones 359
Particiones 365

Objetivos de aprendizaje
1.
2.

341
esde que comenzamos a estudiar la lógica cuantificacional clásica de primer orden
D con identidad, LC1=, relacionamos las fórmulas con los modelos. Dijimos que estos
son pares de un dominio y una interpretación, donde el dominio es el conjunto de las
cosas de las que hablamos (de las que cuantificamos y predicamos), y la interpretación
es la manera de entender las constantes y los predicados del lenguaje de LC1= en ese
dominio.
En el siguiente capítulo vamos a profundizar un poco en la teoría formal de los
modelos. Esta teoría de hecho es una subrama bastante amplia de las matemáticas,
que involucra a distintas áreas, pero en su base es una aplicación de la teoría de los
conjuntos. Así que primero nos introduciremos a los aspectos básicos de esta teoría,
para poder definir formalmente las nociones de modelo (definición 165), de verdad en un
modelo (definición 167), de verdad lógica (definición 168) y de argumento válido (definición
169).
Un conjunto es una manera de agrupar cero, una, o más cosas. En realidad, un con-
junto es un tipo de entidad muy simple: lo podemos imaginar—sin alejarnos demasiado
de su verdadera naturaleza—sencillamente como una bolsa transparente que puede
contener cosas adentro. Las cosas adentro de la bolsa son los elementos o miembros
del conjunto, y escribimos a ∈ C para decir que a es un elemento—está dentro de la
bolsa—de C ; a veces simplemente decimos «a está en C ». Imaginamos las bolsas trans-
parentes porque después compararemos sus elementos. Por sí mismos, los conjuntos no
tienen mayor estructura que esto.
Como punto de partida,1 asumimos que los conjuntos no son entidades físicas: no
se pueden ver, oler, oír o tocar. Podemos percibir, quizá algunos de sus elementos—por
ejemplo, los elementos del conjunto que contiene a todas y sólo las piedras grises—, pero
no al conjunto mismo. Se dice, entonces, que los conjuntos son entidades abstractas: no
existen ni en el espacio ni en el tiempo. Hay muchos debates filosóficos alrededor de
tales entidades, pero aquí no entraremos en ello.
Si seguimos con la suposición de que los conjuntos no son físicos, no están en ningún
lado.2 Eso significa que existen conjuntos incluso para cosas que están muy lejos entre
sí, o que no tienen «nada que ver» entre sí.
Muchas3 propiedades «corresponden» a un conjunto, en el sentido de que cualquier
cosa x que tenga una propiedad P va a ser elemento de un conjunto específico, el cual,
a su vez, sólo tendrá como elementos a cosas que también sean P .
Por ejemplo, la propiedad de ser humano que—supongo—tú y yo tenemos (cada uno),
define un conjunto. Llamémosle H a ese conjunto. Que la propiedad defina a H significa
que cualquier cosa del universo que sea un ser humano va a ser elemento de H , y ade-
más, que H contiene como elementos sólo a seres humanos. Es decir, este bicondicional
define a H :
∀x (x ∈ H ≡ x es un ser humano )

342
Lo cual significa que H contendrá a todos y sólo los seres humanos como elementos.
En adelante, usaremos las letras mayúsculas A,B,C como variables para conjuntos;
también usaremos los corchetes izquierdo (« { ») y derecho (« } ») para aclarar que
estamos hablando de conjuntos.

14.1. Elemento y extensionalidad

Como dije antes, un conjunto4 es una entidad muy simple, con muy poca estructura:
sólo es una bolsa de sus elementos. No es nada más. No tiene color u olor; no pesa
nada, ni tiene ninguna altura; no se mueve a ninguna velocidad ni piensa en nada. Un
conjunto sólo es la bolsa de sus elementos.
A la relación «_ es elemento de _», como vimos arriba, la denotamos por «∈». Y la idea
de que un conjunto sólo es la bolsa de sus elementos es una de las reglas esenciales, que
definen lo que un conjunto es, así que le daremos un nombre especial para distinguirla:
es el Axioma de Extensionalidad. (Un «axioma» es una regla que ayuda a definir alguna
entidad u operación abstracta). Esta regla codifica lo que dijimos al expresar que: si
tenemos un conjunto A y un conjunto B, estos van a ser exactamente el mismo—A = B—
siempre y cuando tengan todos sus elementos en común. Es decir:
Definición 142: Axioma de Extensionalidad

∀A∀B [(A = B) ≡ ∀x (x ∈ A ≡ x ∈ B)] (14.1)


(Cualesquiera conjuntos A,B serán idénticos siempre y cuando tengan
exactamente los mismos elementos.)

A partir de Axioma de Extensionalidad, podemos inferir que si al menos un elemento de


un conjunto no lo tiene el otro, entonces son conjuntos distintos.

14.1.1. Notación de infijo

Para la negación de la relación de elemento, usaremos la notación de infijo que ya


usamos con la identidad: así como la negación de la identidad podemos escribirla como
infijo de la forma «a ≠ b», que nos dice lo mismo que la notación en prefijo, «¬(a = b)»;
así podemos usar la negación de «∈» en infijo: «a ∉ A», de manera que signifique
exactamente lo mismo que la notación en prefijo: «¬(a ∈ A)».

343
14.2. Representación extensional, intensional y gráfica

La representación extensional de un conjunto consiste en listar todos sus elementos.


Esta representación es muy útil cuando tratamos con conjuntos finitos—es decir, no
infinitos: sus elementos «se acaban en algún momento»—que también son «pequeños»:
no de un número finito pero muy grande como diez mil millones de trillones (¡o nove-
cientos!). Por ejemplo, si llamamos «P » al conjunto de todos los presidentes de México
en el período 2000–2018, a este conjunto podemos describirlo de manera extensional
así:

P = {Enrique Peña Nieto, Felipe Calderón Hinojosa, Vicente Fox Quezada}

Si recordamos que un conjunto sólo es la bolsa de sus elementos, esto implica que a un
conjunto «no le importan» el orden ni las repeticiones de sus elementos: podemos describir
el mismo conjunto listando sus elementos de varias maneras, incluso repitiéndolos.
Mientras seane exactamente los mismos elementos, tenemos al mismo conjunto. Por
ejemplo, el conjunto de arriba:

P = {EPN, FCH, VFQ} = {FCH, VFQ, EPN},

y de igual forma,

P = {FCH, EPN, FCH, EPN, VFQ, FCH, EPN, EPN}

Todas estas descripciones especifican a exactamente el mismo conjunto, P .


De hecho, podemos describir algunos conjuntos infinitos de manera extensional, si es
que nosotros al escribirlo y las personas que nos lean sabemos a qué nos referimos. Por
ejemplo, podemos describir de manera extensional al conjunto de los números naturales,
ℕ, así:
ℕ = {0, 1, 2, 3, 4, 5, . . .},
si es que nosotros y nuestros lectores sabemos que los tres puntos indican que la lista
continúa infinitamente. En casos en donde no hay tal suposición compartida, la des-
cripción extensional de un conjunto no es útil y puede causar confusión.
La representación intensional de un conjunto consiste en definir todos sus elementos
mediante una propiedad (es decir, una fórmula) que cumplan todos y sólo ellos. Para esto,
usamos una variable y los dos puntos, «:», de manera que {x : Φ[x]} se lea: «el conjunto
de todas las cosas x que son tales que Φ».
Así, el conjunto P de arriba también podemos definirlo así:

P = {x : x es un presidente de México en el período 2000-2018 }

344
Y al conjunto de los números naturales podemos definirlo así (usando un concepto
avanzado que no veremos en este curso):

ℕ = {x : x es un ordinal de von Neumann finito }

Finalmente, una representación gráfica de un conjunto consiste en un diagrama; por


ejemplo, los diagramas de Venn, que nos dicen cómo se relacionan los conjuntos con las
operaciones básicas que veremos abajo (sec. 14.7). No todo conjunto es gráficamente
representable; muchos tienen estructuras muy complicadas que no es fácil o es incluso
imposible representar gráficamente; también, muchos conjuntos tienen muchísimos (algún
número infinito, por ejemplo) elementos, y nunca podríamos representar estos si eso
fuera necesario para los objetivos del diagrama.

14.3. El conjunto vacío

Un conjunto «especial» es el conjunto vacío: el conjunto que no contiene a ningún


elemento, el conjunto tal que ninguna cosa está ∈-relacionada con él. (Por supuesto, el
conjunto vacío puede ser, él mismo, elemento de muchos otros conjuntos, por ejemplo,
∅ ∈ C , de manera que (por ejemplo) C = {∅}.) Lo denotamos con «{}», haciendo ver
que no tiene a ningún elemento adentro, y también como «∅».
Definición 143: Conjunto vacío

Descrito de manera extensional,

∅ = {}
def.

Y descrito de manera intensional,

∅ = {x : x ≠ x }
def.

Como nada es distinto de sí (por la regla de la reflexividad de la identidad, Refl=),


esto es lo mismo que decir que el conjunto vacío es aquel conjunto C tal que ¬∃x (x ∈ C ).
De hecho, pondremos esta fórmula como regla, en la sección 14.7.6.
He hablado de «el» conjunto vacío, presuponiendo que existe un único tal conjunto.
Esto, de hecho, se puede demostrar a partir de la definición de conjunto vacío y del
Axioma de Extensionalidad. Quedará como ejercicio (p. 358) demostrar que:
Sean C y D conjuntos vacíos. Entonces, C = D.
Este teorema—es decir, esta afirmación que se puede demostrar a partir de axiomas y
definiciones usando las reglas que ya tenemos—nos dice, entonces, que cualesquiera
«dos» conjuntos vacíos son, en realidad, uno y el mismo: que el conjunto vacío es único.

345
14.4. Subconjunto —impropio y propio

Es importante distinguir entre un elemento (o miembro) y un subconjunto de un conjunto.


Los primeros son las cosas en la relación ∈ con el segundo: serían los «puntos» dentro
de la «bolsa».
Los segundos, los subconjuntos de un conjunto C son aquéllos conjuntos cuyos ele-
mentos pertenecen, todos y cada uno, a C . Es decir: un subconjunto de C es un conjunto
de cosas que son elementos de C . Otra manera de verlo es: un conjunto D será un
subconjunto de C siempre y cuando todo lo que esté en D está también en C : no hay
nada en D que no esté en C . El símbolo para esta relación es «⊆», y se definiría como
sigue.
Definición 144: Subconjunto

D ⊆ C ≡ ∀x (x ∈ D ⊃ x ∈ C ) (14.2)
def.

Con esta definición, es fácil ver que:


Todo conjunto es subconjunto de sí mismo: ∀C : C ⊆ C .
Esto también queda como ejercicio (p. 358).
Como a veces queremos hablar de los subconjuntos de un conjunto que no son el mismo
conjunto, definimos la relación de subconjunto propio (también llamado «subconjunto
estricto»), que denotamos «⊊».
Definición 145: Subconjunto Propio

D ⊊ C ≡ ∀x (x ∈ D ⊃ x ∈ C ) & ∃x (x ∉ D & x ∈ C ) (14.3)


def.

Es decir, que un conjunto D sea un subconjunto propio de otro C , significa que todo
lo que está en el subconjunto propio, está en el conjunto «mayor» C y además que C
tiene al menos «algo más» que no está en ese subconjunto.
Si D ⊊ C , así como podemos decir que D es un subconjunto propio o estricto de C , así
también podemos decir que C es un superconjunto de D.
Cuando hablamos de conjuntos finitos, es fácil ver que si D ⊊ C , entonces C tiene
más elementos que D: pues todo miembro de D está en C , y este tiene alguno que no
está en D.
Por ejemplo, si H es el conjunto de los seres humanos definido arriba, y P es el
conjunto de los presidentes de México en el período 2000–2018, es fácil ver que P ⊊ H ,
y que H ⊆ H y también P ⊆ P .

346
14.5. Cardinalidad

Como un conjunto es sólo la bolsa de sus elementos, siempre tiene un número definido
de estos. A ese número le llamamos «cardinalidad», y lo denotamos como car d o con
las barras | |. Entonces, definimos, para cualquier conjunto C :
Definición 146: Cardinalidad de un conjunto

car d (C ) = |C | = el número de elementos de C . (14.4)


def.

La cardinalidad de un conjunto finito va a ser algún número natural. Siguiendo con el


ejemplo del conjunto de los presidentes de México en 2000–2018, car d (P ) = 3; mientras
que car d (H ) (usando H = el conjunto de los seres humanos) es un número definido que,
aunque no conozco exactamente, está cercano a 7,000,000,000. Obviamente, |∅| = 0.
Pero no todos los conjuntos son finitos, algunos son infinitos: básicamente, nunca
acabaríamos de listar todos sus elementos.5
Sin embargo, incluso los conjuntos infinitos tienen una cardinalidad, un número defini-
do de elementos. Sólo que este número va a ser un número infinito: mayor que cualquier
número natural. (Escribe el número más grande que se te ocurra: 9,999,999,999,999,999,999,
por ejemplo. O incluso:
10
1010
1010
¡Esto ni siquiera se acerca a un número infinito!)

14.5.1. Los cardinales infinitos *

Por ejemplo, el conjunto de los números naturales,

ℕ = {0, 1, 2, 3, 4, 5, . . .},

es un conjunto infinito: ¡los números nunca se acaban! También lo son el conjunto de


los números enteros,
ℤ = {. . . , −3, −2, −1, 0, 1, 2, 3, . . .},
y muchos otros conjuntos de números.
Aunque en primera instancia podríamos haber pensado que todos los conjuntos infi-
nitos tienen el mismo «tamaño» —¡el infinito!— resulta, de hecho, que existen distintos
números infinitos, unos más grandes que otros. (Estos números también se conocen co-
mo «números transfinitos».) Esto quiere decir que hay conjuntos infinitos que tienen
literalmente más elementos que otros conjuntos que también son infinitos. La demostra-
ción de este hecho se la debemos a Georg Cantor.6

347
Los números infinitos que representan la cardinalidad de los conjuntos infinitos se
conocen como «números alef», y fueron descubiertos por Georg Cantor a finales del siglo
XIX.7 («Alef» es la primera letra del alfabeto hebreo, y se escribe «ℵ»). Estos números
forman una secuencia: así como los números finitos están totalmente ordenados:

0 < 1 < 2 < 3 < 4 < 5 < ...

así también los números infinitos están totalmente ordenados. Entonces, la cardinalidad
de los conjuntos infinitos «más chicos» es ℵ0 , y la cardinalidad de los conjuntos con el
siguiente tamaño infinito es ℵ1 ; mientras que la cardinalidad de los conjuntos con el
siguiente tamaño infinito es ℵ2 , y así sucesivamente:

ℵ0 < ℵ1 < ℵ2 < ℵ3 < ℵ4 < ℵ5 < . . .

De hecho, una manera de entender al primer número cardinal infinito ℵ0 es notando


que es la cardinalidad del conjunto de los números naturales:

|ℕ| = ℵ0 , (14.5)

es decir, la cantidad de números naturales que hay es precisamente ℵ0 .


Cantor demostró que la cardinalidad del conjunto de los números reales, ℝ (que
incluye a los naturales, a los enteros positivos y negativos, a lo fraccionales o racionales
(los que se pueden escribir como una fracción de enteros, n/m), y a los irracionales
(que no se pueden escribir como una fracción de enteros, como 𝜋)) es mayor que la
cardinalidad de ℕ, es decir, que:
|ℕ| < |ℝ|

Estos dos conjuntos ejemplifican el hecho de que existen infinitos más grandes que
otros. Sin embargo, otro aspecto sorprendente de los infinitos es que un subconjunto
estricto de un conjunto infinito puede tener el mismo número de elementos que el superconjunto.
Esta es una diferencia esencial entre conjuntos finitos e infinitos. Pues, si C es un
conjunto finito, todo subconjunto estricto de C va a tener, por necesidad, un número
menor de elementos que C . Pues todo subconjunto estricto va a tener a algunos pero no
todos los elementos de C como miembros.
Sin embargo, esto no siempre sucede con los conjuntos infinitos. Por ejemplo, consi-
deremos el conjunto de los números naturales pares:

ℕpares = {0, 2, 4, 6, 8, . . .},

y al conjunto de los números naturales impares:

ℕimpares = {0, 1, 3, 5, 7, . . .}

348
Ambos son subconjuntos estrictos de ℕ: ¡éste incluye a los pares y a los impares!
Pues bien, se pueden usar argumentos al estilo de la «diagonalización» de Cantor
para demostrar que, de hecho,

|ℕpares | = |ℕ| = |ℕimpares | = ℵ0

Es decir, ¡aunque ℕ tiene (en algún sentido) «más» elementos que esos dos subconjun-
tos estrictos suyos, pues los incluye a ambos, se puede demostrar que la cantidad de
elementos de los tres es exactamente la misma! Este tipo de aparentes «paradojas» son
un aspecto esencial de los conjuntos infinitos.

Vamos a ejercitar los conceptos de estas primeras secciones.


Ejercicio # 65
I
1. Define extensionalmente al siguiente conjunto: {x : 0 ≤ x ≤ 10}.
2. ¿Cuál es la cardinalidad de ∅?
3. Sea H = {x : Humano (x)}. Cita dos subconjuntos estrictos de H (descritos en
lenguaje natural o formalmente, ya sea intensional o extensionalmente).
4. Dado H como se define arriba, define un conjunto que lo tenga como subconjunto
propio.
5. Sean A = {a,b,c } y B = {a,b,d }. ¿Es alguno subconjunto del otro? ¿Por qué?

II
1. Demuestra que el conjunto vacío es único. Es decir, que: para cualquier conjunto
C , si: ¬∃x (x ∈ C ) , entonces C = ∅. (Pista: Usa el Axioma de Extensionalidad.)
2. Supongamos que (dados dos conjuntos particulares C y D ), car d (C ) <
car d (D) . ¿Se sigue que C ⊆ D ? ¿Por qué?
3. Demuestra que ∀C ({} ⊆ C ) .

14.6. Conjunto potencia

Otro conjunto importante que podemos definir para cualquier conjunto es su conjunto
potencia: el conjunto cuyos elementos son todos sus subconjuntos.
Es decir, para cualquier conjunto C —finito o infinito—, siempre podemos definir sus
subconjuntos, propios o impropios: el único subconjunto impropio de C va a ser C
mismo, y los demás van a ser propios (es decir, estrictos).
Entre estos últimos, siempre vamos a encontrar al conjunto vacío: es decir, el con-
junto vacío es subconjunto de todo conjunto, incluyendo, por supuesto, al vacío
mismo. Esto es porque la fórmula universal ∀x (x ∈ ∅ ⊃ x ∈ C ) va a ser verdadera «por

349
vacuidad» para cualquier C que elijamos. Pues, dado que, como dijimos, ∀x (x ∉ ∅),
el antecedente del universal va a ser falso para todo x, lo cual hará al condicional
verdadero para todo x.
Entonces, definimos al conjunto potencia de un conjunto C así:

℘(C ) = {D : D ⊆ C }, (14.6)

y lo que acabamos de ver es que ∅ ∈ ℘(C ), para cualquier conjunto C . (¡Nota que
también es verdad para cualquier conjunto que ∅ ⊆ ℘(C )! ¿Por qué?)
Se conoce como teorema de Cantor a la siguiente afirmación, que Cantor demostró
en 1891 (para todo conjunto, finito o infinito, C ):

car d (℘(C )) = 2car d (C ) . (14.7)

En el caso de nuestro conjunto P de los presidentes definido arriba, es fácil representar


extensionalmente a su conjunto potencia:

℘(P ) = {∅, {EP N }, {V F Q }, {F C H }, {EP N ,F C H }, {F C H ,V F Q }, {EP N ,V F Q },P }

Y se confirma el teorema de Cantor, pues: car d (℘(P )) = 8, car d (P ) = 3 y 8 = 23 .

14.7. Operaciones básicas entre conjuntos

En esta sección vamos a definir algunas de las operaciones que podemos hacer con los
conjuntos. Estas operaciones, a su vez, definen nuevos conjuntos. En secciones poste-
riores (??) veremos cómo estas operaciones se corresponden con la estructura lógica de
las fórmulas de LC1=.

14.7.1. Unión

Si imaginamos a los conjuntos como bolsas transparentes de cosas—que serían sus


elementos—, la unión de dos conjuntos es la operación de «vaciar» ambas bolsas—
todas, sin dejar nada en ninguna—en una tercera. La tercera bolsa es el conjunto unión
de ambos.
Definición 147: Unión
Dados dos conjuntos A y B , su unión es el conjunto definido por:

A ∪ B = {x : x ∈ A ∨ x ∈ B } (14.8)

En términos de los diagramas de Venn, la unión se ve así:

350
A∪B

A B

Por supuesto, en este y los diagramas de abajo, lo que está pintado de azul representa
al conjunto de la operación.
Ejercicio # 66
I
1.
2.
3.
II Sea C 1 = {x : 0 ≤ x ≤ 10}, y C 2 = {A,B,C }. Entonces, dime cuáles son:
1. ℘(C 1 )
2. ℘(C 2 )
3. C1 ∪ C2
4. ℘(C 1 ∪ C 2 )

14.7.2. Intersección

Usando la metáfora de las bolsas transparentes, la intersección es la operación de «com-


parar» o «transponer» las bolsas para ver qué cosas tienen en común. Si no tienen nada
en común, la intersección será vacía—es decir, será el conjunto vacío, ∅. Si tienen ele-
mentos en común, todos ellos los metemos en una tercera bolsa—y sólo a ellos. Esa
tercera bolsa es el conjunto intersección.
Definición 148: Intersección
Dados dos conjuntos A y B , su intersección es el conjunto definido por:

A ∩ B = {x : x ∈ A & x ∈ B } (14.9)

En términos de los diagramas de Venn, la intersección se ve así:

351
A∩B

A B

Como la intersección de dos conjuntos nos dice qué elementos tienen en común, es una
operación conmutativa, en el sentido en que (para cualesquiera conjuntos C y D), se
puede demostrar a partir de las definiciones que hemos visto y las reglas de la lógica
que: C ∩ D = D ∩ C .

14.7.3. Diferencia de conjuntos

La diferencia de A y B, que denotamos con «A − B», nos dice qué cosas no comparte
A con B—y por tanto, es una operación no conmutativa. Otra manera de llamarle es la
resta de conjuntos, o también, «A menos B». Que no sea conmutativa significa que no
es el caso para todos los conjuntos que A − B = B − A.
Definición 149: Resta de un conjunto a otro

El conjunto A menos B es:

A − B = {x : x ∈ A & x ∉ B }, (14.10)

es decir, restarle B a A es tomar los elementos de A que no están en B .

Usando los diagramas de Venn, la diferencia de A menos B se ve así:


A−B

A B

Y, por supuesto, la diferencia B − A se ve así:

352
B −A

A B

14.7.4. Diferencia simétrica

La diferencia simétrica entre dos conjuntos es como si aplicáramos las dos restas A −B y
B −A «al mismo tiempo». También podemos entenderla como la resta de la intersección
a la unión. Una tercera manera de verla es relacionándola con las conectivas proposicio-
nales: así como la intersección corresponde a la conjunción y la unión a la disyunción
inclusiva, la diferencia simétrica corresponde a la disyunción exclusiva. (Recuerda que
la disyunción exclusiva de la lógica de orden cero se define así: «A ⊻ B» significa que o
bien A o bien B, pero no ambos a la vez.) Denotando a la diferencia simétrica con «△»,
la vamos a definir como sigue.
Definición 150: Diferencia Simétrica
Dados dos conjuntos A y B , su diferencia simétrica es el conjunto definido
por:
A△B = {x : x ∈ A ⊻ x ∈ B } (14.11)

Y debería ser fácil ver que las demás definiciones, que son formalizaciones de las
definiciones sugeridas antes, son equivalentes a 14.11, lo cual se queda como ejercicio.
Usando diagramas de Venn, A△B se vería así:
A△B

A B

14.7.5. Complemento relativo

Un caso especial de la diferencia de A menos B es cuando B ⊊ A. En este caso, A es


un superconjunto de B; es decir, A se puede ver como el conjunto «ambiente» en el que
vive B (también conocido como «el conjunto universo» de B). En este caso, restarle B a

353
A significa tomar todo lo que está en el ambiente A pero que no está en B. A este caso
de la resta se le conoce como «complemento relativo».
Usualmente, en la notación se deja implícito el conjunto ambiente, pues se asume que
en el contexto de aplicación se entiende cuál es, y el complemento de B se escribe sim-
plemente «B ′» o «B c ». Aquí nos desviaremos de esta práctica; en la definición, haremos
explícito el conjunto universo de B.
Definición 151: Complemento Relativo

Dados dos conjuntos A y B , en donde B ⊊ A , el complemento relativo de


B en A es:
BA′ = A − B (14.12)

BA′

Por ejemplo, si M es el conjunto de los humanos nacidos en México y H el conjunto


de los seres humanos, MH′ es el conjunto de todos los seres humanos que no nacieron
en México. O, si A es el conjunto de todos los animales, HA′ es el conjunto de todos los
animales que no son seres humanos.

14.7.6. Utilizando LC1= para razonar con conjuntos

Hasta ahora, hemos visto algunos aspectos esenciales de los conjuntos: que se definen
por sus elementos, según nos dice el Axioma de Extensionalidad, que podemos repre-
sentarlos por la fórmula que satisfacen sus elementos (intensionalmente), y a veces,
listando sus elementos (extensionalmente) o mediante diagramas. También que existe
un conjunto, el vacío, que es el único sin elementos; y que todo conjunto tiene subcon-
juntos: uno impropio—que es el mismo conjunto—y los demás impropios o estrictos. Y
revisamos también que todo conjunto tiene una cardinalidad: el número de cosas que
son sus elementos. También hemos visto que para todo conjunto podemos definir su
potencia, que es el conjunto de todos los subconjuntos que se pueden formar con sus
elementos, incluyendo al conjunto mismo y al vacío. Y vimos algunas operaciones con
los conjuntos.
Pero hasta ahora no hemos visto cómo hacer razonamientos con las definiciones que

354
hemos visto para hacer demostraciones. ¿Cómo podríamos hacer demostraciones
en deducción natural del tipo que hemos hecho en los cursos de Lógica?
Para ello, vamos a introducir tres nuevas reglas y una metodología para demostrar
cosas con conjuntos.

Primera regla: equivalencia lógica e identidad de conjuntos

Si a ∈ A y A es definido por una matriz Φ[x], y si a su vez esta matriz es lógicamente


equivalente con otra matriz Ψ[x], entonces a ∈ A siempre y cuando sea verdad que Ψ[a].
Veamos qué significa esto.
Definición 152: Matrices lógicamente equivalentes

Dos matrices, Φ[x] y Ψ[x] , son lógicamente equivalentes siempre y cuan-


do podamos hacer estas dos inferencias:
• suponiendo Φ[â] , usando las reglas podemos inferir que Ψ[â] , y
• suponiendo Ψ[â] , usando las reglas podemos inferir que Φ[â] .

Como ejemplo, las matrices:


Fx ∨ Gx
y:
¬(¬F x & ¬G x)
son lógicamente equivalentes. Pues, si suponemos:

F â ∨ G â,

entonces podemos inferir:


¬(¬F â & ¬G â),
usando la regla de la lógica proposicional, Teorema de De Morgan. Y además, suponiendo
la última, y otra vez usando Teorema de De Morgan, podemos inferir la primera.
Esto simplemente quiere decir que si un conjunto está definido por una matriz—es
decir, si todos y sólo sus miembros son aquellos a los que se aplica con verdad esa
matriz—, y si además esa matriz es lógicamente equivalente con otra—es decir, si a partir
de las reglas de la lógica podemos inferir una de la otra—, entonces ese conjunto está
definido también por la matriz equivalente. Pues para cualquier objeto, es lógicamente
equivalente que satisfaga la primer matriz con que satisfaga la segunda.
Por lo tanto, esta regla está justificada por el Axioma de Extensionalidad:

355
Definición 153: Equivalencia Lógica Preserva Identidad de Conjuntos
(Equiv.)

Si Φ[x] y Ψ[x] son lógicamente equivalentes, entonces, esta inferencia


es válida:

{x : Φ[x]} = {x : Ψ[x]}

Por ejemplo, dado que —como ya vimos arriba— las matrices F x∨G x y ¬(¬F x & ¬G x)
son lógicamente equivalentes, entonces podemos inferir que:

{x : F x ∨ G x } = {x : ¬(¬F x & ¬G x)}

por una aplicación de Equiv.

Segunda regla: implicación lógica y subconjuntos

Aplicando un razonamiento parecido, si una matriz define a un conjunto, y esta im-


plica lógicamente a otra —si usando las reglas podemos inferir que un objeto satisface
la segunda siempre que satisface la primera— entonces el conjunto definido por esta
segunda matriz va a ser un subconjunto del primero. Definamos, entonces, qué es que
una matriz implique a otra.
Definición 154: Matriz que implica lógicamente a otra

Una matriz, Φ[x] implica lógicamente a otra Ψ[x] , siempre y cuando: su-
poniendo Φ[â] , usando las reglas podemos inferir que Ψ[â] .

Por ejemplo, la siguiente matriz:

Fx & Gx

implica lógicamente a esta matriz:


Fx
porque, si suponemos F â & G â, entonces podemos inferir F â, usando la regla de la
lógica proposicional, Eliminación de la Conjunción.
Entonces, tenemos justificada esta otra regla:
Definición 155: Inferencia Lógica Preserva Subconjuntos (Inf.)

Si Φ[x] implica lógicamente a Ψ[x] , entonces, esta inferencia es válida:

{x : Φ[x]} ⊆ {x : Ψ[x]}

356
Como ejemplo, debido a que la matriz F x & G x implica lógicamente a F x, Inf. me
permite inferir que: {x : F x & G x } ⊆ {x : F x }.

Tercera regla: autoidentidad de conjuntos

Finalmente, todo conjunto que exista, es definible por la matriz que se refiere a pertenecer
a ese conjunto. Esto justifica la última nueva regla:
Definición 156: Autoidentidad de conjuntos (AId)

Esta inferencia es válida:

A = {x : x ∈ A}

Usando las tres reglas

Como nota «práctica»: para usar las tres reglas de arriba, no necesitamos demostrar
que dos matrices son equivalentes o que una implica a la otra, sólo necesito que justi-
fiques esta equivalencia o esta inferencia a partir de la regla que se podría usar para
demostrarla. Veamos esto con los ejemplos de abajo.

Usando la primera regla (Equiv.), podemos demostrar que A ∪ B = B ∪ A de esta


manera muy sencilla:
1. A ∪ B = {x : x ∈ A ∨ x ∈ B } Def.∪
2. B ∪ A = {x : x ∈ B ∨ x ∈ A} Def.∪
3. ∀x [(x ∈ A ∨ x ∈ B) ≡ (x ∈ B ∨ x ∈ A)] Conmutatividad∨
4. {x : x ∈ A ∨ x ∈ B } = {x : x ∈ B ∨ x ∈ A} Equiv.(3)
5. A ∪ B = {x : x ∈ B ∨ x ∈ A} Sust.Id.(1,4)
6. A ∪ B = B ∪ A Sust.Id.(2,5)
ejemplo 52

En el paso (3), no demostré que las dos matrices, (x ∈ A ∨x ∈ B) y (x ∈ B ∨x ∈ A)


son lógicamente equivalentes, solamente lo justifiqué diciendo que lo son si uno usa
la regla proposicional de Conmutatividad∨. También, en las líneas (1) y (2), usé la
definición de la unión; la idea es usar las definiciones de cada operación mediante
las fórmulas que he dado para ellas.
...................................................................................
Usando la segunda regla, (Inf.), podemos demostrar que A ⊆ A ∪ B también muy
fácilmente:

1. A ∪ B = {x : x ∈ A ∨ x ∈ B } Def.∪
2. ∀x [x ∈ A ⊃ (x ∈ A ∨ x ∈ B)] Introd.∨
3. {x : x ∈ A} ⊆ {x : x ∈ A ∨ x ∈ B } Inf.(2)

357
4. A ⊆ {x : x ∈ A ∨ x ∈ B } Sust.Id.(3)
5. A ⊆ A ∪ B Sust.Id.(1, 4)

Como antes, en (2) no demostré que la matriz x ∈ A implica a la matriz (x ∈ A ∨ x ∈


B) , pero se ve que lo hace a partir de la regla Introd.∨.

Ejercicio # 67
I * Demuestra que: si C y D son conjuntos vacíos, entonces, C = D .

II * Demuestra que: todo conjunto es subconjunto de sí mismo: ∀C : C ⊆ C .

III Demuestra la transitividad de la relación de subconjunto, es decir, que: si A ⊆ B


y B ⊆ C , entonces A ⊆ C .

IV Da un caso (es decir, un par de conjuntos concretos A y B ) en el que A ⊆ B


pero no B ⊆ A .

V Demuestra la propiedad conmutativa de la unión, es decir, que C ∪ D = D ∪ C .

VI También demuestra la propiedad asociativa, es decir, la fórmula:


(C ∪ D) ∪ E = C ∪ (D ∪ E) .

VII También que A ∪ ∅ = A .

VIII Demuestra que: si A ⊆ B , entonces A ∪ B = B .

IX Demuestra que las siguientes definiciones del conjunto diferencia simétrica son
equivalentes a 14.11, en el sentido de especificar el mismo conjunto:
(a) A△B = (A − B) ∪ (B − A)
(b) A△B = (A ∪ B) − (B ∩ A)
X Demuestra que A ∩ B = B ∩ A (la conmutatividad de la intersección).

XI También demuestra su asociatividad: (A ∩ B) ∩ C = A ∩ (B ∩ C ) .

XII También demuestra que A ∩ ∅ = ∅.

XIII También demuestra que: si A ⊆ B , entonces A ∩ B = A .

358
XIV Demuestra la distributividad de la unión con la intersección y viceversa:
primero, A ∪ (B ∩C ) = (A ∪ B) ∩ (A ∪C ) ; segundo, A ∩ (B ∪C ) = (A ∩ B) ∪ (A ∩C ) .

XV Demuestra que si A ∩ B = ∅, entonces, A − B = A y B − A = B .

XVI También demuestra que la diferencia simétrica es conmutativa: A△B = B △A .

XVII Y que es asociativa: (A△B)△C = A△(B △C ) .

14.8. Productos cartesianos, secuencias y relaciones

14.8.1. Par ordenado

Vimos antes (secc. 14.2) que, para los conjuntos, no importa ni el orden ni el número
de apariciones en que listemos sus elementos. En ese sentido, los conjuntos no son una
«lista», sólo son una «bolsa» de sus elementos. Es por eso que si un conjunto A es
{a,b,c }, es el mismo que {b,b,a,b,c ,a}.
Sin embargo, para muchas aplicaciones nos interesa utilizar listas, no meras bolsas,
de cosas. Los pares ordenados son listas de exactamente dos cosas—de ahí su nombre.
(Usamos los «paréntesis angulares» para denotar listas: «⟨» y «⟩».) A los pares ordenados
sí «les importa» el orden de sus elementos, de manera que ⟨a,b⟩ no es el mismo par que
⟨b,a⟩—a menos, claro está, que a = b. Y por supuesto, también «les importa» el número
de apariciones de sus elementos, pues un par ordenado debe contener dos elementos—
aunque sea el mismo objeto listado dos veces—, no uno, ni tres, ni más. Entonces, el
par ordenado ⟨a,a⟩ no es el mismo que la lista de la misma cosa una sola vez: ⟨a⟩.
Como queremos que los pares sean cosas a las que sí «les importa» el orden y el
número de apariciones, los definimos como las entidades que cumplan con lo siguiente.
Definición 157: Par ordenado

⟨a,b⟩ = ⟨c ,d ⟩ ≡ a = c y b = d. (Par ordenado)


def.

Esta definición es suficiente para entender qué son los pares ordenados, pero se pue-
den dar definiciones más formales que muestren cómo es que un par ordenado es siem-
pre un tipo especial de conjunto.8 Para nuestros propósitos, lo único esencial es tener en
mente que un par ordenado es una lista de exactamente dos cosas (o el mismo elemento
repetido dos veces) en la que el orden es importante.

359
14.8.2. Producto cartesiano

El producto cartesiano entre dos conjuntos es la operación que nos permite formar
pares ordenados tomando elementos de esos dos conjuntos. En el producto cartesiano,
el orden importa, pues con esto vamos a formar pares ordenados, en los que el orden
importa.
Usando «×» para denotar a esta operación, lo anterior implica que nunca va a suceder
que: A × B = B × A —a menos que A = B. (En esto, en que falla la conmutatividad, el
producto cartesiano es distinto del producto o multiplicación de los números reales: por
ejemplo, 3 · 4 = 4 · 3.)
La operación de producto cartesiano se define como sigue.
Definición 158: Producto cartesiano
El producto cartesiano de un conjunto A con un conjunto B se escribe
«A × B » y es idéntico al conjunto: {⟨a,b⟩ : a ∈ A & b ∈ B }.

Es decir, A × B es el conjunto de todos los pares ordenados tales que su primer


elemento pertenece a A, y su segundo elemento pertenece a B.
Por ejemplo, sean:

A = {x : x es un presidente de México en el período 2000-2018}


= {EPN, FCH, VFQ},

y:

B = {x : x es un presidente de EUA en el período 2000-2018}


= {BC, GB, BO, DT}

Entonces, el siguiente conjunto es el producto cartesiano A «cruz» B:

A×B = {⟨FCH, BC⟩, ⟨FCH, GB⟩, ⟨FCH, BO⟩, ⟨FCH, DT⟩,


⟨EPN, BC⟩, ⟨EPN, GB⟩, ⟨EPN, BO⟩, ⟨EPN, DT⟩,
⟨VFQ, BC⟩, ⟨VFQ, GB⟩, ⟨VFQ, BO⟩, ⟨VFQ, DT⟩}

Ahora bien, el producto cartesiano B «cruz» A, sería:

B ×A = {⟨BC, VFQ⟩, ⟨BC, FCH⟩, ⟨BC, EPN⟩,


⟨DT, VFQ⟩, ⟨DT, FCH⟩, ⟨DT, EPN⟩,
⟨GN, VFQ⟩, ⟨GB, FCH⟩, ⟨GB, EPN⟩,
⟨BO, VFQ⟩, ⟨BO, FCH⟩, ⟨BO, EPN⟩}

360
Como con la multiplicación de números, podemos definir una operación de exponen-
ciación. En los números, la exponenciación funciona así: cuando r es un número, r n es
ese mismo número multiplicado por sí mismo n veces. Así,

34 = 3 · 3 · 3 · 3 = 81

Con los conjuntos, la «exponenciación» significa solamente hacer el producto carte-


siano del conjunto consigo mismo tantas veces como diga el exponente.
Definición 159: Exponenciación con producto cartesiano

C n = El conjunto que resulta de tomar el producto cartesiano de C consigo


n veces.

Por ejemplo,
C 2 = C × C = {⟨a,b⟩ : a ∈ C y b ∈ C }

Usando el ejemplo de arriba, en el que

A = {x : x es un presidente de México en el período 2000-2018},

tendríamos:
A2 = A × A = {⟨FCH, FCH⟩, ⟨FCH, VFQ⟩, ⟨FCH, EPN⟩,
⟨EPN, FCH⟩, ⟨EPN, EPN⟩, ⟨EPN, VFQ⟩,
⟨VFQ, FCH⟩, ⟨VFQ, VFQ⟩, ⟨VFQ, EPN⟩}

14.8.3. Listas de dos o más elementos: n-secuencias o «n-tuplas»

En la multiplicación de números, nada nos impide multiplicar más de dos números. Así,
como 2 · 4 = 8 y como 8 · 3 = 24, entonces podemos usar los paréntesis para agrupar las
operaciones y tener: (2 · 4) · 3 = 24. La multiplicación entre números tiene la propiedad
de ser asociativa,9 es decir: (2 · 4) · 3 = 2 · (4 · 3), y también conmutativa, es decir:
(2 · 4) · 3 = 3 · (2 · 4). Juntando ambas propiedades, vemos que a la operación de la
multiplicación «no le importa» qué multipliquemos antes, siempre que multipliquemos
lo mismo: es el famoso dicho «El orden de los factores no altera el producto».
También podemos multiplicar más de dos conjuntos con producto cartesiano. Pero,
¡cuidado! Como no es lo mismo A × B que B × A (a menos, otra vez, que A = B),
entonces aquí ¡el orden de los factores sí altera el producto!
Vimos antes que el producto cartesiano de A con B nos da el conjunto de todos los
pares ordenados que se pueden formar tomando, como primer elemento, un elemento
de A, y como segundo elemento, un elemento de B. Si ahora hacemos una tercera

361
multiplicación: A × B × C , ¿qué nos daría?
Respuesta: nos daría el conjunto de todas las tripletas, o tríadas, ordenadas que
se pueden formar tomando, como primer elemento, un elemento de A, como segundo
elemento, un elemento de B, y como tercer elemento, un elemento de C . Las tripletas
ordenadas, como los pares ordenados, son listas: conjuntos a los que les importa el orden
y el número de apariciones de sus elementos. Una tripleta siempre tiene exactamente
tres elementos, y dos listas de esos tres elementos en distinto orden van a ser dos
distintas tríadas; por ejemplo:
⟨a,b,c ⟩ ≠ ⟨a,c ,b⟩,
si es que (por supuesto) b ≠ c . Entonces, la definición del conjunto que nos resulta de
aplicar el producto cartesiano entre tres conjuntos, sería:

A × B × C = {⟨a,b,c ⟩ : a ∈ A,b ∈ B y c ∈ C } (14.13)

Nota que no es necesario usar paréntesis para decir cuál operación hacemos primero:
siempre que tengamos A × B × C , sabremos que primero debemos tomar un elemento
de A, luego uno de B, y finalmente uno de C . Pues, como vimos, el orden de los factores
sí afecta el producto, así que la notación ya nos dice qué tomar antes y qué después.
Por supuesto, podemos usar la exponenciación básicamente como antes: si S es cual-
quier conjunto, entonces:

S 3 = S × S × S = {⟨a,b,c ⟩ : a ∈ S,b ∈ S, y c ∈ S }

La generalización es obvia.
Definición 160: Potencia n
Si n es cualquier número natural mayor o igual a 1,

Sn = S × S × . . . × S (Potencia n)
| {z }
n veces

Pregunta: ¿A qué conjunto va a ser idéntico el conjunto determinado por la fórmula


«Potencia n»? Respuesta: ¡Fácil! Al conjunto formado por todas las listas que tengan
esta forma:
⟨s1 ,s2 , . . . ,sn ⟩,
donde cada uno de s1 ,s2 , . . . ,sn son elementos de S .
Estas listas ya no contienen dos o tres elementos, sino n. Como con los pares y las
tríadas, les importa el orden y el número de apariciones. Les podemos llamar «listas
de n elementos», pero los nombres más oficiales son «n-secuencias» o «n-adas ordenadas»
(generalizando a partir de «tríadas»), también se usan «n-tuplas» o «n-pletas» (generali-
zando desde «duplas» o «tripletas»).

362
Lo importante es que una n-secuencia es una lista de n elementos: le importa el orden
y el número de apariciones. Por ejemplo, los elementos de:

A × B × C × A,

van a ser 4-secuencias, cada una de las cuales tendrá (obviamente) como primer ele-
mento, un elemento de A, luego un elemento de B, luego uno de C y como cuarto
elemento, uno de A (no necesariamente idéntico al primero).

14.8.4. Relaciones entre conjuntos

Resulta que podemos definir relaciones entre los elementos de conjuntos, usando lo
que ya hemos visto. Por ejemplo, decir que R es una relación de dos lugares entre los
elementos de A y B, es simplemente decir que:

R ⊆ A×B

Esto solamente quiere decir que una relación de dos lugares entre los elementos de A
y de B va a ser un subconjunto (quizá estricto, quizá no) del producto cartesiano entre
ambos conjuntos. Es decir, R va a ser un conjunto de pares ordenados que tienen como
primero en la lista un elemento de A y como segundo uno de B.
Por supuesto, podemos hablar de una relación entre elementos de un mismo conjunto.
Por ejemplo, una relación de dos lugares, R, entre los elementos de A sería:

R ⊆ A2

La generalización es, otra vez, obvia. Una relación S de tres lugares entre los elemen-
tos de A sería:
S ⊆ A3 ,
y así.
Entonces, una relación de tres lugares entre los conjuntos A y B dependería de si
toma dos elementos de A y uno de B, o dos de B y uno de A (por supuesto, si toma
a los tres de uno solo, entonces en realidad no es «entre A y B»), y en qué orden. Una
posible sería una relación S ⊆ A × A × B, y otra sería una relación R ⊆ B × A × B,
etcétera.
Hay más posibilidades. Una relación entre tres conjuntos A,B,C sería simplemente un
subconjunto de sus productos cartesianos. De nuevo, dependería qué elementos tome
primero, así que podríamos tener un subconjunto de A × B ×C , o de B ×C × A, etcétera.
Veamos un ejemplo concreto. Consideremos la relación:
«_ es hermano de _»,

363
que es de dos lugares. Supongamos que tenemos el conjunto:

C = {C arlos Salinas, Ricardo Salinas, V icente F ox, F elipe C alderón},

y que queremos saber cuál sería la relación de arriba en ese conjunto. Entonces, siendo
muy informales (abajo veremos esto formalmente: secc. 15.3),
_ es hermano de _ ⊆ C 2 ,
y, explícitamente (y usando las iniciales como abreviaciones), tendríamos:

_ es hermano de _ = {⟨CS, RS⟩, ⟨RS, CS⟩}

Veamos otro ejemplo. Consideremos la relación:


«_ está entre _ (arriba) y _ (abajo)»,
que es de tres lugares. Supongamos que tenemos este conjunto, A:

{Centroamérica, Norteamérica, Sudamérica, Polo Norte, Polo Sur}

y que también queremos saber cómo se vería la relación de tres lugares en ese conjunto.
Como es de tres lugares (y siendo informales otra vez),

_ está entre _ y _ ⊆ A 3

Siendo completamente explícitos (y usando las abreviaciones obvias), tendríamos:

_ está entre _ y _ = { ⟨Cen, Nor, Sud⟩, ⟨Cen, Nor, PSur⟩, ⟨Cen, PNorte, PSur⟩,
⟨Cen, PNorte, Sud⟩, ⟨Nor, PNorte, Cen⟩, ⟨Nor, PNorte, PSur⟩,
⟨Nor, PNorte, Sud⟩, ⟨Sud, PNorte, PSur⟩, ⟨Sud, Nor, PSur⟩,
⟨Sud, Cen, PSur⟩ }

14.8.5. Productos cartesianos y operaciones básicas

Es claro que los productos cartesianos pueden hacerse entre operaciones de otros con-
juntos.
Por ejemplo, si A es el conjunto de los presidentes mexicanos en el período 2000-
2018, y B el de los presidentes estadunideneses en el mismo período, es obvio que
en A ∪ B vamos a encontrar a personajes como Peña Nieto y como Bush. Ahora, si
definimos (A ∪ B) × A (nota que esto es muy distinto a: A ∪ (B × A)), en este conjunto
encontraremos pares como ⟨Peña, Peña⟩ y como ⟨Fox, Peña⟩ y como ⟨Bush, Fox⟩.

364
14.9. Particiones

Notas

1. Digo que «como punto de partida», aunque lo que sigue es muy debatido en filosofía de las matemáticas.
Veáse, por ejemplo, Penelope Maddy: Realism in Mathematics, Oxford University Press, 1992.

2. Este condicional también es discutible. David Lewis cree que los conjuntos están multi-localizados, pre-
sentes en donde estén cada uno de sus elementos, (ver su Sobre la Pluralidad de los Mundos, Instituto de
Investigaciones Filosóficas, UNAM, 2015). De nuevo, no discutiremos estas cuestiones metafísicas aquí.

3. Un error que cometió uno de los más grandes lógicos de la historia, Frege, fue suponer que aquí podía
decir «todas». Otro gran lógico, Russell, le demostró que esto llevaría a contradicciones. Este episodio
dio lugar a una larga y compleja historia, que fue tremendamente fructífera en la lógica, la filosofía y las
matemáticas.

4. Aquí debería hacer alguna cualificación: «qua conjunto», «en y por sí mismo», o «considerado sólo en
tanto conjunto»; pues para muchos conjuntos podemos definir más y más estructura. Sin embargo, esto
no hará mucho sentido hasta que terminemos esta sección.

5. Esto, de hecho, es debatido. Si existe un tipo de procesos, al menos teóricamente posibles, que se conocen
como «supertareas», sería posible contar los elementos de un conjunto infinito en un tiempo finito. Usando
el concepto de «infinito contable» que veremos abajo, una supertarea se define como «una secuencia
contablemente infinita de operaciones que ocurren secuencialmente dentro de un intervalo finito de
tiempo». Es un debate abierto la cuestión de si las supertareas son o no lógicamente posibles (cf. James
F. Thomson, «Tasks and Super-Tasks», Analysis, 1954; Paul Benacerraf, «Tasks, super-tasks, and modern
Eleatics», Journal of Philosophy, 1962); pero se ha argumentado que son incompatibles con las leyes de
la naturaleza, es decir, que son físicamente imposibles (Gustavo E. Romero, «The collapse of supertasks»,
Foundations of Science, 2013).

6. Esto se conoce como el argumento de la diagonal de Cantor, que él publicó en 1891: «Über eine elementare
Frage der Mannigfaltigkeitslehre», en Mathematische Annalen.

7. Cantor describió los números transfinitos en una serie de artículos en la revista Mathematische Annalen, e
introdujo la notación de los alefs en «Beiträge zur Begründung der transfiniten Mengenlehre», Mathema-
tische Annalen, 1895, traducido en la compilación Contributions to the Theory of Transfinite Numbers, Dover,
1954.

8. La definición formal de un par ordenado es la definición de Kuratowski: ⟨a,b⟩ = {{a}, {a,b }}. Esta definición
implica lo que queremos que «signifique» un par ordenado, según la definición Par ordenado: como
⟨a,b⟩ = {{a}, {a,b }} y ⟨c ,d ⟩ = {{c }, {c ,d }}, entonces {{a}, {a,b }} = {{c }, {c ,d }} si y sólo si a = c y
también b = d . Para verlo, razonemos suponiendo que ésta última conjunción es falsa; por teorema de De
Morgan, esto nos lleva a que o bien es falso que a = c o bien es falso que b = d . Usemos eliminación de ∨ y
Modus Tollens. Entonces, supongamos que a ≠ c . Entonces {a} ≠ {c } y también {a,b } ≠ {c ,d }, con lo que
{{a}, {a,b }} ≠ {{c }, {c ,d }}. Para ver el otro disyunto, supongamos que b ≠ d . Entonces, {a,b } ≠ {c ,d },
de lo cual de nuevo se sigue que {{a}, {a,b }} ≠ {{c }, {c ,d }}. Así, si es falso que a = c & b = d , entonces es
falso que {{a}, {a,b }} = {{c }, {c ,d }}; por transposición, esto muestra que la identidad de estos conjuntos

365
implica que a = c & b = d ; con lo que también implica la identidad de los pares. Un argumento parecido
muestra que la identidad de los pares implica la identidad de estos conjuntos.

9. Para más sobre las propiedades de las operaciones, ver el apéndice ??.

366
capítulo

15

Teoría de modelos básica

Contenidos del capítulo

Funciones 368
Definición del lenguaje de LC1= 372
Modelos, otra vez 375
Verdad en un modelo para LC1= 379

Objetivos de aprendizaje
1.
2.

367
15.1. Funciones

ara definir modelos formalmente, vamos a necesitar de funciones, pues hablaremos


P de la «función de interpretación» (y de otras, como la «función de asignación de
variables» que veremos).
Como primer acercamiento, una función es una regla de asociación entre dos con-
juntos, de manera que a un elemento del primer conjunto le corresponde un único
elemento del segundo. Vamos por partes.
Que una función sea una regla significa que está bien definida: es decir, que hay una
manera de especificarla, de definirla. Por ejemplo, podemos definir la función sucesor,
que a cada número natural le asigna su sucesor (el número que le sigue). Entonces,
sucesor se define por la regla: «¡si n es un número natural, dame su sucesor! »
Y la regla es una regla de asociación porque nos asocia a un elemento—que llama-
remos su entrada o «input»—con el resultado, valor o salida, que es el elemento que
obtenemos tras aplicar la función a la entrada. Por esta razón, también a las funcio-
nes también se les conoce como «reglas de transformación»: una función toma una
entrada y la transforma en su resultado.
En la sección 6.1 puedes encontrar más explicaciones sobre el concepto de función.
En esa sección, dijimos que una función es una regla de asociación entre dos conjun-
tos: toma elementos de un conjunto —el conjunto de las entradas— y nos devuelve
elementos del segundo conjunto —el conjunto de las salidas.
Pero, en realidad, una función puede asociar elementos del mismo conjunto, sólo que
tomado dos veces; o puede asociar elementos de más de dos conjuntos, siempre que los
«combinemos» para poder formar dos. Veamos cómo entender esto.
El conjunto de entradas y el de las salidas pueden ser el mismo, de manera que la
función tome entradas en un conjunto, las «procese» y nos devuelva valores del mismo
conjunto. En este sentido, la función «va» de un conjunto a ese mismo conjunto, solo
que «tomado» dos veces.
Este un ejemplo de esto. Tomemos al conjunto: {x : x es un personaje fictio }. Supon-
gamos que definimos la función f = Padre con la regla: ¡para cada entrada, dame su padre!
Entonces (¡spoiler!):
f (Luke Skywalker) = Darth Vader
y también,
f (Superman) = Jor-El
Entonces, para definir la función f , «tomamos» al conjunto de los personajes ficticios
dos veces: primero para especificar las entradas de la función, y luego para decir cómo
«actúa» esta función en las entradas.

368
Pero una función también puede tomar, o devolvernos, elementos de «más de un
conjunto». Sólo que, como dijimos, primero tiene que «combinarlos». Por ejemplo, si
hacemos operaciones con conjuntos, como la unión o el producto cartesiano. Veamos
un ejemplo. Supongamos que queremos definir una función que, para cada pareja de
seres humanos que estén casados, nos devuelva el número de años que llevan de casados
(a 2018, obviamente). Parecería que la función va a tomar seres humanos y números
positivos, pero hay un detalle: no puede tomar seres humanos «solitos»: ¡queremos que
nos diga de una pareja cuánto llevan casados!
La solución es obvia: usamos producto cartesiano. Sea H el conjunto de los seres
humanos; definimos C como la relación en H de «estar casado con»: es decir, C ⊊ H × H ,
de manera que un par de humanos ⟨a,b⟩, que obviamente es elemento de H × H , va
a ser elemento de C siempre y cuando a esté casadx con b. Entonces, la función que
llamaremos «g », tomará un elemento de C —es decir, una pareja de seres humanos que
estén casados—y nos devolverá un elemento de ℕ—es decir, un número natural. Por
ejemplo,
g (⟨Samuel L. Jackson, LaTanya Richardson⟩) = 38
Por poner otro ejemplo,

g (⟨Michelle Obama, Barack Obama⟩) = 26

Y si dos personas, x y y no llevan todavía ni el año de casadas, g (⟨x, y⟩) sería idéntico
a 0. (Es usual eliminar los paréntesis angulares de la notación de las funciones, cuando
queda entendido que la función toma elementos de un producto cartesiano como en-
tradas; de manera que lo que acabo de decir se escribiría un poco más simplemente:
g (x, y) = 0.)
La notación que se usa para definir de qué conjunto tomamos la entrada y de cuál la
salida de una función f , es la siguiente:

f : E −→ S,

donde E es el conjunto de las entradas y S el de las salidas. Así, para definir «de dónde
viene y a dónde va» la función Padre que definimos arriba, escribimos:

f : {x : x es un personaje fictio } −→ {x : x es un personaje fictio },

y para la función que nos devuelve los años de casados de una pareja de seres humanos,
escribiríamos así:
g : C −→ ℕ,
O, más explícitamente,
g : C ⊊ H × H −→ ℕ

369
Para la función sucesor de la que hablamos antes, tendríamos:

s uce sor : ℕ −→ ℕ

Sólo nos falta la notación para la regla que define a la función. En muchos ámbitos,
es usual definir a las funciones—especificar las reglas–con esta notación (fíjate que
también es una flecha, pero con una «colita», y que no va de conjuntos a conjuntos, sino
de entradas al valor correspondiente):

f (x) ↦−→ y,

donde y es el valor que resulta de aplicarle f a una entrada x, y en el que definimos la


regla. Por ejemplo, para el caso de la función sucesor, escribiríamos:

s uce sor (x) ↦−→ x + 1,

y para el de la función Padre:

f (x) ↦−→ el padre de x,

mientras que, para la función años de casados:

f (x, y) ↦−→ n,

donde n es el número de años de casados de la pareja de x y y. Otra notación usual (en


algunos ámbitos) para definir una función es así:

f (x) := y

Por ejemplo,
s uce sor (x) := x + 1

Las salidas también pueden tomarse de más de un conjuntos, cuando «combinamos»


estos, mediante operaciones, para formar el conjunto de valores o salidas. Veamos un
ejemplo.
Sea A el conjunto de los años del siglo XX: de 1900 a 1999. Entendiéndolos co-
mo números, es claro que A ⊊ ℕ, pues A, otra vez, es el conjunto de los números:
{1900, 1901, . . . , 1999}. Consideremos un subconjunto estricto de A: el conjunto M de
los años en los que hubo Mundiales de fútbol. (Por ejemplo, 1970 ∈ M , pero 1971 ∉ M .)
Ahora, al conjunto de selecciones nacionales de fútbol en los Mundiales del siglo XX,
llamémosle S . Entonces, definamos la función h:

h : M −→ S × S

370
de manera que:

 ⟨x, y⟩ es el par de los finalistas del año n


h (n) −
↦ → ⟨x, y⟩ x es el campeón

 y es el segundo lugar

Es decir, h es la función que nos devuelve, para cada año, el par ordenado de los
finalistas del Mundial en ese año, teniendo como primer elemento al campeón y como
segundo al segundo lugar. (Por ejemplo, h (1998) = ⟨Francia, Brasil⟩.)
Es evidente que, para cada entrada de h—es decir, para cada número de año del siglo
XX en el que haya habido un Mundial—existe un único valor: un único par ordenado
que satisface: ser el par de los finalistas, teniendo al campeón en el primer lugar, y
teniendo al segundo lugar en el segundo lugar. Nota que si no hubiéramos especificado
estas condiciones, h no sería una función:
• Si sólo hubiéramos dicho «h (n) es la función que nos da a los finalistas del Mundial
del año n», h (1998) hubiera sido... ¿Brasil? ¿Francia? ¡No está bien definido!
• Si sólo hubiéramos dicho «h (n) es la función que nos da el par de los finalistas del
Mundial del año n», h (1998) hubiera sido... ¿<Brasil, Francia>? ¿<Francia, Brasil>?
¡Tampoco está bien definido!
Así que: una función siempre nos da un único valor (para cada entrada); ese único
valor puede contener más de una cosa, si es una secuencia ordenada, pero en ese caso
tenemos que especificar cuál secuencia específica es el valor de la función.
Esto implica que, por ejemplo, no hay una función definida por la regla ¡para todo
papá, dame su hijo!, pues alguien que tenga más de un hijo va a hacer que la «función»
que definiríamos así nos diera más de dos valores. Sin embargo, si cambiáramos la
definición por: ¡para todo papá, dame su hijo primogénito!, entonces sí que tendríamos una
función.
De hecho, aunque «¡para todo papá, dame su hijo! » no define a una función, sí define a
una relación: la relación, por supuesto, «_ es padre de _», que tiene como elementos a
pares como <Raúl Salinas Lozano, Carlos Salinas de Gortari>y <Raúl Salinas Lozano,
Raúl Salinas de Gortari>.

Funciones, relaciones y conjuntos

Es usual tomar a las relaciones como un tipo de conjuntos—a saber, subconjuntos de


los productos cartesianos de los conjuntos que están relacionados; también es usual
identificar a las funciones con un tipo de relaciones.
Una función va a ser una relación que cumpla la propiedad (¡sorpresa!) de funciona-
lidad. La funcionalidad es, como la transitividad o la anti-simetría, una propiedad de
las relaciones. Veamos.

371
Si f es una función que va de A a B—es decir, si:
f : A −→ B,
entonces:
f ⊆ A×B
Es decir, f es una relación entre A y B. Que la relación tenga la propiedad de la
funcionalidad significa que
Para todo ⟨a,b⟩ ∈ A × B, si ⟨a,b⟩ ∈ f , entonces ⟨a,c ⟩ ∉ f , para todo c ≠ b.
Esto solamente dice lo que ya habíamos dicho sobre las funciones: que para cada en-
trada, nos dan un único valor. Pues cuando decimos «⟨a,b⟩ ∈ f », eso es simplemente
lo que arriba hemos escrito como «f (a) = b». Y cuando sucede eso, entonces no va a
suceder que f (a) = también sea c (si es que c ≠ b), pues eso significaría que la «fun-
ción» nos daría dos valores distintos para la misma entrada. Eso es lo que decimos con
«⟨a,c ⟩ ∉ f ».
Entonces, como vimos arriba, «¡para todo papá, dame su hijo! » no define a una función,
pero sí define a una relación—es decir, a una relación que no tiene la propiedad de la
funcionalidad.

15.2. Definición del lenguaje de LC1=

En esta sección vamos a definir el lenguaje formal de la lógica LC1=. Esto ya lo hicimos
en la sección 10.1, aunque de manera informal. Ya que sabemos lo suficiente sobre los
conjuntos, podemos definirlo de manera formal.
Primero definimos el «alfabeto»: el conjunto de símbolos. Este conjunto es el conjunto
de las constantes, variables, y predicados.
Definición 161: Alfabeto de LC1=
• El lenguaje LLC1= = Cons ∪ Var ∪ Pred ∪ {¬, ∨, ⊃, ∧, =, ∃,∀}, donde:
• Cons = {a,a 1 ,a 2 , . . . ,b,b 1 , . . . , }
• Var = {x,x 1 ,x 2 , . . . , y, y 1 , . . . , z 1 , . . .}
• Predn = {F n ,F1n ,F2n , . . . ,H n ,H1n , . . . ,R 1n , . . .} (este es el conjunto
de los predicados de n lugares)
Ð
• Pred = n∈ℕ ( Predn ) = Pred1 ∪ Pred2 ∪ Pred3 ∪ Pred4 ∪ . . . (este
es el conjunto de los predicados de cualesquiera lugares)

Lo siguiente es definir las fórmulas del lenguaje, con reglas formales. Vamos primero
a definir el conjunto TLC1= de los términos, el conjunto ALC1= de las matrices abiertas
(subfórmulas con al menos una variable libre) y finalmente el conjunto FLC1= de las
fórmulas del lenguaje.

372
Dado que, por el contexto, es obvio que siempre nos estamos refiriendo al lenguaje
de LC1=, dejaremos implícito esto y ya no lo pondremos.
En lo que sigue, usaremos las esquinas para referirnos a las fórmulas y poder cuanti-
ficar dentro de ellas. Es decir, cuando escribo algo como «⌜A ∨ B ⌝», esto abrevia frases
como: «la fórmula que resulta de poner una disyunción entre la fórmula A a la izquierda
y B a la derecha».
Entonces, definimos el conjunto de los términos:
Definición 162: Términos de LC1=

T = Cons ∪ Var
Es decir, los términos son todas las constantes y variables de individuo.

Vamos a definir el conjunto de las matrices del lenguaje. Este es la unión del conjunto
de las matrices atómicas y del conjunto de las matrices moleculares:
Definición 163: Matrices de LC1=
El conjunto de las matrices atómicas es A atom , y se define así:

Aatom = {x : x = ⌜P n (𝜏1 , . . . , 𝜏n )⌝ ∨ x = ⌜𝜏1 = 𝜏2 ⌝},

donde cada una de las n 𝜏 s son términos (es decir, constantes o varia-
bles), con al menos una de ellas siendo una variable individual, y P n es
un predicado de n lugares y «=» es la constante de identidad. Es decir,
las matrices atómicas son predicaciones (de predicados, relaciones o la
relación de identidad) sin constantes lógicas ni cuantificadores.
El conjunto de las matrices moleculares, «A mol » es el conjunto definido
recursivamente así:
1. Sea ⌜A⌝ una matriz, atómica o molecular. Entonces ⌜¬A⌝ ∈ A mol .
2. Sean ⌜A⌝ y ⌜B ⌝ dos (o la misma) matrices (moleculares o atómi-
cas). Sea C una conectiva lógica proposicional diádica (es decir,
alguna de ∨, &, ⊃ , ≡). Entonces, ⌜(A)C(B)⌝ ∈ A mol .
Finalmente, el conjunto de las matrices de LC1= es:

A = Aatom ∪ Amol

Con todo esto, ya podemos definir el conjunto de las fórmulas del lenguaje. Lo hare-
mos recursivamente.

373
Definición 164: Fórmulas de LC1=
1. Primero definimos el conjunto de las fórmulas atómicas:

Fatom = {x : x = ⌜P (𝜅 1 , . . . , 𝜅 n )⌝ ∨ x = ⌜𝜅 1 = 𝜅 2 ⌝}

donde: P ∈ Predn y cada una de las n 𝜅 s son constantes.


2. Ahora definimos el conjunto de las fórmulas cuantificadas:

Fcuant = {x : x = ⌜Q1 𝛼 1 . . . Qm 𝛼 m (Φn [𝜏1 , . . . , 𝜏n ])⌝}

donde Φn [𝜏1 , . . . , 𝜏n ] es una fórmula atómica o una matriz, y en


este último caso, tiene a lo más un número m de los términos 𝜏
siendo variables individuales (donde 1 ≤ m ≤ n ), cada una de
ellas idénticas a alguna entre 𝛼 1 . . . 𝛼 m (y estas son distintas entre
sí, si es que 1 < m ), y donde cada Q es un cuantificador universal
o existencial.
3. Lo siguiente es definir a las fórmulas moleculares:

Fmol = {x : x = ⌜(A)C(B)⌝} ∪ {x : x = ⌜¬(A)⌝}

donde C es una conectiva proposicional diádica, y ⌜A⌝ y ⌜B ⌝ per-


tenecen a:
Fmol ∪ Fcuant ∪ Fatom
4. Finalmente, el conjunto de todas las fórmulas del lenguaje contiene
a todas y sólo las fórmulas moleculares, a las cuantificadas y a las
atómicas:
F = Fmol ∪ Fcuant Fatom

• Ejemplos de términos:
a x y c b
• Ejemplos de matrices atómicas:
ejemplo 53

a=x H (x, y) R (a,x,a) H (x,c )


• Ejemplos de matrices moleculares:
a = x ∨ P (a) H (b,c ) ⊃ c = y ¬R (a,x,a)
• Ejemplos de fórmulas:
• Atómicas: H (b,c ) F (b) T (c )
• Cuantificadas: ∃z (z = d ) ∀x [T (a,x)]
• Moleculares: ∀x (a = x) ∨ P (a) H (b,c ) ⊃ ∃y (c = y)

374
15.3. Modelos, otra vez

En esta sección vamos a definir formalmente a los modelos. Usaremos «M» como va-
riable que corre sobre el dominio de los modelos.
Definición 165: Modelo de LC1= (Formal)

Un modelo de LC1= es un par ordenado:

M = ⟨D,I ⟩
tal que:

D ≠ ∅,
es decir: los modelos tienen dominios que nunca son vacíos; y:

I (𝜅) ∈ D, si 𝜅 ∈ Cons
I : L −→ D de manera que:
I (F n ) ⊆ D n , si F n ∈ Predn
Es decir, la interpretación I es una función que toma elementos del len-
guaje de la lógica y los «lleva» a elementos del dominio o de su producto
cartesiano: la interpretación de toda constante es un elemento del domi-
nio del modelo, y la interpretación de todo predicado de n lugares es un
conjunto de n-secuencias de elementos del dominio.

Estas reglas para definir I son obvias, pues sólo reflejan formalmente lo que ya ha-
bíamos dicho informalmente acerca de cómo funcionan los modelos.
Hasta aquí, todo bien. Pero nos falta algo: las variables y las constantes con gorrito y
ficticias.

15.3.1. Asignaciones de variables

Queremos que las variables, como dijimos al inicio (secc. 9.4.1), sean generales, es decir,
que una variable satisfaga esto: es un símbolo que refiere de manera no específica a un objeto
en su dominio, bajo una interpretación.
No usamos a la interpretación I del modelo para interpretar a las variables porque
queremos que esta no cambie en el mismo modelo—es decir, queremos que cada modelo
tenga una sola interpretación. Pero la «interpretación» de las variables sí cambia dentro
de un mismo modelo: una variable, como «x», no se refiere a un elemento específico
del dominio, sino que puede referirse a cualquiera. Por ello, la interpretación I fija la
manera de entender a las constantes como refiriéndose a elementos del dominio y a los
predicados como refiriéndose a subconjuntos del dominio (si son predicados de un solo

375
lugar) o a conjuntos de n-secuencias de cosas tomadas del dominio (si son predicados
de n lugares). Pero no fija a las variables: de nuevo, una variable es «general»: no refiere
a ninguna cosa específica del dominio.
Lo que hacemos para dar cuenta de esto es usar otro tipo de función, que llamaremos
asignaciones de variables y que simbolizaremos con «𝜎», usando subíndices («𝜎1 »,
«𝜎2 », etc.) o primas («𝜎′», «𝜎′′», etc.) cuando sea necesario distinguir entre diferentes
asignaciones.
Las asignaciones de variables son maneras de «interpretar» a las variables, siempre
relativo a un modelo. Por ello, cuando sea necesario haremos explícita esta dependencia,
escribiendo «𝜎M» para decir que estamos considerando a la asignación 𝜎 relativo al
modelo M. Entonces, definamos:
Definición 166: Asignación de Variables

Una asignación de variables relativa a un modelo M es una función que


toma variables y les asigna objetos del dominio de M, es decir:

𝜎M : V ar → D ∈ M
De manera que, para toda variable individual 𝛼 y toda asignación de va-
riables 𝜎 relativo a un modelo M, tenemos que:

𝜎M(𝛼) ∈ D,
donde D es el dominio de M.

Es decir, toda asignación de variables (relativo a un modelo) toma a cada una de las
variables del lenguaje y le asigna un elemento del dominio. No se pone constricción
alguna acerca de qué elemento le debe asignar a qué variable, sólo asumimos de en-
trada que: para cada manera de asignarle objetos del dominio a las variables, tenemos
disponible una asignación.
Ahora podemos considerar al mismo modelo usando distintas asignaciones. Enton-
ces, usar al modelo M1 con la asignación de variables 𝜎1 nos definirá un dominio, una
interpretación de las constantes y los predicados en ese dominio, y una manera de inter-
pretar a las variables, dada por 𝜎1 ; usar al mismo modelo con una asignación distinta
𝜎2 , nos dejaría fijo el dominio y la interpretación de las constantes y los predicados,
pero cambiaría algunos (o todos) los objetos del dominio que se le asignan a las varia-
bles. Es decir: 𝜎M(𝜅) = I (𝜅), donde I es la interpretación de M, y 𝜅 es una constante.
Esto nos dice que la asignación relativo a un modelo incorpora la interpretación que
ese modelo hace de las constantes. Además, 𝜎M(P ) = I (P ), donde P es un predica-
do (de cualquier número de argumentos). Es decir, la asignación relativo a un modelo
incorpora la interpretación que el modelo hace de los predicados.

376
Finalmente, lo que buscábamos con las asignaciones era una manera de interpretar
a las variables. Entonces, la asignación 𝜎 de una variable 𝛼, relativo a un modelo M,
es un elemento de D, es decir: 𝜎M(𝛼) ∈ D, donde D es el dominio del modelo M.

15.3.2. Constantes con gorrito y ficticias

¡Un momento! No hemos definido qué pasa con las constantes con gorrito, 𝜅ˆ y las
constantes ficticas, 𝜅 ∗ . Introdujimos estas constantes para las reglas de I∀ y E∃, en la
sección 11.4.

Constantes con gorrito

Empecemos con las constantes con gorrito. Habíamos dicho, al introducirlas, que
«Una manera de leer una constante con gorrito, â, es: ‘a y todas las demás cosas’. Entonces,
leeríamos la fórmula ‘F â’ como: ‘Efe de a y de todas las demás cosas’.» Esto quiere decir
que una fórmula del tipo de ⌜Φ[ 𝜅]⌝
ˆ va a ser verdadera en un modelo si todo elemento
del dominio del modelo es elemento de la interpretación de ⌜Φ⌝.
Es decir—como vimos en la sección 11.4—una fórmula que contenga una constante
con gorrito nos permite inferir la misma fórmula pero universalizada: sustituyendo cada
aparición de esa constante con gorrito por una variable (que no aparezca ya en la fórmu-
la), y poniendo un cuantificador universal ligando esa variable al inicio de la fórmula.
Y como también vimos en la misma sección, de una fórmula universalizada podemos
inferir la misma fórmula pero sustituyendo cada aparición de la variable ligada por el
cuantificador universal por una constante y eliminando el cuantificador universal. Entre
las constantes que podemos sustituir están, por supuesto, las constantes con gorrito.
Así que las fórmulas del tipo de ⌜Φ[ 𝜅]⌝
ˆ son, en realidad, lógicamente equivalentes
con las fórmulas del tipo de ⌜∀𝛼(Φ[𝛼])⌝. Esto significa que debemos interpretar a las
constantes con gorrito de manera que se cumpla esta equivalencia.
Ahora bien, como veremos abajo (en la sección 15.4.2 y la definición 15.4.1), una
fórmula como ⌜∀𝛼(Φ[𝛼])⌝ es verdad si y solamente si todo elemento del dominio es
elemento de la interpretación de Φ—lo cual, por el Axioma de Extensionalidad, signi-
fica que la interpretación de Φ va a ser idéntica al dominio del modelo. Entonces,
⌜∀𝛼(Φ[𝛼])⌝ es verdad si y solamente si I (Φ) = D. Y como ⌜Φ[ 𝜅]⌝ˆ es lógicamente
equivalentes con ⌜∀𝛼(Φ[𝛼])⌝ (lo cual significa, como veremos abajo, que son verdade-
ras en exactamente los mismos modelos), debe suceder que ⌜Φ[ 𝜅]⌝
ˆ es verdadera si y
solamente si I (Φ) = D.
Como las asignaciones preservan interpretaciones, esto, a su vez, esto significa que
debe resultar lo siguiente: 𝜎M ⊨ ⌜P ( 𝜅)⌝
ˆ si y sólo si 𝜎M(P ) = D. Entonces, la asignación
de una constante con gorrito debe ser: 𝜎M( 𝜅)ˆ = D.

377
Pero esto parece incorrecto. Dijimos (en la sección 15.3.1) que una asignación (en un
modelo) toma a una constante o variable y le asigna un elemento del dominio (de ese
modelo). ¡Pero ahora una asignación puede asignar al dominio mismo!
La solución es tomar al gorrito como una función. Esta función toma cualquier ele-
mento del dominio y regresa al dominio mismo. Esto significa que la interpretación
de una constante con gorrito debe ser la interpretación de un símbolo de función—el
gorrito—aplicado a un elemento del dominio—aquél denotado por la constante a la
que le ponemos el gorrito. Entonces, 𝜎M(𝜅) ∈ D, y 𝜎M( ˆ ) = h, donde h es una función
así: h : D → {D }, de manera que h (𝜎M(𝜅)) = D, donde D es el dominio de M.
(Esto es a nivel semántico. A nivel del lenguaje, el gorrito sería un símbolo para una
función. Intuitivamente, esta función es definida por la regla: ¡toma un objeto y dame todas
las cosas en su dominio! )
Entonces, intuitivamente (veremos la versión rigurosa en la siguiente sección) una
fórmula del tipo ⌜P ( 𝜅)⌝
ˆ será verdadera bajo una asignación 𝜎M si, y solamente si, la
interpretación del predicado P es idéntica al dominio del modelo M.

Constantes ficticias

Falta la interpretación de las constantes ficticias.


Vimos arriba () que una constante ficticia no refiere a ningún objeto específico, sino a
cualquier objeto que satisfaga la fórmula existencial que estamos usando en la eliminación
del cuantificador existencial. Eso significa que la interpretación de una constante ficticia
no puede ser así:
I (a ∗ ) ∈ D,
pues esto significa que la interpretación es un elemento particular del dominio.
Lo que requerimos es, de nuevo, que las constantes ficticias involucren una función.
La idea sería que la función es f : D → I (Φ), donde Φ es la matriz en donde aparece la
variable ligada por el cuantificador existencial que estamos eliminando. Es decir: f es
una función que toma un elemento del dominio (a saber, el denotado por la constante a
la que le aplicamos el asterisco), y devuelve un elemento de la interpretación de Φ—-una
cosa, entonces, que es Φ. Esto significa que I (a ∗ ) = f , donde f toma el objeto denotado
por a y devuelve cualquier objeto que sea Φ: ¡cualquier objeto que haga verdad que algo
es Φ!
Entonces, intuitivamente (y de nuevo, veremos la versión rigurosa abajo), una fórmula
del tipo ⌜Φ[𝛼 ∗ ]⌝ va ser verdadera si y solamente si, alguno de los objetos que esté en
la interpretación de Φ, es Φ. ¡Pero esto es siempre verdad! Lo cual está bien: queríamos
que las constantes ficticias significaran «tomando cualquier cosa que satisfaga la fórmula
existencial», y esto es precisamente lo que hace la función f .

378
15.4. Verdad en un modelo para LC1=

Ahora vamos a definir lo que significa que una fórmula (es decir, un elemento del
conjunto F que definimos arriba) sea verdadera en un modelo M.

15.4.1. Verdad en un modelo bajo una asignación

Como vamos a usar distintas asignaciones con el mismo modelo para poder definir a
las fórmulas cuantificadas, primero consideramos a un modelo junto a una asignación.
Hemos visto que las matrices abiertas no son fórmulas del lenguaje; por ello, no son
ni verdaderas ni falsas. Sin embargo, las fórmulas cuantificacionales que contienen a
esas matrices sí son verdaderas o falsas; ahora veremos dos ejemplos.
Primer ejemplo: la fórmula «∀x (F x)» va a ser verdadera en un modelo M si todas las
cosas del dominio de M son elementos del conjunto con el que I (de M) interpreta al
predicado «F ».
De la misma manera, la fórmula «∃y (G y ∨ H ya)» es verdadera en un modelo M si
al menos una cosa de su dominio o bien es elemento de I (G ), o bien está en un par
ordenado con la cosa del dominio I (a), y ese par es un elemento de I (H )—es decir, la
fórmula es verdadera en el modelo si: para alguna cosa d del dominio: o bien d ∈ I (G ),
o bien ⟨d ,a⟩ ∈ I (H ). Para este último ejemplo usamos algo que veremos abajo: que la
relación de ser verdad en un modelo incluye la definición de las tablas de verdad de las
conectivas proposicionales.
Vamos a definir a la relación «el modelo M hace verdadera a la fórmula A bajo la
asignación 𝜎». Escribiremos esta relación así: «𝜎M ⊨ A», pues estamos considerando a
la asignación relativa al modelo.
Definiremos a esta relación yendo caso por caso: diremos qué se necesita y basta para
que cada posible tipo de fórmula de nuestro lenguaje, simbolizada por A, B y C , esté
en esta relación con un modelo y una asignación.
Como veremos después de escribirlas y explicarlas, la definición que daremos es
recursiva. Pero primero veamos sus tres posibles casos.
1er. caso: A es una fórmula atómica. En este caso, consideramos los cuatro posibles
casos:
• A es de la forma: ⌜P (𝜅 1 , . . . , 𝜅 n )⌝. Entonces lo que se necesita y basta es que:
⟨𝜎M(𝜅 1 ), . . . , 𝜎M(𝜅 n )⟩ ∈ 𝜎M(P ).
• A es de la forma: ⌜𝜅 1 = 𝜅 2 )⌝. Entonces: 𝜎M(𝜅 1 ) = 𝜎M(𝜅 2 ).
• A es de la forma: ⌜P (𝜅 1 , . . . , 𝜅ˆi . . . , 𝜅 n )⌝.
• A es de la forma: ⌜P (𝜅 1 , . . . , 𝜅 ∗ . . . , 𝜅 n )⌝.

379
El primer caso nos dice que una predicación atómica es verdadera en un modelo
bajo una asignación siempre y cuando la secuencia de las interpretaciones (que, recuer-
da, son «copiadas» por 𝜎M) de las constantes es un elemento de la interpretación del
predicado. Como ejemplo, tomemos una predicación atómica como R (a,b). Entonces,
R (a,b) va a ser verdadera en un modelo M1 bajo una asignación 𝜎1 (relativo a M,
pero omitimos esto para simplificar la notación) si y sólo si: el par ⟨𝜎1 (a), 𝜎1 (b)⟩ es un
elemento de 𝜎1 (R), donde 𝜎1 (R) ⊆ D 1 , donde D 1 es el dominio del modelo M1 .
Pero esta definición nos da solamente las condiciones formales para que la fórmula
«R (a,b)» sea verdadera en cualquier modelo bajo una asignación. Pero en muchas apli-
caciones de la lógica de primer orden—como la que hemos usado en estas notas: la
aplicación a la argumentación—queremos interpretar a las fórmulas con proposiciones
específicas. Se dice, en estos casos, que tenemos una interpretación intencional para
la fórmula: no nos importa cualquier interpretación de la fórmula, sino una específica.
Por ejemplo, para alguna aplicación a la argumentación, podríamos querer interpretar
a «R (a,b)» como «Lana Wachowski y Lilly Wachowski son hermanas». ¿En qué tipo de
modelos va a ser verdadera esta fórmula, si la vamos a interpretar así?
En modelos que tengan un dominio que incluya a las dos Wachowski, que además
interpreten a «a» como Lana y a «b» como Lilly, y en los que además exista un conjunto
de pares ordenados que incluya al par <Lana, Lilly>y tal que podamos usar este conjunto
como interpretación de la relación «_ es hermana de _». (Por ejemplo, un conjunto que
incluyera al par <Rihanna, Margarita Zavala>no nos serviría como interpretación del
predicado R, si queremos interpretarlo como la propiedad «_ es hermana de _», por la
razón obvia: ¡Rihanna no es hermana de Margarita Zavala!)
El segundo caso de fórmula atómica es obvio: una predicación de identidad entre dos
constantes es verdadera (en un modelo, bajo una asignación), si la interpretación de
ambas constantes es el mismo elemento del dominio.
Lo siguiente es definir verdad en un modelo bajo una asignación para fórmulas cuan-
tificacionales:
2do. caso: A es una fórmula cuantificada. En este caso, la conectiva principal de la
fórmula es un cuantificador; otra vez tenemos dos posibles casos:
• A es de la forma: ⌜∀𝛼(Φ[𝛼])⌝. Entonces: 𝜎′M(𝛼) ∈ 𝜎′M(Φ), para toda 𝜎′M
que sea diferente de 𝜎M en, a lo más, lo que le asigna a 𝛼.
• A es de la forma: ⌜∃𝛼(Φ[𝛼])⌝. Entonces: 𝜎′M(𝛼) ∈ 𝜎′M(Φ), para alguna 𝜎′M
que sea diferente de 𝜎M en, a lo más, lo que le asigna a 𝛼.
Estas definiciones parecerían algo retorcidas, pero en realidad sólo explicitan formal-
mente lo que ya sabíamos sobre los cuantificadores. Una fórmula de la forma ⌜∀𝛼(Φ[𝛼])⌝
nos dice (dado un modelo) que todas las cosas del modelo son Φ. Para ver ejemplos,
tomemos a 𝛼 como x. Entonces, una fórmula como ⌜∀x (Φ[x])⌝ significa que toda cosa

380
x del dominio, es Φ. A su vez, Φ es una matriz donde x está libre (pues el cuantificador
∀ del inicio llega a ligar a x). Y esta matriz puede ser un solo predicado—de un lugar,
como «F x», o de más, como «R (a,x)»—, o también puede ser varios predicados unidos
con conectivas proposicionales y/o cuantificadores, como «[P x ∨ R (a,x)] ⊃ ∃y (P y)».
Puede haber más variables que x, pero estas tienen que estar ligadas por otros cuan-
tificadores: como estamos considerando fórmulas cuya conectiva principal es ∀, si hay
más variables que no liga este cuantificador al inicio de la fórmula, deben estar ligadas
por otro.
Pues bien, dijimos que ⌜∀x (Φ[x])⌝ significa que toda cosa x del dominio, es Φ. ¿Qué
basta y se requiere para que una fórmula así sea verdadera en un modelo? Obviamente,
que toda cosa del dominio (del modelo) sea elemento de como sea que interpretemos
(en el modelo) a Φ. Pero como vimos, las interpretaciones no hacen nada con las va-
riables, y por eso usamos asignaciones. Lo que queremos es que, cualquier cosa (del
dominio) que le asignemos a la variable x, sea Φ. ¡Pero una asignación sólo define un solo
elemento como asignación de cada variable! No tiene mucho sentido hablar de «cual-
quier cosa que la asignación le asigne a la variable», pues ¡sólo hay una cosa asignada
a cada variable!
Por eso es que, en la definición, dijimos que «. . . para toda 𝜎′M que sea diferente de
𝜎M en, a lo más, lo que le asigna a» la variable. Es decir: consideramos a todas las
diferentes maneras de interpretar a la variable, y como sólo nos interesa la variable
ligada por el cuantificador «∀»—¡porque estamos considerando fórmulas que tienen a
ese cuantificador como conectiva principal!—nos enfocamos en 𝜎M misma y además
en todas las asignaciones que cambien lo que 𝜎M le asigna a x (la variable ligada por
el cuantificador principal), pero que no cambien nada más (pues, de nuevo, solo nos
interesa x).
Entonces, si sucede que todas esas variantes de 𝜎M con respecto a x—es decir, todas
esas asignaciones que solo difieren de la original con respecto al elemento con el que
interpretan a la variable—hacen que el elemento asignado sea elemento de como sea
que interpretemos a Φ, podemos decir que toda cosa del dominio es Φ. Y eso es preci-
samente lo que queríamos que significara decir que la fórmula universal es verdadera
en el modelo (bajo una asignación). Finalmente, simplemente le llamamos «𝜎′M» a las
variantes con respecto a x de 𝜎M, y tenemos el primer caso de las fórmulas cuantifica-
cionales.
Habiendo dicho todo esto, la cláusula para el cuantificador existencial ya debería ser
más clara. Queremos que una fórmula existencial como «∃x (F x)» sea verdadera en un
modelo siempre y cuando al menos una cosa de su dominio sea F (es decir, pertenezca
a la interpretación que el modelo hace del predicado «F »). Entonces, consideramos qué
cosa le asigna 𝜎M a la variable x y si resulta que 𝜎M u otra asignación que sólo cambie
la asignación de x, nos da un objeto que resulta ser elemento de la interpretación del

381
predicado, tenemos lo que queríamos, pero escrito formalmente. Eso es precisamente
lo que el segundo caso de la definición nos da.
Finalmente, definiremos a las fórmulas que tienen como conectiva principal a una
conectiva proposicional.
3er. caso: A es una fórmula molecular. Aquí tenemos cinco posibles casos:
• A es de la forma: ⌜¬(B)⌝. Entonces: es falso que 𝜎M ⊨ B.
• A es de la forma: ⌜(B) ∨ (C )⌝, y entonces: o bien 𝜎M ⊨ B, o bien 𝜎M ⊨ C , o
ambas.
• A es de la forma: ⌜(B) & (C )⌝, y entonces: tanto 𝜎M ⊨ B como también
𝜎M ⊨ C .
• A es de la forma: ⌜(B) ⊃ (C )⌝, y entonces: si 𝜎M ⊨ B entonces 𝜎M ⊨ C (es
decir: o bien 𝜎M ⊨ ¬(B), o bien 𝜎M ⊨ C , o ambas).
• A es de la forma: ⌜(B) ≡ (C )⌝, y entonces: o bien 𝜎M ⊨ (¬(B) & ¬(C )), o
bien 𝜎M ⊨ ((B) & (C )).
Como es fácil de ver, lo que hacen estas definiciones es simplemente incorporar las
tablas de verdad de las conectivas proposicionales. Por ejemplo, una fórmula cuya co-
nectiva principal es la disyunción, «∨», será verdadera en un modelo (bajo una asig-
nación) siempre y cuando uno u otro (o ambos) de sus disyuntos sea verdadero en el
modelo (bajo esa asignación). ¿Qué va a pasar con esos disyuntos? Pues que será una
fórmula de alguno de los tres tipos que hemos considerado: atómica, cuantificacional o
con una conectiva principal proposicional, y entonces solamente aplicamos la definición
correspondiente.
Se dice, por esto, que las definiciones que hemos dado son recursivas: se aplican
primero a la fórmula entera, tomando qué conectiva principal tenga (cuantificador o
proposicional), si es que tiene una, y si no, es atómica; si es atómica ya hemos aca-
bado; si no es atómica, ya que evaluamos su conectiva principal, nos seguimos con
las subfórmulas—si su conectiva principal es proposicional, y si su conectiva es un
cuantificador, seguimos con la matriz que tiene libre la variable que está ligada por el
cuantificador que ya evaluamos. En esta matriz, habrá más cuantificadores, o conectivas
proposicionales, o ninguno; en este caso, la asignación 𝜎∗ nos permite tratarla como
atómica; en cualquiera de los tres casos, otra vez aplicamos la definición relevante.

15.4.2. Una manera más simple

Existe otra manera de definir la verdad en un modelo de las fórmulas cuantificacionales,


que no requiere de asignaciones. En cierto sentido, es más simple, pero requiere que
extendamos el lenguaje.1

382
La idea es la siguiente. Cada modelo M es un par de un dominio y una interpretación,
así que al evaluar una fórmula cuantificada para saber si es o no verdadera en M,
extendemos el lenguaje de LC1=. En el lenguaje extendido, tomamos el conjunto de
constantes que ya tenemos, y agregamos una constante para cada uno de los elementos
del dominio de M. Es decir: si d es un elemento del dominio de M, agregamos una
constante ad al lenguaje. Ahora modificamos la interpretación de M, de manera que:
para toda constante ad que hemos agregado, (ad ) = d . Es decir, la interpretación de la
constante que agregamos para el elemento d del dominio es. . . pues d mismo.
Habiendo hecho esto, la interpretación de fórmulas cuantificacionales es muy sencilla:
• Las fórmulas cuya conectiva principal es «∀», es decir, de la forma:
⌜∀𝛼(Φ[𝛼])⌝,
son verdaderas en un modelo M si y sólo si: para cada constante agregada ad ,
⌜Φ[ad ]⌝ es verdad en M.
• Las fórmulas de la forma ⌜∃𝛼(Φ[𝛼])⌝, son verdaderas en un modelo M si y sólo
si: para al menos una constante agregada ad , ⌜Φ[ad ]⌝ es verdad en M.
Ahora, en vez de considerar distintas maneras de asignarle elementos del dominio a las
variables, tomamos la fórmula, le quitamos el cuantificador, sustituimos en todas sus apa-
riciones a la variable que estaba ligando por una constante,2 y si la fórmula es verdadera
para alguna constante, significa que es verdadera para alguna cosa del dominio—lo cual
nos da la cláusula correcta para el cuantificador existencial; la cláusula para el universal
es, obviamente, cuando la fórmula es verdadera para toda constante que sustituyamos
por la variable.
Es fácil ver por qué requerimos la expansión del lenguaje—en particular, agregar más
constantes—para poder definir las cláusulas para los cuantificadores: si no hubiéramos
hecho esto, entonces podría resultar que algún elemento del dominio no fuera referido
por ninguna de las constantes de nuestro lenguaje. Y si eso pasara, aunque toda cosa
en el dominio de hecho fuera (por ejemplo) elemento de I (F ), como no tendríamos
constantes para todas ellas, podríamos terminar juzgando erróneamente que no todo
del dominio es I (F ).3

15.4.3. Verdad en un modelo

Ya podemos decir qué significa que una fórmula sea verdadera en un modelo —
verdadera sin nada más, sin hablar de asignaciones: ahora consideraremos sólo al mo-
delo y a la fórmula:
Definición 167: Verdad en un Modelo de LC1=
M ⊨ A si y sólo si: 𝜎M ⊨ A para toda 𝜎M.

383
Es decir, A es verdadera en el modelo M si y solamente si, es verdadera para toda
asignación relativo a ese modelo.
Cuando una fórmula es verdadera en un modelo, esto significa que es irrelevante qué
asignación escojamos: la fórmula será verdadera bajo cualquier forma de interpretar a
las variables. Por ejemplo, las fórmulas sin variables, como «a = b» o «¬S (b,c )» serán,
si verdaderas bajo alguna asignación, verdaderas en el modelo.

15.4.4. Verdad lógica en LC1=

En lógica de orden cero, teníamos el concepto de tautología: una fórmula cuya tabla
de verdad da en cada fila de su conectiva principal el valor verdadero; de manera equi-
valente, una fórmula que es verdadera bajo toda asignación de valores a sus fórmulas
atómicas. En la lógica cuantificacional de primer orden, usamos «⊨ A» para decir que
una fórmula A es una verdad lógica de LC1=, y definimos esto así:
Definición 168: Verdad Lógica de LC1=

⊨ A si y sólo si: M ⊨ A para todo M.

Las verdades lógicas de LC1= son, pues, las que son verdaderas en todo modelo: son
aquellas fórmulas que son verdaderas sin importar qué dominio tengamos (siempre que
no sea vacío) o cómo interpretemos variables, predicados y constantes (siempre que
interpretemos a las constantes lógicas de manera fija). Por ejemplo,
• ∀x (F x ∨ ¬F x),
• ∀x (x = x),
• ∃x (x = x),
son, cada una de ellas, verdades lógicas de LC1=.

15.4.5. Consecuencia lógica en LC1=

Quizá la principal utilidad de la lógica formal para el análisis filosófico está en una
de sus aplicaciones: ser un modelo (en el sentido de una representación científica, no en
el sentido que hemos usado en este capítulo) de la validez. A su vez, como dijimos al
comenzar con LC1= en la sección ??, el concepto general de validez es el siguiente:
Definición
Un argumento es válido siempre y cuando: no existe ninguna situación
lógicamente posible en la que sus premisas sean todas verdaderas, pero
la conclusión falsa.

384
En lógica proposicional, la manera de entender este concepto es cuando decíamos
que un argumento es lógicamente válido si y sólo si su condicional asociado es una
tautología:
Definición
Consideremos un argumento que consista en las premisas P 1 , . . . P n y la
conclusión C , todas en el lenguaje de la lógica clásica de orden cero (LC0).
Entonces, ese argumento es lógicamente válido siempre y cuando: ca-
da asignación de valores de verdad a las fórmulas atómicas de cada una
de las premisas P 1 , . . . P n , de acuerdo a la cual cada una de las premi-
sas sea verdadera, es también una asignación en la que la conclusión es
verdadera. De manera equivalente, el condicional asociado al argumento:

(P 1 & . . . & Pn ) ⊃ C

es una tautología.

En LC1= definimos a la validez de un argumento de manera completamente análoga:


Definición 169: Consecuencia Lógica en LC1=

Sea A un argumento que consiste de las premisas P 1 , . . . P n y la conclu-


sión C , todas en el lenguaje de la lógica clásica cuantificacional de primer
orden con identidad (LC1=). Entonces, un argumento es lógicamente vá-
lido siempre y cuando: cada modelo que haga verdad a todas las pre-
misas, es también un modelo en el que la conclusión es verdadera. De
manera equivalente, el condicional asociado a el argumento, es decir, la
fórmula: (P 1 & . . . & P n ) ⊃ C , es verdadero en todo modelo. Es decir,

⊨ (P 1 & . . . & Pn ) ⊃ C
Cuando un argumento es válido, se dice que las premisas implican lógi-
camente a la conclusión. La notación estándar es:

(P 1 & . . . & Pn ) ⊨ C
Otra manera de decirlo es diciendo que su conclusión es una consecuen-
cia lógica de sus premisas.

15.4.6. Equivalencia lógica en LC1=

Así como la equivalencia lógica de dos fórmulas en LC0 significa que su bicondicional
material es una tautología, así aquí:

385
Definición 170: Equivalencia Lógica en LC1=

Dos fórmulas A y B en el lenguaje LLC1= son lógicamente equivalentes si


y solamente si: el bicondicional material A ≡ B es una verdad lógica de
LC1=. De manera equivalente, si y solamente si: A ⊨ B y B ⊨ A .

386

387
Proyecto del capítulo:
Antecedentes d

Notas
Problema d 1. ¿Por qué, entonces, ver primero la más complicada? Bueno, porque es bueno entenderla,
pues es una definición muy usual en la lógica; además, como veremos abajo, la manera simple tiene
sus limitaciones. Por cierto, esta nota al pie puede ser el mejor lugar para notar que existe una «tercera»
manera de definir la cláusula de verdad para fórmulas cuantificadas, que de hecho es la que Tarski usó
originalmente en su artículo clásico—fundacional para la teoría de modelos— de 1933, «Pojęcie prawdy
w językach nauk dedukcyjnych», o «El concepto de verdad para lenguajes formalizados» (que se puede
encontrar, como «The concept of truth in formalized languages», en su compilación Logic, Semantics, and
Metamathematics, Hackett Publishing Company, 1983). Esta manera, en vez de usar asignaciones, utilizaba
secuencias infinitas de objetos y el concepto de «satisfacción»; sin embargo, resulta equivalente a la que
hemos dado en términos de asignaciones—y de ahí las comillas en «tercera».

2. He sido inexacto al decir cosas como «para cada constante agregada ad , ⌜Φ[ad ]⌝ es verdad en M» en las
definiciones de arriba. Estrictamente, tendría que haber definido una notación para la sustitución de la
variable en todas sus apariciones por la constante, y usar esa notación en lugar de «⌜Φ[ad ]⌝». Sin embargo,
la idea es clara por lo que he explicado, y nos ahorramos el trabajo.

3. Por esta misma razón, esta idea de expandir el lenguaje (relativo a cada modelo) con constantes para
cada elemento del dominio, es una estrategia limitada: es usual pensar que existe un número denumerable
(es decir, a lo más igual a car d (ℕ)) de símbolos, pero existen conjuntos (como ℝ) con infinitamente más
elementos, y nada de lo que hemos dicho prohíbe usar estos conjuntos como dominios de modelos.
Para estos casos, la estrategia debe modificarse: ya sea que nos restrinjamos a modelos con dominios
denumerables, o que, cuando pasamos a dominios con más elementos, usemos cada elemento del dominio
como su propio nombre—de manera que diríamos que cada constante ad agregada es, en realidad, d
mismo.

388
IVa parte:

Lógica informal y probabilística

389
Esta parte todavía está incompleta (con cosas escritas aquí y allá) y por ello
solamente pongo el capítulo sobre probabilidad, que es el que tengo un poco
más avanzado. Pero va a incluir un capítulo sobre lógica informal (falacias y
definiciones) y uno sobre aplicaciones de la lógica al discurso cotidiano.

391
392
capítulo

16
Probabilidad y argu-
mentos probabilísticos

Contenidos del capítulo

Probabilidad 395
Inducción y estadística 398
Correlación y causalidad 412

Objetivos de aprendizaje
1. Que comprendas los axiomas que definen a la probabilidad.
2. Que comprendas con mayor profundidad el concepto de la fiabilidad de una
argumento probabilístico.
3. Que distingas dos ramas de la estadística —descriptiva y predictiva— y
puedas relacionarla con los argumentos inductivos.
4. Que puedas discernir cuándo un argumento inductivo es un argumento fia-
ble.
5. Que te familiarices con los conceptos de correlación y de causalidad, y com-
prendas las relaciones y diferencias entre ambos.
6. Que conozcas la estructura de los argumentos abductivos, así como su rela-
ción con el concepto de explicación, y puedas evaluar cuándo un argumento
abductivo es un argumento fiable.

393
o todos los argumentos tienen una inferencia deductiva: algunos tienen una infe-
N rencia no deductiva. A estos se les conoce como argumentos probabilísticos, pues las
premisas no implican lógicamente a la conclusión. Es decir, la verdad de las premisas
no es lógicamente incompatible con la falsedad de la conclusión: la verdad de las premisas
solamente hace más probable que la conclusión sea verdadera.
Los argumentos probabilísticos a veces se clasifican como lógica informal. Eso se de-
be a que una inferencia no deductiva, para ser una inferencia correcta —o, como le
llamaremos técnicamente, una inferencia fiable— requiere algo más que la forma de las
proposiciones que fungen como premisas y conclusiones: requiere tomar en cuenta el
contenido de las proposiciones involucradas. A este contenido, tradicionalmente, se le
llamaba la «materia» de las proposiciones, que va más allá de su forma.
Por otro lado, existen áreas de las matemáticas que se aplican a estos casos: la proba-
bilidad y la estadística. Como estas nos proveen de reglas sistemáticas y rigurosas para
la evaluación de algunas inferencias probabilísticas —precisamente como la lógica ma-
temática lo hace para la evaluación de las inferencias deductivas—, llamarle «informal»
a esta rama de la lógica podría parecer un mal nombre.
Hay que recordar, entonces, que el aspecto «informal» de las inferencias probabilísti-
cas se debe a que estas requieren, para ser fiables, estar conectadas con el contenido de
las premisas, no solamente con su forma lógica. Esto, de nuevo, no se contrapone con
el hecho de que existan reglas formales —matemáticas— para evaluar estas inferencias.
(Quizá sería más adecuado reservar la noción de lógica informal para una investigación
no matemática del razonamiento cotidiano, como hacen hoy en día muchos teóricos de
la argumentación.1 Sobre esto no profundizaremos aquí.)
Como he dicho, para entender los argumentos probabilísticos es necesario tener un
entendimiento, al menos elemental, de la teoría de la probabilidad. Vamos a dedicar la
primera sección para ello. Este tratamiento del tema es, por necesidad, breve y poco
profundo, además de casi puramente cualitativo; un tratamiento más profundo requiere
de un libro entero. Sin embargo, esto no impide que toquemos algunos temas importan-
tes para el arte de razonar bien, como la relación entre causación y correlación (sección
16.3), el concepto de distribución de probabilidad (sección 16.2.5), el concepto de una
muestra representativa (sección 16.2.3), y las diferentes concepciones de la naturaleza
de la probabilidad (subsección 16.1.2). Por supuesto, todo esto en el marco de la expo-
sición de dos tipos muy importantes de argumentos probabilísticos: los inductivos y los
abductivos.

394
16.1. Probabilidad

16.1.1. La definición de la probabilidad

Por principio de cuentas, tenemos a la teoría matemática de la medida. Una medida es,
simplemente, una manera de expresar con un número qué tan «grande» o «pequeño»
es un conjunto de cosas. Por ejemplo, el área de una figura o la altura de una persona
pueden ser descritas por medidas; una figura y el área que contiene son conjuntos de
puntos, y podemos representar a una persona como un conjunto de partes. Sus áreas y
alturas son medidas de qué tan grandes son esos conjuntos de puntos o de partes.
Ahora bien, la teoría de la probabilidad es una teoría sobre una medida que nos dice
qué tan grande es la probabilidad de que suceda un conjunto de eventos posibles. Y
en el caso en que el conjunto solamente contiene a un evento, decimos que mide la
probabilidad del evento. Así, la probabilidad de un conjunto de eventos mide el «grado
de posibilidad» de que ocurran esos eventos.
Vamos a usar los símbolos «Pr(X )» como nombre del número que representa la pro-
babilidad, dada por la medida Pr, de un conjunto X .2 Esta probabilidad se define como
una medida particular que cumple estas reglas, conocidas como «Axiomas de Kolmo-
gorov»:
1. La probabilidad de todo conjunto de eventos es un número real entre 0 y 1 (inclusivo).
Esto significa que todo evento tiene, o bien una probabilidad 0 de suceder —
que sería un evento nada probable—, o bien una probabilidad 1 —que sería un
evento máximamente probable—, o bien una probabilidad intermedia: un evento
con 0.3 de probabilidad tiene menor probabilidad de ocurrir que uno con 0.6
de probabilidad, por ejemplo. Específicamente, un evento con 0.5 de probabili-
dad es completamente aleatorio, como lanzar una moneda al aire. En lenguaje
matemático: 0 ≤ Pr(X ) ≤ 1, para todo conjunto X al que se aplique la medida.
2. La probabilidad de que ocurra alguno de todos los eventos posibles es 1. Es decir: es
seguro que ocurra algo: podemos no saber cuál, pero de todas las posibilidades,
una tiene que ocurrir. En lenguaje matemático: Pr(U ) = 1, donde U es el conjunto
de todos los eventos posibles, también llamado el «universo».
3. La probabilidad de la alternativa entre eventos independientes (es decir, que no se
implican entre sí) es la suma de las probabilidades de cada uno de esos eventos. En
lenguaje matemático:
Pr (E1 , o bien, E2 , . . .) = Pr(E 1 ) + Pr(E2 ) + . . .
De manera equivalente, la probabilidad de que sucedan conjuntamente eventos indepen-
dientes es el producto de sus probabilidades:
Pr(E1 , y también, E2 , . . .) = Pr(E1 ) × Pr(E2 ) × . . .

395
Finalmente, vamos a utilizar el símbolo «|» para la probabilidad condicional, la
que nos dice cuál es la probabilidad de un evento suponiendo que suceda otro evento.
Es decir, escribir «Pr(B | A)» simplemente nombra a la probabilidad de que suceda B
suponiendo que también sucede A. Es decir: el número que corresponde a la probabilidad
de B cuando asumimos que se dió A.
Dado esto, la definición del concepto de fiabilidad que dimos al inicio del libro, la
definición 13, podría ponerse de esta manera equivalente:
Definición: Fiabilidad
Un argumento es fiable siempre y cuando:

Pr(c | premisa1 , premisa2 , . . . , premisan ) > P (c ),

donde c es la conclusión del argumento, y premisa1 , . . . , premisan son


todas las premisas del argumento.

Los tipos de argumentos que definiremos abajo son probabilísticos, por lo que el
objetivo de estudiarlos es conocer las inferencias que son fiables.

16.1.2. La interpretación de la probabilidad *

Las reglas de Kolmogorov definen matemáticamente a la probabilidad y por ello, so-


lamente nos dan eso: una teoría de las matemáticas puras, una teoría que nos habla
de una medida. A su vez, interpretamos esa medida como la medida de algo: el grado
de probabilidad de que ocurra un evento. Aquí todavía cabría preguntarnos qué es tal
grado de probabilidad. ¿No es un estado misterioso, como un fantasma entre el ser y el
no ser? ¿Si algo es meramente probable, existe o no existe? En las matemáticas puras,
la teoría de la probabilidad solamente es el estudio de estructuras abstractas (ciertas
funciones sobre ciertos conjuntos), y en las ciencias en las que se aplica esta teoría,
frecuentemente estas preguntas se ven como demasiado «filosóficas» y se ponen entre
paréntesis. Pero será útil revisar algunas respuestas que se han dado a la pregunta de
qué es la probabilidad, aunque sea de una manera algo rápida.

La interpretación clásica (equiposibilidad)

La interpretación que podríamos llamar «clásica» viene desde los orígenes de la teoría
moderna de la probabilidad, en algunos filósofos y matemáticos del siglo XVII, como
Fermat y Pascal, y extendida por Laplace en el siglo XIX. Según esta interpretación,
la probabilidad de un evento X es simplemente el número resultante de la siguiente
ecuación:

396
número de posibilidades en las que sucede X
Pr(X ) = (16.1)
número total de posibilidades
Podemos imaginarnos un espacio de todos los posibles eventos que podrían suceder
en una circunstancia particular. Hay que imaginar que todos estos eventos están en un
conjunto, el universo, que tiene un volumen, que cubre un área. Por supuesto, el primer
axioma nos dice que esta área ha de medir 1. Si ahora consideramos al evento X , ese va
a cubrir una parte, pero no todo, de ese volumen. Entonces, la probabilidad del evento
X sería el área que cubre dentro del área total del espacio de eventos posibles.
Una de los problemas de esta interpretación «clásica» de la probabilidad es que no
maneja bien un número infinito de eventos, los cuales a veces se necesitan tomar en
cuenta. Por ejemplo
El problema con los eventos infinitos es que la ecuación 16.1 no nos dice cuál es la
probabilidad para un evento particular, pues la división no está definida de forma que
nos permita dividir un número (real) cualquiera sobre otro número infinito. Para estos
casos más avanzados, se necesitan herramientas del cálculo.

Subjetivismo

El subjetivismo también es una idea bastante vieja, que últimamente ha sido muy desa-
rrollada. La idea básica es que la probabilidad mide nuestra ignorancia.
Considera un volado: tomas una moneda, la lanzas al aire, y preguntas si caerá águi-
la o sol. Todo mundo te dirá (mientras la moneda está en el aire) que la probabili-
dad de águila es 50 % y la probabilidad de sol también es 50 %. Es decir, los eventos
completamente aleatorios —cuando hablamos de «pura suerte»— tienen un grado de
probabilidad de 0.5 tanto para suceder como para no suceder.
Pero considera con más cuidado esa moneda. Si pudiéramos medir las condiciones
exactas en que lanzaste la moneda, como la posición inicial, la fuerza que le imprimiste
para lanzarla, el peso de esta, la dirección y fuerza del viento, etcétera, podríamos
usar las leyes de la física para calcular con tanta precisión como nos lo permitieran
nuestras computadoras en qué posición —y en qué momento— va a caer la moneda.3
Pero como ignoramos todos esos datos —como no tenemos la información precisa de
las condiciones en que lanzamos la moneda—, nos parece aleatorio que caiga águila o
que caiga sol.

397
Frecuencialismo

Propensiones

16.2. Inducción y estadística

En algunos libros de texto ya obsoletos, se dice que la característica que distingue a


los argumentos inductivos de los deductivos es esta: mientras que los inductivos «van
de lo particular a lo general», los deductivos «van de lo general a lo particular». Esta
caracterización es completamente errónea: muchos argumentos deductivamente válidos
«van de lo particular a lo general». Como vemos en otro capítulo (capítulo 11), podemos
partir de que Carlos está escribiendo para inferir que alguien está escribiendo, esta es una
inferencia completamente válida (es decir, deductivamente correcta). Pero pasa de un
hecho particular —sobre Carlos— a una generalización —sobre alguien. Así que este
criterio debe desecharse.
Un mejor criterio para distinguir a las inferencias inductivas de las deductivas se ba-
sa en que los argumentos inductivos son inferencias probabilísticas. Estas inferencias
pueden brindar un apoyo racional a una conclusión, incluso si la forma de argumen-
to es deductivamente inválida: el apoyo racional consiste en hacer más probable a la
conclusión, bajo la suposición de que las premisas sean verdaderas. Ahora bien, los
argumentos inductivos sí parten de lo particular —es decir, parten de proposiciones que
describen a un conjunto de individuos— para llegar a lo general —es decir, para inferir
una proposición acerca de un conjunto que contiene al conjunto inicial, entre otros in-
dividuos. Puesto brevemente: inducir es inferir las características que probablemente tengan
un conjunto de cosas, a partir de las características de un subconjunto de ellas.
En las siguientes secciones vamos a tratar con diferentes tipos y aspectos de las infe-
rencias inductivas.

16.2.1. Las dos ramas de la estadística

La interpretación más usual (no subjetivista) de las probabilidades en la ciencia es


como una medida de las frecuencias: de la cantidad de un tipo de sucesos en una clase
de referencia que especificamos. Así, la probabilidad se interpreta como una medida
estadística: una descripción de la frecuencia en que cierta propiedad se encuentra en
una población: en el conjunto que contiene al total de los individuos de un tipo.
Por supuesto, la estadística no es solamente el resumen de los datos que ya poseemos,
esta es solamente la primera rama principal: la estadística descriptiva. La otra rama es
la estadística inferencial, que estudia las inferencias que parten de propiedades de una
muestra, un subconjunto propio del universo total, a propiedades de la población, el uni-

398
verso total. En este segundo caso, hacemos inferencias ampliativas: nos importa estimar
las características del conjunto total —o como se dice técnicamente: los parámetros po-
blacionales— a partir de las características del subconjunto que podemos conocer —los
parámetros muestrales—, además de estimar la tasa de error de esa primera estimación.
Vamos a desarrollar un poco estos dos tipos de estadística.

16.2.2. Estadística descriptiva

Esta es la rama de la estadística que, como su nombre lo dice, estudia la forma de


describir un conjunto de datos —particularmente, le interesa resumir estos datos.
Los datos van a ser un conjunto de números que representen ciertas características
de algún conjunto de individuos. Por ejemplo, la lista: 1.70, 1.65, 1.90, 1.50, 1.78, 1.66,
2.00 podría ser la lista de alturas (en metros) de algunos de mis amigos.
A veces nos interesa conocer las características «en promedio» de un conjunto de
individuos, es decir, las características «típicas». Esto nos permitirá entender mejor
cómo son esos individuos, o tomar desiciones al respecto. Esta es la base de la estadística
descriptiva.
Para resumir los datos, vamos a utilizar dos tipos principales de medidas estadísticas:
las que nos digan cómo son, «en promedio» o típicamente, los individuos del grupo
seleccionado, y las que nos digan qué tanto se alejan los individuos de ese dato típico. A
las primeras les vamos a llamar medidas de tendencia; a las segundas, medidas de dispersión.

Medidas de tendencia central

El tipo más conocido de medidas de tendencia son las medidas de tendencia central. Entre
estas, la medida más básica es el promedio aritmético, que también se conoce como la
media. Esta nos dice, literalmente, cuál es el promedio de un conjunto de datos, es decir,
un conjunto de números que representan datos sobre las propiedades de un grupo de
individuos.
Definición 171: Media o promedio aritmético

Si tenemos un conjunto de datos: d1 ,d2 , . . . ,dn , entonces su promedio


aritmético o media está dado por:

d 1 + d 2 + . . . + dn
n
Es decir, simplemente sumamos los datos y dividimos sobre cuántos datos
tenemos.

La media aritmética no es la única medida de tendencia central. También vamos a

399
definir otras dos básicas. Empezamos con la mediana.
Definición 172: Mediana

Si tenemos un conjunto de datos: d1 ,d2 , . . . ,dn , entonces su mediana es el


dato que encontramos al arreglar los datos de mayor a menor, y después
tomar el dato en medio de los dos extremos. Si es un conjunto con un
número par de datos, entonces la mediana es el promedio de los datos en
medio de los extremos.

Otra medida bien conocida de tendencias centrales es la moda.


Definición 173: Moda
Teniendo un conjunto de datos, su moda es el dato que más se repite.
Si hay más de un dato que se repita el mayor número de veces, se dice
que tenemos una distribución multimodal de los datos, y las modas son los
datos que se repiten el mismo número máximo de veces. Si todos los datos
se repiten igual número de veces, el conjunto de datos no tiene moda.

Estas tres medidas —media, mediana y moda— son útiles para representar el ele-
mento «típico» o «promedio» de un conjunto de datos en circunstancias que tienen al
menos dos características: (1) los datos son igual de importantes entre sí, y (2) los datos
no están «dispersos». Empecemos entendiendo la primera característica.
Supongamos que estoy calificando las tareas de quienes asistieron a uno de mis cursos
para tener su promedio final. Podría usar la media, por supuesto, pero supongamos que
algunas tareas fueron más difíciles que otras y por ello, las considero más importantes.
Quisiera darles más peso a esas tareas, para premiar el esfuerzo de quien las entregó y
las hizo bien (o, de manera equivalente, para castigar a quien no las haya entregado).
En este tipo de casos —en los que quiero sacar un promedio, pero no quiero que todos
los datos «tengan el mismo peso», no voy a usar la media, sino la media ponderada. Esta
se parece a la media, pero también considera el peso de cada uno de los datos.
Definición 174: Media ponderada

Si tenemos un conjunto de datos (es decir, de números): d1 ,d2 , . . . ,dn ,


entonces su media ponderada está dada por:

d1 (p 1 ) + d2 (p 2 ) + . . . + dn (p n )
p1 + p2 + . . . + pn
Es decir, sumo el producto de cada dato por su peso, y luego divido eso
entre la suma de todos los pesos.

Con la media ponderada, los datos que tienen más peso —en el sentido literal de

400
que su peso pi es más grande— van a contribuir más en el promedio final. Si todos los
pesos son iguales, la media ponderada será idéntica a la media aritmética. Además,
como no se puede dividir por cero, los pesos deben sumar a más de cero, y ninguno de
ellos puede ser negativo.
Otra medida de tendencia central que vamos a revisar es el concepto muy importante
de valor esperado (también conocido como esperanza, valor de expectación o, cuando no
hay ambigüedad con el promedio aritmético, simplemente media). Pero eso será hasta
que hayamos revisado el concepto de variable aleatoria.
Ejercicio # 68
1. Considera la siguiente lista de datos: 70, 89, 65, 124, 53, 68, 234. Brinda su media,
mediana y moda.
2. Define un problema en el que sea útil usar el promedio ponderado (con al menos
cinco datos, cada uno con distintos pesos), y obtén esa medida.

Arriba notamos que la media, mediana y moda son útiles para representar el elemento
«típico» o «promedio» de un conjunto de datos cuando estos (1) son igual de importantes
entre sí, y (2) no están muy «dispersos». Cuando lo primero no sucede, podemos usar
la media ponderada. Ahora veamos qué pasa cuando lo segundo no sucede.
Consideremos otra vez a la media aritmética. Esta sirve como una buena represen-
tación de un conjunto de datos cuando estos no están demasiado dispersos. Recuerda la
lista de alturas de mis amigos: 1.70, 1.65, 1.90, 1.50, 1.78, 1.66, 2.00. De esta, el promedio
aritmético es 1.74 (redondeando), y se podría decir que es una buena representación
de la altura de mis amigos: no es ni muy baja ni muy alta, se acerca al valor «típico» de
esos datos.
Pero en otros casos el promedio aritmético no es una buena representación, porque
los datos están muy dispersos: no reflejan una tendencia. Por ejemplo, supongamos que
tengo un salón con cinco personas como alumnos, que tienen la siguiente calificaciones:
3, 10, 2.5, 9.7, 8.9. Si alguien me pregunta cuál fue la calificación promedio de este salón,
le diré que 6.82. Pero aunque ese es el promedio ¡no es una buena representación de
esas calificaciones! Nadie sacó algo cercano al 6.82: sólo vimos calificaciones, o bastante
más altas, o bastante más bajas. Para otro ejemplo, considera una sociedad con una
economía muy desigual: unas pocas personas concentran buena parte del dinero, y
muchísimas personas tienen casi nada de dinero (por ejemplo, considera una sociedad
hipotética parecida a algunas reales: 1 % de las personas concentran el 50 % de la riqueza,
y el restante 99 % de la población tiene la otra mitad de dinero en esa sociedad). En
casos como este, al sacar el promedio tendríamos que «la riqueza promedio» en esa
sociedad podría ser una medida muy alta, que no represente la riqueza de la persona
verdaderamente típica: parecerá que gana más gracias al efecto de considerar en el
promedio a la gente extremadamente rica.

401
Por lo anterior, un hecho importante de la estadística es este: además de conocer los
promedios, muchas veces es importante conocer qué tan dispersos, qué tan alejados, están los
datos que promediamos.
Para esto último usamos las medidas de dispersión, que ahora vamos a revisar.

Medidas de dispersión

Una primera medida de dispersión es el rango, que sirve para conocer qué tan amplio
es el recorrido de los datos que tenemos.
Definición 175: Rango de un conjunto de datos

Si tenemos un conjunto de datos (es decir, de números): d1 ,d2 , . . . ,dn , su


rango está dado por:

rango = dmáximo − dmínimo

Es decir, resto el dato más bajo del dato más alto.

El rango es muy fácil de calcular, pero solamente nos dice la «amplitud» en la que es-
tán dispersos nuestros datos. Tenemos otras medidas de dispersión, pero para variables
aleatorias, que revisaremos abajo.
Abajo vamos a ver otra medida de dispersión, probablemente la más importante: la
desviación estándar.

Medidas de tendencia no central

Ya revisamos medidas de tendencia central y medidas de dispersión, que nos dicen qué
tanto se alejan los datos del «promedio» o el dato «típico». Pero para resumir un conjunto
de datos tenemos herramientas que no se enfocan en el promedio y la concentración
de este, sino que segmentan los datos en grupos parecidos, para decirnos cuántos datos
están en cada grupo. Así, estas medidas nos informan mejor de cómo se distribuyen estos
datos.
La idea básica es dividir el conjunto de datos en segmentos iguales, mediante un
orden creciente. A estos segmentos, en general, los vamos a dividir mediante puntos
que se conocen como cuantiles, pero toman nombres específicos dependiendo de cuántas
divisiones hagamos. Por ejemplo, si dividimos el conjunto de datos en cuatro partes,
tendremos tres puntos: el primero, el segundo y el tercer cuartil. En general, el 25 %
de los datos está abajo del primer cuartil, el 50 % está debajo del segundo cuartil (que
también es la mediana), y el 75 % de los datos está debajo del tercer cuartil.
Habiendo ordenado nuestros datos de menor a mayor, obtenemos los cuartiles así:

402
1. Primero obtenemos la mediana del conjunto de datos. Este número va a ser el
segundo cuartil.
2. El primer cuartil es la mediana en el segmento que va del dato más pequeño a la
mediana del conjunto total.
3. El tercer cuartil es la mediana en el segmento que va de la mediana del conjunto
total, al dato más grande.
Por ejemplo, consideremos este conjunto de veinte datos (que representa alguna propie-
dad de interés):

62, 67, 71, 74, 76, 77, 78, 79, 79, 80, 80, 81, 82, 82, 83, 84, 86, 89, 93, 95

Notemos que ya los tengo ordenados de menor a mayor. Su mediana es 80, por lo
que este es también el segundo cuartil. Nota, además, que la mitad de los datos van
a estar abajo de este dato. Ahora obtengo la mediana del conjunto que está abajo de
segundo cuartil: 62, 67, 71, 74, 76, 77, 78, 79, 79, 80, que es 76.5. Esto nos da el primer cuar-
til. Finalmente, obtengo la mediana del segmento que está arriba del segundo cuartil:
81, 82, 82, 83, 84, 86, 89, 93, 95. Su mediana es 84, lo que nos da el tercer cuartil. Así, en
resumen: el conjunto de datos de arriba tiene estos tres cuartiles:

76.5, 80, 84

Estos tres cuartiles nos dan una mejor idea de cómo están distribuidos los datos que un
mero promedio aritmético (que es 79.9, por cierto). Nos dice cuál es el «centro» —la
mediana— pero también cómo están los datos «a los lados» del centro.
Los cuartiles no son la única medida de tendencia no central. También encontramos
los deciles y los centiles. En ambos, la idea básica es la misma: dividimos la serie de datos
(ordenados de menor a mayor) en un número igual de segmentos, y de ahí tomamos
los puntos a la mitad de la división. Para los deciles, dividimos la lista de datos en diez
partes iguales, lo cual nos dará nueve puntos: los nueve deciles. El quinto decil es la
mediana del conjunto total. De igual forma, los centiles son 99 puntos, cada uno de los
cuales se usa para dividir el intervalo de datos en 100 partes iguales. El centil número
50 es la mediana del conjunto total de datos, y estos son de tal forma que el 1 % de los
datos va a estar abajo del primer centil, el 2 % va a estar abajo del segundo centil, y así,
el 99 % de todos los datos va a estar debajo del último centil. (Obviamente, para poder
usar los centiles, mi conjunto de datos tiene que tener más de cien elementos.)
Ejercicio # 69
1. Busca la lista de países por su producto interno bruto (PIB) nominal al año 2017
(en millones de dólares). Toma los 50 países más ricos según ese parámetro y
con ellos, forma el conjunto de datos de su PIB. Arregla de menor a mayor esos
datos, y brinda los tres percentiles y los nueve deciles de esa lista.

403
16.2.3. Muestras: representativas y sesgadas

Considera los siguientes dos casos.

Primer caso. Juan, un joven de una lejana nación que está decidiendo a qué dedicar-
se, quiere saber qué tan probable es que estudiar filosofía le permita tener un buen
salario al terminar la carrera. Para ello, le pregunta a algunos graduados de ciertas
universidades qué tan bien les ha ido después de graduarse. Como su círculo so-
cial es limitado, Juan solamente conoce a personas que han estudiado en las tres
universidades más caras de su país, y también le pregunta a algunos de los amigos
de estas personas. Obtiene 20 respuestas. Entre ellas, obtiene respuestas como las
siguientes:
• Al (graduada de la Universidad Rico McPato): «¡Me ha ido muy bien! Desde
que terminé mi carrera, junto con mis compañeros invertí en un negocio y he
estado ganando muy bien con ello.»
• Ben (graduado de la Universidad Billetín Don Dinero): «¡Excelente! Al terminar
ejemplo 54

la carrera mi papá me recomendó para un puesto de dirección en el gobierno,


el cual obtuve tras presentar varios procesos de selección; he utilizado mis
habilidades filosóficas y me pagan bien.»
• Cam (graduada de la Universidad Nacional de los Millones): «Administro el ne-
gocio de la familia; sigo con mi estudio de filosofía en mis tiempos libres, pero
afortunadamente al negocio le ha ido muy bien, así que no puedo quejarme.»
Por supuesto, aún cuando tiene una buena cantidad de respuestas a la mano —
veinte—, si Juan infiere de ellas que probablemente, estudiar filosofía me lleve a
ganar buen dinero, su inferencia no sería muy buena: esa conclusión no está justifi-
cada por la evidencia de la que dispone. ¿Qué le falta?

Segundo caso. Lucía está en la misma situación que Juan, y piensa preguntarle
también a las personas que conoce. Sin embargo, Lucía conoce solamente algunas
pocas personas graduadas de universidades públicas muy pequeñas, así que se
pregunta si preguntar sobre ello le dará un buen panorama de sus opciones. En
lugar de ello, decide ir a todas las universidades que ofrecen la carrera de filosofía
en la ciudad, tanto las públicas como las privadas, y preguntar ahí.

Parece que, si Lucía decide hacer una inferencia a partir de los datos que haya reco-
lectado, esto estaría mejor justificado que la inferencia de Juan. ¿Por qué? Porque Lucía
extrajo datos que representan mejor a la población total: entre todas las personas que se
gradúan tras haber estudiado filosofía, podemos encontrar diferentes perfiles económi-
cos. Como es razonable pensar que estos perfiles tienen alguna relación con el salario
tras haber estudiado, es mejor tratar de tener información sobre todos ellos, para que
nuestra conclusión no esté sesgada: no esté «cargada hacia un lado» de todo el espectro

404
de posibilidades. Al contrario: queremos que nuestra conclusión sea lo más representati-
va posible: que hable de la mayor parte de la población, del conjunto total, no solamente
de un pequeño sector dentro de esta población.
Esta es la importancia de tener muestras representativas, un concepto que vamos a
definir después de la siguiente definición.
Definición 176: Muestra y población

Una muestra es un subconjunto de objetos que se seleccionan (mediante


algún proceso) del total de individuos de un cierto tipo. Este conjunto total
es la población.

De aquí en adelante, vamos a entender a una muestra como un conjunto de datos: es


decir, un conjunto de números que representan cierta propiedad de los individuos que
seleccionamos.
Generalmente, se selecciona una muestra porque (i) deseamos investigar ciertas pro-
piedades de la población total, y (ii) no conocemos a toda esta población o no podemos
obtener información sobre ella. Como vimos con los ejemplos de arriba, es importante
que, al hacer una inducción, la hagamos partiendo de un conjunto de individuos —de
una muestra— que sea representativo de todos —de la población.
Definición 177: Muestra representativa

Una muestra representativa es una muestra que refleja o replica a la po-


blación de la que se extrae, en los aspectos de interés para los que se
selecciona la muestra.

Existen distintas formas para evaluar la representatividad de una muestra, y para


intentar que la muestra que seleccionemos sea representativa. Brevemente, podemos
mencionar dos formas:
• Si tenemos un estimado de cómo es la población total en un aspecto relevante para
nuestra estadística, trataremos de seleccionar una muestra que la represente. Por
ejemplo, si queremos hacer una estadística de las preferencias de voto para un
candidato en una elección presidencial, una buena idea es preguntarle al mismo
número de mujeres que a hombres, pues sabemos que, aproximadamente, la mitad
de las personas que pueden votar son mujeres y la otra mitad son hombres.
• Si no tenemos un estimado de cómo es la población en algún aspecto, podría-
mos intentar seleccionar a los individuos de nuestra muestra de la manera más
aleatoria posible. Por ejemplo, si acabo de descubrir una especie de aves en una
isla, para estudiar sus características debo seleccionar, como parte de mi muestra,
individuos de todas las partes de la isla. De esta forma, evitaré sesgar mi estudio
hacia las aves que solamente viven en una parte de la isla, las que podrían no

405
representar a todas las demás.

16.2.4. Variables aleatorias

Uno de los conceptos fundamentales de la estadística es el de variable aleatoria. Esta se


define por tres características que ahora voy a explicar.
En primera, una variable aleatoria representa cuantitativamente una característica de
nuestro objeto de estudio, por lo que tomará valores numéricos. Por ejemplo, quizá nos
interese estudiar a los planetas del sistema solar; en ese caso, podríamos usar variables
que representen la masa de cada planeta.
La segunda característica definitoria de una variable aleatoria es que depende de cir-
cunstancias aleatorias, es decir, puede tomar valores distintos en distintas circunstancias,
donde estas circunstancias son generadas por un proceso aleatorio. Por ejemplo, al lan-
zar una moneda al aire, tenemos un proceso aleatorio, que produce una circunstancia
aleatoria: que la moneda caiga «águila» o que caiga «sol». Así, podríamos tener una
variable aleatoria, X , que tome cierto valor dependiendo de cuál sea el resultado de
lanzar la moneda. Como las variables aleatorias deben ser numéricas, basta con asig-
narle un «1» a la cara con águila, y un «0» a la cara con sol. Entonces, dependiendo del
resultado del lanzamiento, la variable describe a la moneda como X = 1 o X = 0.
La tercera característica es que los valores que toma una variable aleatoria en cada
circunstancia posible tienen cierta probabilidad. Regresando al caso de la moneda, la
probabilidad de que X = 1 —de que la moneda caiga en águila— es 1/2, igual que
la probabilidad de que X = 0, pues la moneda solamente tiene dos caras. Pero ahora
consideremos el caso en el que lanzamos un dado que no está cargado. Definimos una
variable aleatoria, Y , que tomará un valor de 1 a 6, dependiendo de qué cara del dado
caiga. Como suponemos el dado no está cargado, cada cara tiene la misma probabilidad
de caer. Además, las probabilidades deben sumar 1. Entonces, como son seis caras (y
suponemos que debe caer solamente una), sus probabilidades deben sumar 1 y tienen
la misma probabilidad, cada cara tiene una probabilidad de 1/6 de caer. Así, tenemos
que la probabilidad de que Y = 1 es de 1/6, igual que la probabilidad de que Y = 2,
Y = 3, etc.
Formalmente hablando, una variable aleatoria va a ser una función que tome eventos
y nos regrese números.4 Si la variable puede tomar como valores a los números naturales
(o un subconjunto de ellos), decimos que es una variable aleatoria discreta. Si, en cambio,
toma valores en un intervalo dentro de los números reales, decimos que es una variable
aleatoria continua. En este texto vamos a ocuparnos de manera prácticamente exclusiva
de variables discretas; aunque algunos conceptos fundamentales son muy similares para
las variables continuas.

406
Valor esperado o Esperanza

Antes vimos que una variable aleatoria va a tomar un valor en cada circunstancia po-
sible con una probabilidad correspondiente. El valor esperado de una variable nos da
algo parecido a un promedio de los valores que puede tomar, «controlado» por las pro-
babilidades de que tome esos valores. Es, entonces, una media ponderada, del tipo que
definimos antes (definición 174). Por ello, al valor esperado de una variable también
se le conoce como su media, y cuando es claro de qué variable hablamos, simplemente
escribimos «𝜇» para referirnos a su valor esperado. Pasemos a la definición del concep-
to.5
Definición 178: Valor esperado

Sea X una variable aleatoria cuyos posibles valores son x 1 ,x 2 , . . . ,x n ,


donde cada uno de estos puede ocurrir con una probabilidad, respecti-
vamente, de p 1 , p 2 , . . . , p n . El valor esperado de X , que denotamos con
«E[X ] », se define así:

E[X ] = x 1 (p 1 ) + x 2 (p 2 ) + . . . + x n (p n ) = 𝜇 (16.2)

Es decir, es la suma de cada posible valor, multiplicado por la probabilidad


de que la variable tome ese valor.

Así, entre más probable sea uno de sus valores, más peso tendrá al calcular ese
promedio. Por las mismas razones, el valor esperado de una variable aleatoria incluso
podría no ser uno de los valores que pueda tomar.
Un ejemplo de lo anterior es un dado justo (que no está cargado). Si lanzamos el
dado, saldrá uno de los valores entre 1 y 6; cada uno de estos valores tiene la misma
probabilidad de aparecer. Como son seis posibles valores, tenemos una probabilidad
de 1/6 para cada uno de ellos. Si calculamos el valor esperado de la variable aleatoria,
X , que representa el número que sale tras lanzar el dado, obtenemos:

1 1 1 1 1 1
𝜇 = 1( ) + 2( ) + 3( ) + 4( ) + 5( ) + 6( )
6 6 6 6 6 6
1 2 3 4 5 6
= + + + + +
6 6 6 6 6 6
21
=
6
= 3.5,

que no es uno de los valores que podrían resultar tras lanzar el dado. De nuevo, el
valor esperado de la variable no siempre es uno de los valores que podría tomar, pero
representa un promedio de los valores a los que tiende a largo plazo, considerando
también a las probabilidades que tiene cada valor.

407
Desviación estándar

El valor esperado es una medida de tendencia central, pues nos dice a qué valores tiende
en promedio la variable. También tenemos medidas de dispersión para las variables
aleatorias, que nos dicen qué tan dispersos están los valores de esa variable con relación
al valor esperado, al valor «promedio». La más importante de ellas es la desviación estándar.
Con poca desviación estándar, la mayoría de los posibles valores de la variable están
cerca del valor esperado. Con mucha desviación estándar, hay muchos valores que
podría tomar la variable lejanos a su valor esperado.
Vamos a definir la desviación estándar de una variable aleatoria X , que se suele
escribir así: «𝜎X », o sin el subíndice en caso de que se entienda de qué variable estamos
hablando.
Definición 179: Desviación estándar
Sea X una variable aleatoria y E[X ] su valor esperado. Entonces, la des-
viación estándar de X se define así:
p
𝜎X = E[(X − E[X ]) 2 ], (16.3)

lo cual, por las propiedades del valor esperado, también implica:


p
𝜎X = E[X 2 ] − (E[X ]) 2 (16.4)

Si nos enfocamos en variables discretas X que solamente puedan tomar


un número finito de valores x i , cada uno con su respectiva probabilidad
pi , la ecuación 16.4 implica la siguiente fórmula para el valor esperado de
X.
q
𝜎X = p 1 (x 1 − E[X ]) 2 + p 2 (x 2 − E[X ]) 2 + . . . + p n (x n − E[X ]) 2
(16.5)

Como el valor esperado es la media de la variable y también se denota por 𝜇, la


ecuación 16.5 puede rescribirse así:
q
𝜎X = p 1 (x 1 − 𝜇) 2 + p 2 (x 2 − 𝜇) 2 + . . . + p n (x n − 𝜇) 2 (16.6)

Esta es la definición que más se usa para el valor esperado, y la que podemos a usar
para calcularlo.
Vemos que la desviación estándar de X resulta ser la raíz cuadrada de la suma de:
la distancia cuadrada entre cada posible valor y la media, multiplicada por su proba-
bilidad. Es decir, es un tipo de promedio que nos dice qué tan lejos está cada valor
de la media, controlando con la probabilidad de ese valor. Si la variable puede tomar

408
valores muy distintos, con probabilidades bastante parecidas, su desviación estándar
va a ser muy alta. En cambio, si solamente puede tomar valores muy parecidos entre
sí, con probabilidades parecidas, su desviación estándar va a ser baja. Ahora bien, si
toma valores parecidos entre sí con probabilidades muy distintas, pero donde hay un
sesgo en las probabilidades hacia cierto espectro de su valor, su desviación estándar va
a ser también baja, pues los valores tienden más a acercarse a una magnitud, con poca
probabilidad de alejarse de ella.
Una ventaja de la desviación estándar es que viene en las mismas dimensiones que
la variable aleatoria. Por ejemplo, supongamos algún juego imaginario de un casino,
donde algún proceso aleatorio produce cuatro posibilidades. Las cuatro tienen la misma
oportunidad de suceder, por lo que la probabilidad de cada una sería de 1/4 = 0.25. En
cada una de las cuatro posibilidades, ganamos o perdemos fichas del juego. Vamos a
usar a la variable X para representar esto. Tenemos que, por las reglas del juego, estas
son las pérdidas o ganancias:
• Posibilidad 1: ganamos 2 fichas. (X = +2, Pr = 0.25)
• Posibilidad 2: perdemos 2 fichas. (X = −2, Pr = 0.25)
• Posibilidad 3: ganamos 4 fichas. (X = +4, Pr = 0.25)
• Posibilidad 4: no perdemos ni ganamos ninguna ficha. (X = +0, Pr = 0.25)
En este juego, las probabilidades nos favorecen, pues si hacemos el cálculo, vemos que
la media de X es 1 ficha: E[X ] = 1 = 𝜇. Es decir, si jugamos muchas veces este juego,
la tendencia a largo plazo es siempre ganar una ficha. (Sería un pésimo juego para
un casino si no cobran más de una ficha para jugarlo, ¡pues estarían seguros de que
no ganarán a largo plazo!) La desviación estándar es de ≈ 2.2 fichas, de forma que,
en promedio, uno va a estar ganando o perdiendo dentro de un margen de dos fichas
respecto a la media.

16.2.5. Algunas distribuciones de probabilidad

Uniforme

Normal o campana de Gauss

16.2.6. Significancia estadística

[Explicación de su importancia y presentar conceptos que requiere]

409
Hipótesis nula

La hipótesis nula es la hipótesis de que «no hay efecto».


Supongamos que estás haciendo pruebas de una medicina para la gripe. Tu hipótesis
nula sería que la medicina no cura la gripe: que tomarla no causa que ya no tengas gripe.
O imagina que quieres proponer que tener padres dentistas causa que tú quieras ser
dentista. La hipótesis nula sería que no hay relación causal entre tener padres dentistas
y querer ser dentista: que uno puede tener padres dentistas sin que ello aumente la
probabilidad de querer ser uno.
En general, cuando uno propone que hay cierto efecto, es decir, cierta relación causal
entre algo y otra cosa, ese «algo» y esa «otra cosa» van a ser variables aleatorias que
representen los fenómenos entre los que propones que hay una conexión.
Así, para el ejemplo de la medicina, una variable puede ser las dosis que tomas de
la medicina, y la otra un número que represente tus síntomas en una escala. (Siempre
tienen que ser variables numéricas positivas). En el caso de los dentistas, una variable
podría ser: = 1 si tienes ambos padres dentistas, = 1/2 si solamente uno. Por supuesto,
estoy inventado; esto va a depender del diseño del experimento. Lo del deseo de conver-
tirte en dentista lo podrías representar mediante la frecuencia (la proporción observada
del total) en que la gente de la muestra se convierte en dentista, digamos.
Esto nos lleva a la siguiente definición.
Definición 180: Hipótesis Nula

Una hipótesis nula es la hipótesis que te dice que no existe la relación


entre las variables aleatorias que tú quieres proponer en tu trabajo. Es
la que quieres refutar mediante tu experimento, para mostrar que sí hay
relación. Se le denota así: H0 .

Ahora bien, para refutar a la hipótesis nula mediante tu experimento, primero te


preguntas lo siguiente:
Si la hipótesis nula fuera verdad, ¿qué tan probable sería observar los valores que
observo experimentalmente?
Para entender por qué te preguntas esto, consideremos un ejemplo.
Supongamos que estás debatiendo con alguien más. Tú y esa persona tienen posturas
contrarias. Pueden decir: «Bueno, para saber quién tiene la razón: si yo la tuviera, ¿qué
tan factible sería ver lo que observamos? Y si tú tuvieras razón, ¿qué tan factible sería
ver lo que observamos?» La idea es suponer esto: la hipótesis que te diga que es más factible
ver lo que observamos, es la más «preferible» (en un sentido que veremos).
Bien, pues aquí no estás discutiendo con otra persona, sino con la hipótesis nula.

410
Aquí ya tenemos la idea esencial de la significancia o significación estadística: Que tú,
como investigador(a), propones que hay cierta relación o efecto. Esta es una relación
entre variables aleatorias. Tu contrincante defiende la hipótesis nula: «no, no hay tal
efecto». Quieres demostrar en tu trabajo que tu contrincante está mal: que hay que
rechazar la hipótesis nula. Entonces infieres esto: la mejor hipótesis es la que mejor
explique los datos observados. Y entiendes esto último en un sentido cuantitativo: la
hipótesis que mejor explique los datos es la que nos diga que son más probables.

Valor p

Entonces, tienes dos preguntas:


¿Qué tan probables serían los datos, si la hipótesis nula fuera verdad?
Y:
¿Qué tan probables serían los datos, si mi hipótesis («sí hay efecto») fuera verdad?
Si resulta que bajo tu hipótesis los datos son más probables que bajo la hipótesis nula,
se dice que los datos son estadísticamente significativos.
De hecho, de forma más general, puedes quitar del escenario a tu hipótesis y consi-
derar sólo a la nula. Te preguntas:
¿Qué tan probables son los datos, si la hipótesis nula fuera verdadera?
Y estableces cierto rango en el que sea aceptable rechazar la nula. Ese rango va a ser
una manera cuantitativa de decir: «Si los datos son muy improbables bajo la hipótesis
nula, hay que rechazarla». Incluso sin tener una hipótesis alternativa específica. Es como
decir:
«Yo no tengo una postura definida, pero sí te puedo decir que quien dice
que no hay efecto muy probablemente se equivoca, porque bajo su hipótesis,
lo observado sería muy improbable».
Los valores p son la forma cuantitativa de expresar eso de «muy improbable». Es decir,
te dan márgenes numéricos dentro de los cuales uno habla cualitativamente de «muy
improbable».
Este es el concepto general. Ahora bien, el valor p representa qué contamos como
«muy improbable». Entonces sería la probabilidad de haber observado un valor tan alto
—o incluso mayor— como el que se observa, si es que la hipótesis nula resulta verdadera.
Ahora veámoslo cuantitativamente.
Definición 181: Valores p

Si V es la variable de la que se observa el valor x (es decir, observamos


V = x ), que se considera un valor «alto», y H0 es la hipótesis nula, el valor

411
p sería dado por:
Pr(V ≥ x | H0 ) (16.7)
Es decir, la probabilidad de que V sea mayor o igual al valor observado,
suponiendo que la hipótesis nula sea verdad.
Si, al contrario, el valor observado se considera «bajo», el valor p sería:

Pr(V ≤ x | H0 ) (16.8)

Bien. Ya que calculas el valor p, ves qué tan grande es. Si el valor p es muy pequeño,
significa que la hipótesis nula te está diciendo: «Es muuuy improbable que suceda que
V = x». Se dice, entonces, que tus datos observados tienen significancia estadística.
Ahora, ¿qué significa que el valor p sea «muy pequeño»? Bueno, pues eso se defi-
ne convencionalmente en cada área de estudio; algunas revistas especializadas incluso
pueden decirte específicamente qué valor requieren para considerar publicar un artículo
con esos datos. A este valor se le conoce como nivel de significancia, y se suele escribir
como «𝛼». Por ejemplo, en psicología creo que (al menos antes de todo el escándalo de
replicación) el nivel convencional era = 0.05; en la física a veces te piden = 0.001, por
poner otro ejemplo.
Entonces, si tu p entonces es ≤ 𝛼, significa que tus datos son estadísticamente significa-
tivos. A su vez, esto significa que cumplen un requisito científico mínimo para que se tome
en serio a tu hipótesis (que es contraria a la nula).

16.2.7. Inducción simple o enumerativa

16.2.8. Utilidad esperada

16.2.9. Inferencia Bayesiana

[En esta sección voy a exponer el teorema de Bayes, las nociones de probabilidad condi-
cional y de función de verosimilitud, y la utilidad de la teoría bayesiana para actualizar
probabilidades.]

16.3. Correlación y causalidad

Uno de los tipos de argumento probabilístico más importante es el que se conoce como
inferencia causal. Este es el tipo de argumento que, partiendo de ciertas premisas, con-
cluye que existe una relación causal entre dos eventos. Vamos a definir algunos conceptos
básicos, para después enfocarnos en las relaciones de correlación y de causalidad.

412
16.3.1. Conceptos básicos

Empezamos definiendo algunos conceptos que serán útiles para comprender la relación
entre causalidad y correlación.
Evento Un evento o suceso consiste en que un objeto particular tenga una propiedad
en un momento y lugar determinado. (Por ejemplo, cuando José está feliz en la
mañana del día de su cumpleaños, eso es un evento.) Cualquier suceso que ocurra,
lo sepamos o no, nos parezca importante o no, o sea la que sea la reacción que
nos provoque, es un evento en este sentido.
Causalidad Es la relación entre una serie o pluralidad de eventos en la que una parte —
la causa o las causas— provoca o genera o produce o hace que suceda la otra parte —el
efecto o los efectos. (Por ejemplo, la ciencia y la medicina clínica han comprobado
que fumar causa cáncer. Para una persona específica, esto significa que toda la serie
de eventos en los que ha fumado, provocaron, generaro o produjeron el evento
del cáncer iniciándose en su sistema respiratorio.)
Hipótesis causal : Una proposición que afirma que un evento (o serie de ellos) es cau-
sado por otro evento (o serie de ellos). Como proposiciones que son, las hipótesis
causales pueden ser objeto de creencias por parte de sujetos, o de afirmaciones
de ellos; también pueden tener relaciones con la evidencia, o carecer de ellas.
Correlación : La relación probabilística entre dos tipos de sucesos que nos indica si
suelen suceder conjuntamente. La definición más usual de la correlación es el
coeficiente de correlación de Pearson.6
Con los conceptos básicos sobre la mesa, vamos a definir el coeficiente de correlación
de Pearson.

16.3.2. El coeficiente de Pearson

El coeficiente de Pearson es la forma más aceptada de medir la correlación lineal entre


dos variables aleatorias. Se define mediante en términos de dos magnitudes: la covarian-
za y la desviación estándar. Arriba (5) ya revisamos el concepto de desviación estándar,
ahora hablemos sobre la covarianza.
La covarianza también es una forma de medir la relación entre dos variables aleato-
rias, de forma que una covarianza positiva entre ellas nos dice que a más altos valores
de una, más altos valores de la otra también, y a más bajos valores de una, más bajos
valores de la otra también. A su vez, una covarianza negativa nos dice que hay una
relación inversa entre las variables: a más altos valores de una, más bajos los valores de
otra, y viceversa. Si la covarianza es cero, no hay una relación (lineal) entre los valores
que podrían tomar las variables aleatorias.

413
Veamos la definición de la covarianza entre dos variables aleatorias X , Y , que escri-
bimos como «Cov(X ,Y )»:
Definición 182: Covarianza

Cov(X ,Y ) = E [(X − E[X ]) (Y − E[Y ])] (16.9)


Resulta que esta ecuación implica la siguiente, que suele ser más práctica:

Cov(X ,Y ) = E [XY ] − E[X ] E[Y ] (16.10)

La covarianza es una relación simétrica, de forma que Cov(X ,Y ) = Cov(Y,X ).


Habiendo visto la covarianza, podemos comprender la importancia de la correlación.
Esta nos brinda una forma más cuantitativa de medir la relación conjunta entre dos
variables aleatorias. Por supuesto, la covarianza de dos variables ya es una cantidad,
pero no tiene un intervalo de variación determinado: no siempre toma los mismos
valores, sino que los valores de la covarianza dependen de los valores que tomen las
variables que comparamos. A diferencia de ello, el coeficiente de correlación sí tiene
un intervalo determinado: solamente puede tomar valores entre -1 y 1. Se dice entonces
que la correlación está normalizada, pero no la covarianza.
Que la correlación esté normalizada nos permite interpretarla más fácilmente. Las
variables con correlación 0 no muestran ninguna relación entre sus valores: a valores
más altos de una variable, la otra puede tomar iguales, más altos, o más bajos. Las
variables con correlación 1 muestran correlación positiva perfecta: a más altos valores
de una, más altos valores de la otra también, y a más bajos valores de una, más bajos
valores de la otra también. Las variables con correlación -1 muestran correlación negativa
perfecta: a más altos valores de una, más bajos los valores de otra, y viceversa. Así, si
el valor de la correlación entre las variables se acerca a 1, van a estar cerca de estar
perfectamente correlacionadas (positivamente); si se acerca más bien a cero, van a
estar cerca de no estar en absoluto correlacionadas, y si se acerca a -1, van a estar cerca
de tener una correlación negativa perfecta. Entonces, el hecho de que la correlación
siempre tome valores en el mismo intervalo (de -1 a 1) nos permite comparar distintos
pares de variables respecto a qué tanto están correlacionadas entre sí.
Ahora vamos a definir la correlación, que se suele conocer como el coeficiente de corre-
lación de Pearson.7
Definición 183: Correlación de Pearson
Donde X ,Y son dos variables aleatorias, escribimos el coeficiente de co-
rrelación de Pearson como 𝜌(X ,Y ) , definido por:

Cov(X ,Y )
𝜌(X ,Y ) = (16.11)
𝜎X 𝜎Y

414
con Cov(X ,Y ) la covarianza entre X e Y y 𝜎X , 𝜎Y las respectivas des-
viaciones estándar.

Como la covarianza, la correlación es simétrica: 𝜌(X ,Y ) = 𝜌(Y,X ).


Antes vimos que la correlación entre dos variables toma valores de -1 a +1. Si 𝜌(X ,Y ) =
−1, se dice que las dos variables tienen una anti-correlación perfecta o una correlación nega-
tiva perfecta. Si tienen correlación 0, se dice que son independientes. Y si tienen correlación
1, están perfectamente correlacionados.
Podemos representar gráficamente las relaciones de correlación positiva, negativa, y
de falta de correlación entre dos variables. Primero, ponemos una variable como el eje
horizontal, y como eje vertical tenemos a la otra variable. Nos queda un plano de esta
forma:
Y

Luego acomodamos los datos que encontramos como puntos en esta gráfica. Por
ejemplo, si encontramos que en un dato X toma el valor 3 y Y toma el valor 2, ponemos
un puntito exactamente en las coordenadas (2, 3). Seguimos así. Entonces, si las dos
variables no presentan ninguna correlación, vamos a ver una «nube» de puntos que no
se parecen a ninguna línea recta, como la siguiente:
Y

Sin embargo, cuando las dos variables aleatorias presentan correlación positiva, la grá-
fica se va a parecer a esta:

415
Y

Nota como los valores de las dos variables correlacionadas se acercan a una línea recta,
que ponemos en rojo. Si todos los valores estuvieran en la misma recta, la correlación
sería perfecta, pues en cada circunstancia ambas variables darían exactamente el mismo
valor.
Y

Cuando las variables tienen una correlación negativa, los valores altos de una se van
a corresponder con los valores bajos de la otra, y viceversa.
Y

Como con la correlación positiva, podemos notar que la correlación negativa se apro-
xima a una línea, solamente que en este caso es una línea descendente. De nuevo, si los
puntos que representan a los datos que conocemos estuvieran todos sobre la línea roja,
tendríamos una correlación negativa perfecta.

416
Y

Este concepto de correlación se llama lineal porque entiende a la correlación perfecta


(ya sea negativa o positiva) como una línea, tal como se ve en las gráficas anteriores.
Sin embargo, no todas las variables van a tener una correlación lineal: quizá sus valores
describen una curva en el plano. En ese caso, no es que no tengan correlación, es
que su correlación es no lineal. Este concepto es más complicado y necesitaríamos más
espacio para revisarlo, pero es bueno tener en mente que la falta de correlación lineal
no significa que no haya algún tipo de correlación.

16.3.3. Correlación no implica causalidad

Ahora podemos ver una de las ideas más importantes para comprender a la inferencia
causal: Correlación no implica causalidad. Es decir, dos eventos pueden ocurrir conjun-
tamente, incluso muchas veces, sin que ninguno cause al otro. Que dos cosas sucedan
conjuntamente no significa que una haya provocado a la otra. Por supuesto, en algunos casos
sí sucede que un evento causa al otro, pero no necesariamente en todos.
Entre los eventos correlacionados que no exhiben relaciones causales, podemos hacer
la siguiente división:
• Ninguno causa al otro: la correlación es una coincidencia.
• Ninguno causa al otro, pero sí hay otras relaciones causales más complicadas.
Para entender los casos del segundo tipo, en los que la correlación no es una mera
coincidencia, será útil considerar algunos diagramas.
Vamos a usar dobles flechas azules para representar correlaciones, y una flecha on-
dulada naranja para representar causación (de manera que la flecha vaya de la causa al
efecto: «C ⇝A» significará que C causa a A). Por ejemplo, en el caso 1 de abajo, A y B
están correlacionados, pero uno no causa al otro. Su correlación se debe a que ambos
tienen una causa común, que los causa simultáneamente.

417
A
C1 C2

1 C 2
A B

A A

3 C 4 C

B B
Inferir que A causa B (o viceversa) de la mera información de que ambos tipos de
eventos están correlacionados, es cometer una falacia: se dice que se infiere causalidad
de correlación. Pero, como hemos visto, la mera correlación no implica a la causalidad.
En un tema relacionado con esto, encontramos a una falacia similar, la conocida como
«post hoc, ergo propter hoc»: «después de esto, por lo tanto, debido a esto». En esta falacia,
se infiere causalidad a partir de sucesión temporal. En ambos casos, se infiere una
relación causal a partir de la cercanía de los eventos en el tiempo, lo cual es incorrecto.
Ejercicio # 70
I Da dos ejemplos de cada estructura en la que hay eventos A y B correlacionados
que no causan uno al otro. Es decir, escribe casos —reales o posibles— en los que
haya eventos que se correlacionan sin causarse, con la estructura de cada uno de los
diagramas de arriba.
II Da dos ejemplos de correlaciones azarosas (por suerte), es decir, correlaciones
que no se explican causalmente.

16.3.4. Condiciones necesarias para la causalidad

Hemos visto que la correlación no implica a la causalidad. Entonces, la causalidad


debe poseer otras características. ¿Cuáles son estas? De hecho, esta es una cuestión
fuertemente debatida en la filosofía contemporánea (Schaffer 2016), así como en otras
áreas que tratan con la inferencia causal.
Vamos a empezar con tres criterios cuya historia llega al menos hasta Hume (en
sus famosos libros Tratado de la Naturaleza Humana e Investigación sobre el conocimiento
humano). No sugiero estos como suficientes para caracterizar a la causalidad, sino como
una propuesta inicial para entender qué se requiere para la causalidad. En lo que sigue,

418
cuando hable de «dos eventos», pretendo que lo mismo valga para pluralidades o series
de eventos, ya sea fungiendo como causas o como efectos.
Criterio de precedencia temporal Un evento A causa a un evento B solamente si A
ocurre antes que B.
Este criterio manifiesta la suposición de que no existe lo que se conoce como causalidad
retroactiva: cuando la causa viene después del efecto. Todas las relaciones causales que
conocemos obedecen el criterio de precedencia temporal: los efectos siguen a la causa.8
Criterio de contigüidad espacial Un evento A causa a un evento B solamente si A
ocurre en la cercanía de B.
Este criterio manifiesta la suposición de que las relaciones causales son locales: que se
dan entre eventos cercanos entre sí. Por supuesto, un evento puede afectar a otro que
esté lejos de este, pero para ello tiene que haber una vía causal, de lo que hablaremos
al hablar de mecanismos (sección 16.3.5).
Criterio de conjunción constante Un evento A causa a uno B solamente si los eventos
del tipo de A y los del tipo de B están en conjunción constante, es decir, si cada
vez que observamos uno, observamos al otro.
En la filosofía de Hume, este criterio era la base fundamental para las inferencias cau-
sales, que Hume creía que se basaban en la mera costumbre, producida por las obser-
vaciones repetidas de los fenómenos en conjunción. En términos más contemporáneos,
pondríamos este criterio como la idea de que la causalidad implica correlación (pero no
viceversa).
Podríamos preguntar si todo caso de causalidad requiera de correlación. En primera,
como hemos visto, la definición más exacta y extendida de correlación es el coeficiente
de Pearson. Este nos da la covarianza entre dos variables aleatorias, normalizada por
sus respectivas desviaciones estándar. Cada una de las circunstancias posibles en las que
la variable toma un valor es un evento, así que son estos los que pueden entrar en rela-
ciones causales. Sin embargo, la correlación es una relación entre variables aleatorias,
es decir, entre tipos de eventos. Entonces, para que la causalidad implique la correla-
ción, tendría que suceder que, siempre que un evento causa a otro, los demás posibles
valores de las variables correspondientes tiendan a variar conjuntamente (suponiendo
que las condiciones de fondo se mantengan iguales). ¿Sucede esto en todos los casos?
Es una pregunta interesante para reflexionar unos momentos, pero intentaremos dar
una respuesta definitiva aquí.
Regresando a las condiciones necesarias de la causalidad, podemos pasar a un crite-
rio más contemporáneo, que ha sido discutido desde el siglo pasado. Algunas teorías de
la causalidad (influidas por la filosofía de David Lewis) incluso reducen la causalidad al
siguiente criterio, pero esto es muy controvertido. Sin embargo, muchos teóricos consi-
deran plausible la idea de que la causalidad requiere de la dependencia contrafáctica,

419
en el sentido siguiente.
Criterio de dependencia contrafáctica Un evento A causa a uno B solamente si su-
cede que: si no hubiera sucedido A, no hubiera sucedido B. Es decir: si quitáramos
a A de la circunstancia, también quitaríamos a B.
En la base de este criterio está la idea de que la causalidad es «robusta» o «estable», en
el sentido de que, si es que se da, también se hubiera dado en circunstancias parecidas.
La idea es que el efecto dependa contrafácticamente de la causa en el sentido en que,
sin la causa, no tendríamos el efecto. Esta es una forma de comprender la noción de
que la causa genera o produce al efecto. Si estamos suponiendo que el evento solamente
tiene una causa, es razonable suponer entonces que se cumpla este criterio se requiere
(pero no basta) para afirmar razonablemente la hipótesis causal de que A causó a B.9
Vemos que este criterio involucra considerar circunstancias meramente hipotéticas o, co-
mo también se dice, contrafácticas: circunstancias que no ocurrieron, pero que podrían
haber ocurrido. Por esta razón, encontrar qué depende contrafácticamente de que puede
resultar un problema complejo. En las ciencias empíricas, usualmente se busca reprodu-
cir diferentes condiciones, de forma que se puedan aproximar diferentes circunstancias
hipotéticas.
Ejercicio # 71
Para cada uno de los criterios, da dos ejemplos de un hipótesis causal justificada por
ellos. Te pongo un ejemplo.

Criterio Ejemplo 1 Ejemplo 2

Criterio de pre-
cedencia tem-
poral

Criterio de con-
tigüidad espa-
cial

420
Criterio de co-
rrelación

Ayer que salí de mi casa no tenía


gripe, y llovió mientras caminaba
hacia el cine. Cuando regresé, ya
Criterio contra- me sentía mal. Si no me hubiera
fáctico mojado, no me hubiera enferma-
do. Por lo tanto, es probable que
haberme mojado haya contribui-
do a que me enfermara.

16.3.5. Causalidad: Mecanismos y manipulabilidad

Mecanismos

Hemos visto que los cinco métodos de Mill involucran la presencia o ausencia de los
factores que suponemos que están involucrados en relaciones causales. Las ciencias
contemporáneas, particularmente las ciencias médicas y de la salud, además de algunas
ciencias sociales, se enfocan en lograr entender las vías causales. Estas son los canales
o vías mediante los cuales ciertos eventos llegan a causar efectos que parecen estar
desconectados en el tiempo y el espacio.
Consideremos el ejemplo de la afirmación: fumar causa cáncer. Esta es una hipótesis
causal bien fundamentada en la evidencia, y se conoce las vías causales mediante las
que el fumar lleva al cáncer. Así, fumar produce la absorción de compuestos (como
los hidrocarburos aromáticos policíclicos) que son activados metabólicamente al ser
catalizados por enzimas citocromo P450. Esta activación permite que los compuestos
puedan formar enlaces covalentes con el ADN. A su vez, estos forman aductos de ADN.
Los aductos de ADN pueden causar errores en el proceso de replicación de las células,
los cuales resultan en mutaciones (como las transversiones G→T). Estas mutaciones
causan alteraciones en los controles del crecimiento celular. La multiplicación descon-
trolada de células anómalas causa cáncer. Esta es la vía mediante el cual un evento
—darle una fumada a un cigarrillo— lleva hacia la aparición del cáncer.

421
Para cada uno de los componentes de una vía causal, podemos utilizar los métodos
de Mill que revisaremos abajo.

Manipulabilidad

Otro criterio que se recientemente se utiliza bastante para encontrar relaciones causales
es el de manipulabilidad.
Consideremos dos criterios que revisamos antes (sección 16.3.4): el de precedencia
temporal y el contrafáctico: A ocurre antes que B y, si A causa B, eso significa que si
no sucediera A, no sucedería B, pero si sí sucede A, sucederá B. Pero revisamos un
problema con la condición hipotética, a saber: ¿Cómo podemos saber qué ocurriría en
situaciones puramente hipotéticas?
Una manera de tratar con esta cuestión en la práctica es mediante el concepto de
manipulabilidad o intervención.
La idea detrás de esto es la siguiente. Como vimos antes, una correlación entre las
variables A y B puede ser meramente accidental cuando no haya una relación causal
entre las dos variables (o, mejor dicho, entre los eventos que representan). También
puede ser que haya alguna otra variable u otras variables, en cuyo caso hablamos de
una tercera causa.
Si la correlación es meramente accidental o hay una tercera causa, entonces podemos
modificar una de las variables A o B sin que esto implique una modificación en la otra.
A esto se le llama intervenirăen la variable. Si la correlación no manifiesta una relación
causal entre A y B, una intervención en una de ellas no implicará una modificación en
la otra. Así, si nos damos cuenta de que, al intervenir en una variable, la otra variable
correlacionada se modifica de manera correspondiente, tenemos evidencia de que la
primera variable es un factor causal de la segunda.
Una manera de intervenir es buscar los factores con los que A está correlacionado y
tratar de «bloquearlos» o «suspenderlos» —ya sea en un experimento controlado, o en
el cálculo estadístico; hacemos esto con todos exceptuando a uno, para probar si éste es
una causa de A. Además, recordemos que la variable que sea la causa debe anteceder
en el tiempo al efecto.
Por ejemplo, supongamos que queremos encontrar si el tomar una medicina causa
que los pacientes mejoren en cierta condición. Si solamente medimos qué tanto mejo-
ran los pacientes al haber tomado la medicina, esto no necesariamente nos habla de
ella: los pacientes podrían haber mejorado por otras razones. Sin embargo, podríamos
bloquear los demás factores: considerar pacientes que estén en condiciones parecidas, y
considerar la mejora en pacientes a los que no se les suministre la medicina (por ejem-
plo, sólo se les da un placebo: un dispositivo que se asemeja al medicamento original,
pero sin principio activo). Si encontramos que hay una mejora en los pacientes a los

422
que se les da la medicina, pero no en el grupo en el que no se suministra la medicina
(que se conoce como grupo control), tenemos evidencia de que existe un vínculo causal
de la medicina sobre la mejora: es decir, evidencia de que la medicina causó la mejora.
Esta se considera una buena manera de obtener evidencia sobre vínculos causales por-
que la variable que podría ser el efecto —la que representa a la mejora en los pacientes—
se aísla de otras posibles causas —al considerarse personas en situaciones parecidas y
al usarse un grupo control— y se mide si modificar la variable que podría ser una causa
—la que representa el tomar la medicina— de hecho sirve para modificar a la otra varia-
ble. Si esto pasa, se considera que hay una relación causal: manipular una variable lleva
a manipular a la otra, cuando se han bloqueado las otras posibles factores confundentes.
Por supuesto, en muchos casos no es factible utilizar estos estándares experimentales,
por cuestiones éticas, de posibilidad tecnológica, u otras. Para lidiar con esos casos,
existen técnicas estadísticas que permiten aislar las variables de interés, de tal manera
que sea un procedimiento análogo al que hemos descrito.
Finalmente, el método mencionado antes para aislar posibles factores confundentes
cae dentro de los diferentes métodos de Mill, que ahora vamos a presentar.

16.3.6. Los métodos de Mill para aislar factores causales

En su libro de 1843, Un Sistema de Lógica (en el octavo capítulo del tercer libro), John
Stuart Mill propuso cinco métodos para hacer inferencias causales. Aunque Mill no lo
puso así, hay que recordar que estos métodos son probabilísticos y que requieren deuna
cláusula ceteris paribus. Lo primero significa que no estamos frente a métodos deductivos:
que puede suceder que las premisas sean verdaderas, pero que la conclusión sea falsa.
Sobre lo segundo, una cláusula ceteris paribus significa que la inferencia se hace dando por
supuesto que se preserva una igualdad de condiciones. La idea es que se dejan las condiciones
fijas, para poder aislar solamente la variable que nos interesa modificar y, con ello,
estudiar los efectos de hacerlo. En esencia, los métodos de Mill precisamente buscan
eso: aislar factores para confirmar una hipótesis sobre cuáles están involucrados en relaciones
causales.
En los cinco métodos, comparamos circunstancias en las que se presentan dos tipos
de factores: los que pueden resultar ser causas, y los que pensamos que pueden ser los
efectos correspondientes; solo que no sabemos cuál es cuál. Es decir, tenemos dos tipos
de factores, y nuestra hipótesis es que hay una relación causal entre esos dos tipos (o
algunos miembros de esos dos tipos). Vamos a seguir la convención de utilizar variables
mayúsculas de las primeras letras del alfabeto (como A,B,C , . . .) para el primer tipo, y
variables minúsculas de las últimas letras del alfabeto (como x, y, z , . . .) para el segundo.
Vamos a usar tres o cuatro de cada una de estos tipos de variables, pero entenderemos
que el número puede ser distinto. Otra convención es que en algunos casos menciona-

423
remos solamente dos circunstancias, pero entenderemos que podemos comparar más
circunstancias entre sí.

El método de concordancia

Para este método, comparamos dos circunstancias, las cuales contienen dos conjuntos
distintos de factores, excepto por uno. Es decir, tenemos un par de circunstancias así:
Circunstancia 1: A,B,C
Circunstancia 2: A,D,E
Y en ellas, encontramos los siguientes factores:
Circunstancia 1: x, y, z
Circunstancia 2: x,u,w
Al comparar ambas circunstancias, el primer método de Mill nos lleva a inferir que
es probable que A tenga una relación causal con x, ya sea como causa o como efecto.
Esto sucede porque vemos que son los únicos dos factores que se repiten, que concuerdan
en ambas circunstancias. Mill lo resumía así (p. 369):
Si dos o más fenómenos objeto de la investigación tienen solamente una
circunstancia común, la circunstancia en la cual todos los casos concuerdan
es la causa (o el efecto) del fenómeno.
Vamos a usar la manera usual de esquematizar los métodos de Mill, como inferencias
probabilísticas donde la descripción de las circunstancias nos da las premisas, y la
conclusión es una hipótesis causal.

Método de la concordancia
Los factores A,B,C ocurren junto con los factores x, y, z .
Los factores A,D,E ocurren junto con los factores x,u,w.
Probablemente, A tiene una relación causal con x.

El método de diferencia

En el segundo método, comparamos circunstancias distintas donde los factores en los


que nos enfocamos no se repiten, como en el método anterior, sino que faltan. Si encon-
tramos que, cuando un factor de un tipo falta, también falta un factor de otro tipo, esto
nos da una base para inferir que, probablemente, esos dos factores están relacionados
causalmente. Mill lo sintetizaba así (p. 370):
Si un caso en el cual el fenómeno se presenta y un caso en que no se presenta
tienen todas las circunstancias comunes, fuera de una sola, presentándose
ésta solamente en el primer caso, la circunstancia única en la cual difieren

424
los dos casos es el efecto, o la causa, o parte indispensable de la causa, del
fenómeno.
Este es el esquema del segundo método:

Método de la diferencia
Los factores A,B,C ocurren junto con los factores x, y, z .
Los factores B,C ocurren junto con los factores y, z .
Probablemente, A tiene una relación causal con x.

El método conjunto de concordancia y diferencia

En el tercer método combinamos los dos anteriores.


Si dos casos o más en los cuales se efectúa el fenómeno tienen una sola
circunstancia común, mientras que dos casos o más en los cuales no se
efectúa no tienen más de común que la ausencia de esta circunstancia, la
circunstancia por la cual únicamente difieren los dos grupos de casos es el
efecto, o la causa, o una parte necesaria de la causa del fenómeno.
Este es el esquema del segundo método:

Método conjunto de concordancia y diferencia


Los factores A,B,C ocurren junto con los factores x, y, z .
Los factores B,C ocurren junto con los factores y, z .
Los factores A,D,E ocurren junto con los factores x,u,w.
Probablemente, A tiene una relación causal con x.

El método de residuos

Este método sirve cuando tenemos conocimiento ya establecido de algunas relaciones


causales. Cuando esto sucede, eliminamos los factores de los cuales ya sabemos que
tienen relaciones causales, y los restantes —el «residuo»— deben ser los que tengan
relaciones causales con los otros factores restantes. Así lo explicaba Mill (p. 378):
Separemos de un fenómeno la parte que se sabe, por inducciones anteriores,
ser el efecto de ciertos antecedentes, y el residuo del fenómeno es el efecto
de los antecedentes restantes.
Este es el esquema del tercer método:

Método de residuos
Los factores A,B,C ocurren junto con los factores x, y, z .
Se sabe que B causa a y.
Se sabe que C causa a z .

425
Probablemente, A tiene una relación causal con x.

El método de variaciones concomitantes

En los métodos anteriores podíamos eliminar algunos factores para notar qué perma-
nece o qué falta. Este método lo usamos cuando no eliminamos algunos factores para
tratar de aislar uno específico. Mill introdujo así al concepto (p. 380):
Aunque sea imposible excluir completamente un antecedente, podemos es-
tar en situación, o la Naturaleza por nosotros, de modificarle de alguna
manera. Por modificación es preciso entender un cambio, que no llega has-
ta su supresión total.
Si entendemos estas modificaciones como manipulaciones o intervenciones, este método
se relaciona con el concepto de manipulabilidad que revisamos antes (sección 16.3.5).
Mill lo sintetizó así (p. 382):
Un fenómeno varía de cierta manera, siempre que otro varía de la misma
manera, es, o una causa o un efecto del fenómeno, o está ligado a él por
algún hecho de causación.
Vamos a ver el esquema del quinto y último método de Mill. Para ello, vamos a seguir
la convención de utilizar el símbolo «±» para referirnos a una modificación en el evento,
de forma que (por ejemplo) «A±» se refiere a una modificación en el evento A. (Podría
ser que una variable se hace más intensa, o menos intensa, u otro tipo de modificación.)
Así, tendríamos el último esquema:

Método de residuos
Los factores A,B,C ocurren junto con los factores x, y, z .
Los factores A±,B,C ocurren junto con los factores x±, y, z .
Probablemente, A tiene una relación causal con x.

Podemos ver que ninguno de los cinco métodos nos permite calcular una probabili-
dad precisa para la hipótesis causal que inferimos como conclusión en cada método.
Así, cada uno de los métodos es un esquema, una guía general y cualitativa para el pen-
samiento crítico. Para tener estimaciones cuantitativas precisas como las que se usan en
las ciencias experimentales, se requieren herramientas más avanzadas de la estadística
moderna.

426
IVa parte:

Apéndices

427
Lista de símbolos introducidos

Aquí voy a poner una tabla con la lista de todos los símbolos introducidos, que contenga:
el símbolo, su nombre, y la página donde se introduce. También una columna con
pronunciaciones usuales.

Símbolo Nombre Página Pronunciación


∈ Elemento p. 330 «Pertenece a», «Es elemento de»,
«Está en», «En»

429
430
Lista de definiciones

Dar click en cualquiera de los números azules te lleva a la página en la que aparece la
definición.

Definición 3: proposición, p. 24. Definición 28: fórmula molecular, p. 97.


Definición ??: argumentación, p. ??. Definición 29: árbol genealógico de una fórmu-
Definición 4: argumento, p. 29. la, p. 103.

Definición 5: entimema, p. 31. Definición 30: interpretación perspicua de una


fórmula, p. 111.
Definición 6: marcador argumental, p. 32.
Definición 31: formalización perspicua de una
Definición 7: polisilogismo, p. 36.
proposición, p. 112.
Definición 9: argumento deductivo, p. 50.
Definición 32: función, p. 118.
Definición 10: argumento válido, p. 50.
Definición 33: tabla de verdad, p. 122.
Definición 11: argumento sólido, p. 53.
Definición 34: asignación de valores de ver-
Definición 12: argumento probabilístico, p. dad, p. 124.
54.
Definición 35: tablas para fórmulas con más
Definición 13: fiabilidad, p. 55. de una conectiva, p. 125.
Definición 14: sistema lógico, p. 65. Definición 36: fórmula tautológica, p. 129.
Definición 15: alfabeto de LC0, p. 74. Definición 37: fórmula auto-contradictoria, p.
Definición 16: variable, p. 75. 129.
Definición 17: variable proposicional, p. 75. Definición 38: fórmula contingente, 130.
Definición 19: conectiva monádica, p. 78. Definición 39: equivalencia lógica, versión se-
mántica, entre dos fórmulas, p. 133.
Definición 22: conectiva diádica, p. 82.
Definición 40: implicación lógica, versión se-
Definición 23: antecedente y consecuente de un
mántica, entre dos fórmulas, p. 134.
condicional material, p. 85.
Definición 41: condicional asociado a un ar-
Definición 24: metavariable, p. 94.
gumento, p. 140.
Definición 25: reglas de formación de LC0, p.
Definición 42: método del condicional asocia-
94.
do, p. 140.
Definición 26: subfórmula, p. 96.
Definición 43: método de asignaciones, p. 144.
Definición 27: fórmula atómica, p. 97.

431
432
Soluciones de algunos ejercicios

Ejercicios de la página 358

.
• Solución del ejercicio 14.7.6:

Demostración. Que C y D son conjuntos vacíos es lo mismo que decir (por la


definición),

C = {x : x ≠ x }, y
D = {x : x ≠ x }

Y, entonces, ¬∃x (x ∈ C ) y ¬∃x (x ∈ D). Usando equivalencias del cuadrado


de oposición clásico (cf. la sección 11.3), estas fórmulas son equivalentes (res-
pectivamente) a ∀x (x ∉ C ) y ∀x (x ∉ D). Usando E∀ en cada una, tenemos:
( â ∉ C ) y ( â ∉ D). En cada una usamos I∨ de la lógica proposicional, para tener:
( â ∉ C ∨ â ∈ D) y ( â ∉ D ∨ â ∈ C ), y usando una regla de equivalencia de la lógica
proposicional, esto a su vez nos da: ( â ∈ C ⊃ â ∈ D) y ( â ∈ D ⊃ â ∈ C ). Usando
I& de la lógica proposicional, ( â ∈ C ⊃ â ∈ D) & ( â ∈ D ⊃ â ∈ C ), lo cual es
equivalente a ( â ∈ C ≡ â ∈ D), de lo cual inferimos (por I∀), ∀x (x ∈ C ≡ x ∈ D).
Y esto, por Axioma de Extensionalidad, es equivalente a C = D. Q.E.D.

• Solución del ejercicio 14.7.6:

Demostración. Por la reflexividad de la identidad, todo conjunto es idéntico consi-


go. Esto, por Axioma de Extensionalidad, implica que todo conjunto tiene los mis-
mos elementos que sí mismo: si C es cualquier conjunto, ∀x (x ∈ C ≡ x ∈ C ). De
esta fórmula bicondicional, usando la eliminación del universal, la definición del
bicondicional y la introducción del universal, podemos inferir que ∀x (x ∈ C ⊃
x ∈ C ), lo cual, por la definición 14.2, significa que C ⊆ C . Q.E.D.

433
434
Formulario de LC0

Reglas básicas y derivadas Las reglas básicas son las reglas de introducción y elimi-
nación de cada conectiva, que presento inmediatamente abajo, junto con la regla de
explosión:

A & ¬A
B

Las demás son reglas derivadas, pues se pueden demostrar a partir de las básicas.

Reglas de introducción y de eliminación

Introducción Eliminación
A ¬A
.. ..
. .
¬ B & ¬B B & ¬B

¬A A

A
A&B
& B
A
A&B

A∨B
— —
A B
.. ..
A . .

A∨B C C
— —

435
A
..
A⊃B .
⊃ A B
B
A⊃B

A⊃B A≡B
≡ B⊃A Φ[A]
A≡B Φ[ B]

Reglas de inferencia y de equivalencia

Reglas de interacción y propiedades algebraicas

436
Formulario de LC1=

Reglas del cuadrado clásico de oposición

Reglas del cuadrado moderno de oposición

Reglas de eliminación e introducción de los cuantificadores

Reglas para múltiples cuantificadores

Reglas derivadas de interacción

Reglas básicas de la identidad

Reglas derivadas de la identidad

437
Índice analítico

alfabeto notación
de LC1, 228 infijo, 294, 331
prefijo, 331
contrariedad, 258 sufijo, 331
convenciones
convención 6, 209 reglas
convención 8, 256 de eliminación, 268
convención 7, 221 de introducción, 268
convención 9, 257 relaciones
cuantificador adicidad, 205
alcance, 218 poliádicas, 316
cuadrado de oposición clásico, 258
cuadrado moderno de oposición, 264 sustitución uniforme, 251
dualidad, 255 en LC1, 251
mnemotecnia de equivalencias, 256, 257 validez, 50
reglas de eliminación e introducción, en LC1, 250
280 variable
cuantificadores asignación de, 376
orden, 230 individual, 215
restringidos, 233 libre, 218
dominio, 215, 221 ligada, 218
irrestricto, 221 verdad
restringido, 221 por vacuidad, 265
vacío, 221, 259, 375

estructura lógica, 208

interpretación, 221

lenguaje
de LC1, 229
de un sistema lógico, 228

metavariable, 209
metavariables, 268
modelo, 220, 375

438
Bibliografía

Adler, Jonathan (2013) «Are Conductive Arguments Possible?». Argumentation 27:


245257.
Aliseda, Atocha (2006) Abductive reasoning: Logical investigations into discovery and ex-
planation. Synthese Library, Vol. 330. Springer.
Aristóteles, Metafísica; Tratados de Lógica. Gredos.
Austin, John L. (1962/1981) Cómo Hacer Cosas con Palabras. Paidós.
Badesa, Jané y Jansana (1998) Elementos de Lógica Formal, Ariel.
Baggini, Julian & Fosl, Peter (2010) The Philosopher’s Toolkit: A compendium of philo-
sophical concepts and methods. 2nd ed. Blackwell.
Barceló, Axel (2003) «¿Qué tan matemática es la lógica matemática?», Diánoia, XL-
VIII(51).
Barceló, Axel (2015) «Las tablas de verdad como filosofía», Argumentos, 7(13): pp.
165-178. http://www.periodicos.ufc.br/argumentos/article/view/19090
Barceló, Axel (2017) «Símbolos y Notación Lógica». Blog Conceptual: https://axelbarcelo.
blogspot.com/2017/10/
Benkler, Yochai & Faris, Robert & Roberts, Hal (2018) Network propaganda: Manipu-
lation, disinformation and radicalization in American politics. Oxford University Press.
Beristáin, Helena (1995) Diccionario de retórica y poética, 7a edición. Porrúa.
Bloch, Ethan (2011) Proofs and Fundamentals: A first course in abstract mathematics, 2da
edición, Springer.
Boole, George () The Laws of Thought.
Boolos, George (1984) «To Be Is To Be a Value of a Variable (or to Be Some Values
of Some Variables)», Journal of Philosophy, 1984 81(8): pp. 430-50, reimpreso en la com-
pilación de 1998 editada por Richard Jeffrey, Logic, Logic, and Logic, Harvard University
Press.
Bowell, Tracy & Kemp, Gary (2005) Critical Thinking: A concise guide, 2nd. ed. Routled-
ge.
Buroker, Jill (2019) «Port Royal Logic». En Edward N. Zalta (ed.), The Stanford Ency-
clopedia of Philosophy (Spring 2017 Edition): https://plato.stanford.edu/archives/

439
spr2017/entries/port-royal-logic/
Carey, Susan (2009) The Origin of Concepts. Oxford University Press.
Cederblom, Jerry & Paulsen, David (2011) Critical Reasoning. Wadsworth Publishing.
Church, Alonzo (1956) Introduction to Mathematical Logic, Princeton University Press.
Collins, Peter (2005) «Exclamative clauses in English». Word, 56(1): pp. 1-17.
Copi, Irving (1979) Lógica Simbólica. Compañía Editorial Continental.
Copi, Irving & Cohen, Carl (2013) Introducción a la Lógica, 2da ed. Trad. Jorge Ale-
jandro Rangel Sandoval. Limusa.
Dasgupta, Shamik (2016) «Can we do without fundamental individuals? Yes». En
Elizabeth Barnes, ed.: Current Controversies in Metaphysics. Routledge.
Díaz Herrera, Patricia (2014) «El problema de la individuación y la persistencia a tra-
vés del cambio». En Patricia Díaz, Jesús Jasso, eds.: Problemas Contemporáneos de Filosofía.
UACM.
Dudley, Edmund (2019) «Critical thinking as a life skill». Oxford University Press English
Language Teaching Global Blog, 7 de junio de 2019: https://oupeltglobalblog.com/
2019/06/07/critical-thinking-edmund-dudley/
Correia, Fabrice (2017) «Real Definitions», Philosophical Issues.
Estrada González, Luis (2005) «La lógica y la comprensión del lenguaje». Elementos:
Ciencia y cultura, 12(59): pp. 23-27.
Estrada González, Luis (2010) «¿Cuánta filosofía hay en una tabla de verdad?»,
La Pluralidad de los Mundos: http://difusiondefilosofia.blogspot.com/2010/11/
cuanta-filosofia-hay-en-una-tabla-de.html
Estrada González, Luis & Cohnitz, Daniel (2019) An Introduction to the Philosophy of
Logic. Cambridge University Press.
Fine, Kit (1994) «Essence and Modality», Philosophical Perspectives. [Está por aparecer
una traducción al español de este artículo, hecha por mi, en la colección Cuadernos de
Crítica, Instituto de Investigaciones Filosóficas, UNAM.]
Fine, Kit (2012) «Guide to Ground». En Correia & Schnieder (ed.): Metaphysical Groun-
ding: Understanding the Structure of Reality, pp. 37-80. Cambridge University Press.
Ferrater Mora & LeBlanc (1962) Lógica Matemática.
Ferreirós, José (2001) «The road to modern logic—an interpretation». Journal of Sym-
bolic Logic.
Fodor, Jerry (1998) Concepts: Where cognitive science went wrong. Oxford.
Frege, Gottlob (2016) Estudios sobre lógica, semántica y filosofía de las matemáticas. Mar-
garita Valdés (comp.); varios traductores. Instituto de Investigaciones Filosóficas, UNAM.

440
Garrett, Brian (2006) ¿Qué es eso llamado metafísica?. Alianza.
Gigerenzer, Gerd & R.Selten (eds.) (2001) Bounded Rationality: The Adaptive Toolbox.
MIT Press.
Goldman, Alvin (1986) Epistemology and Cognition. Harvard University Press.
Gómez Torrente, Mario (2000) Forma y modalidad: Una introducción al concepto de con-
secuencia lógica. Eudeba.
Gödel, Kurt (1990) [1947] «What is Cantor’s continuum problem?» En S. Feferman, J.
Dawson, S. Kleene, G. Moore, R. Solovay, & J. van Heijenoort (eds.): Kurt Godel: Collected
Works, Vol. II: Publications 1938-1974: pp. 176-187. Oxford University Press.
Grice, H.P. (2005/1975) «Lógica y conversación». En La Búsqueda del Significado, ed.
Luis M. Valdés Villanueva. Tecnos.
Groarke, Leo (2020) «Informal Logic». The Stanford Encyclopedia of Philosophy (Spring
2020 Edition). Edward N. Zalta (ed.). URL = https://plato.stanford.edu/archives/
spr2020/entries/logic-informal/
Hume, David Tratado de la Naturaleza Humana
_________ Investigación sobre el conocimiento humano
Haack, Susan (1991) Filosofía de la Lógica. Traducción de Amador Antón y Teresa
Orduña, Cátedra.
Hampton, James (1999) «Concepts». En R. Wilson & Frank Keil (eds.): The MIT Ency-
clopedia of the Cognitive Sciences, pp. 176-179. The MIT Press.
Hilbert, David () Fundamentos de las Matemáticas.
Hughes & Cresswell (1993) Introduccion a la Lógica Modal. Tecnos.
Hunter, Geoffrey (1971) Metalogic: An Introduction to the Metatheory of Standard First
Order Logic. University Of California Press.
Jané, Ignacio (1994) «Lógica de Orden Superior». En Enciclopedia Iberoamericana de
Filosofía, Vol. 7: Lógica; editorial Trotta.
Johnston, Mark (1992) «Constitution Is Not Identity». Mind.
Kant, Immanuel (2013) Crítica de la razón pura. Traducción de Pedro Ribas, 2da edi-
ción. Taurus.
Kahneman, Daniel (2012) Pensar rápido, pensar despacio. Debate.
Kleene, Stephen (1952) Introduction to metamathematics. North-Holland.
Kneale, Martha & Kneale, William (1980) El desarrollo de la lógica. Trad. Javier Mu-
guerza. Tecnos.
Lewis, David () Counterfactuals. Oxford University Press.

441
Leslie, Sarah-Jane (2013) «Essence and natural kinds: When science meets preschoo-
ler intuition». Oxford Studies in Epistemology 4: 108-66.
Lopes et al. (2011) ‘Improved Application of Paraconsistent Artificial Neural Net-
works in Diagnosis of Alzheimer’s Disease’ Neuroscience International, Vol. 2.
Lowe, E.J. (2012) «What is the source of our knowledge of modal truths?» Mind,
121(484):919-950.
MacFarlane, John (2017) «Logical Constants». En Edward N. Zalta (ed.): The Stan-
ford Encyclopedia of Philosophy (Winter 2017 Edition): https://plato.stanford.edu/
archives/win2017/entries/logical-constants/
Machery, Edouard (2009) Doing Without Concepts. Oxford University Press.
Mendelson, Elliott (1997) Introduction to Mathematical Logic, 4a. ed., Chapman & Hall.
Michaelis, Laura (2001) «Exclamative Constructions». En M. Haspelmath, E. König,
W. Österreicher & W. Raible (eds.): Language Universals and Language Typology: An Inter-
national Handbook: pp. 1038-1050. Walter de Gruyter.
Mill, Stuart (1843) Sistema de Lógica Inductiva y Deductiva. Traducción de Eduardo Ove-
jero.Madrid, 1917. Consultado en: https://bvpb.mcu.es/es/consulta/registro.do?
id=409180, noviembre de 2020.
Morado, Raymundo (manuscrito) «Conectivas Lógicas». Disponible en www.filosoficas.
unam.mx/~Tdl/01-1/0301morado.doc
Moro Simpson, Tomás (1975) Formas Lógicas, Realidad y Significado. EDAF.
Nagel, Ernest & Newman, () El teorema de Gödel.
Nahin, Paul (2012) The Logician and the Engineer: How George Boole and Claude Shannon
Created the Information Age, Princeton University Press.
Palau, Gladys, et al. (2004) Lógicas Condicionales y Razonamiento de Sentido Común,
Gedisa.
Pazos, Alicia (2003) «Usos del lenguaje». En María Alicia Pazos y Sandra Lucía Ra-
mírez Sánchez, Conectivas y usos del lenguaje: Hacia un discurso argumentativo. UACM.
Peña, Lorenzo (1993) Introducción a las Lógicas no Clásicas, Instituto de Investigaciones
Filosóficas, UNAM.
Pietroski, Paul (2007) «Logical Form». En Edward N. Zalta (ed.): The Stanford Ency-
clopedia of Philosophy (Spring 2016 Edition): https://plato.stanford.edu/archives/
spr2016/entries/logical-form/
Platón (2002) Eutidemo. Traducción de Ute Schmidt Osmanczik. Bibliotheca Scripto-
rum Graecorum Et Romanorum Mexicana, UNAM.
Possin, Kevin (2016) «Conductive Arguments: Why is This Still a Thing?». Informal

442
Logic 36(4): pp. 563-593.
Priest, Graham (2008) Introduction to Non-Classical Logic: From Ifs to Is. Oxford Univer-
sity Press.
Rayo, Agustín y Uzquiano, Gabriel (2007) (eds.) Absolute Generality. Oxford University
Press.
Russell, Bertrand () «Las matemáticas y los metafísicos», Misticismo y Lógica.
Russell, Bertrand (1914/1964) El conocimiento del mundo exterior: Fundamentos para un
método científico filosófico. Traducción de María Teresa Cárdenas. Ediciones Fabril-Los
Libros del Mirasol. (Se puede bajar legalmente la edición original de 1914 aquí: https:
//archive.org/details/ourknowledgeofth005200mbp)
Russell, Bertrand & Whitehead, Alfred (1910, 1912, 1913) Principia Mathematica, 3
vols. Cambridge University Press.
Sadock, Jerrold & Zwicky, Arnold (1985) «Speech act distinctions in syntax». En: Sho-
pen, Timothy (ed.): Language typology and syntactic description, 1: pp. 155-196. Cambridge
University Press.
Schaffer, Jonathan (2016) «The Metaphysics of Causation». The Stanford Encyclopedia
of Philosophy (Fall 2016 Edition), Edward N. Zalta (ed.), https://plato.stanford.edu/
archives/fall2016/entries/causation-metaphysics/.
Szpilrajn, Edward (1930) «Sur l’extension de l’ordre partiel». Fundamenta Mathemati-
cae, 16.
Schnieder, Benjamin (2011) «A Logic for ‘Because’ ». The Review of Symbolic Logic,
4(3): 445-465.
Tabak, John (2004) Algebra: Sets, symbols, and the language of thought. Facts on File.
Tao, Terence (2012) «The probabilistic heuristic justification of the ABC conjecture».
What’s new: https://terrytao.wordpress.com/2012/09/18/the-probabilistic-heuristic-justif
Tejeiro, Paula (2016) «Supervaluar o Revisar», Manuscrito, 39(3), pp. 149-169. URL =
http://dx.doi.org/10.1590/0100-6045.2016.V39N3.PT
Tennant, Neil (2017) «Logicism», En: Edward N. Zalta (ed.) Stanford Encyclopedia of
Philosophy (Winter 2017 Edition): https://plato.stanford.edu/entries/logicism/
Valdivia, Lourdes (1989) Introducción a la Semántica y Ontología de Gottlob Frege. UNAM.
van Ditmarsch, Hans & Parikh, Rohit & Ramanujam, R. (eds.) (2011) Journal of Phi-
losophical Logic: Special Issue on Logic in India, 40(5).
Vega Reñón, Luis & Olmos Gómez, Paula (eds.) (2011) Compendio de lógica, argumen-
tación y retórica. Trotta.
Wittgenstein, Ludwig (1921/2012) Tractatus Logico-Philosophicus. Traducción de Jacobo

443
Muñoz e Isidoro Reguera. Alianza Editorial.
Woods, John & Gabbay, Dov (2004) Handbook of the history of logic, vol. I: Greek, indian
and arabic logic. Elsevier.
Woods, John & Irvine, Andrew & Walton, Douglas (2004) Argument: Critical thinking,
logic and the fallacies (2nd ed.) Pearson Prentice Hall.
Zalta, Edward. Principia Logico-Metaphysica. Manuscrito de Abril de 2018, Stanford
University. https://mally.stanford.edu/principia.pdf

444

También podría gustarte