Lógica Básica.: Una Introducción Al Arte Del Razonamiento
Lógica Básica.: Una Introducción Al Arte Del Razonamiento
Lógica Básica.: Una Introducción Al Arte Del Razonamiento
Carlos Romero
iii
Los componentes de un sistema lógico 64
LC0 y las lógicas no-clásicas * 65
4 El lenguaje de LC0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
Alfabeto de LC0 74
Variables proposicionales 74 • Concepto de constante o conectiva lógica 75 • La negación 78 • La
conjunción 81 • La disyunción inclusiva 83 • El condicional material 85 • El bicondicional material
89
Sistemas de notación 91
Las fórmulas de LC0 93
Explicación de las reglas 95 • Atómicas y moleculares 96 • Subfórmulas 96 • La conectiva principal de
una fórmula y convenciones 97
Notación polaca 100
¿Cómo saber que algo es una fórmula? 101
iv
Método de asignación de valores 143
Limitaciones del método de asignación de valores 149 • Asignaciones para argumentos con varias posi-
bilidades 150
v
Cuadrados de oposición 255
Cuadrado clásico de oposición 257 • Cuadrado moderno de oposición 263
Reglas de eliminación e introducción 268
Demostraciones con generalidad múltiple 282
Reglas derivadas de interacción * 282
Cambios de variable 283 • Distribuciones y contracciones 284 • Distribuciones y contracciones, condi-
cionadas 287 • Permutaciones 288
12 La identidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 291
La constante de identidad 293
Conectivas definibles y primitivas 293 • El símbolo de identidad 294 • Oraciones con identidad 294
Las reglas de la identidad 296
Reglas básicas 296 • Reglas derivadas 298
«Hay a lo más n» y «Hay al menos n» * 302
«Hay al menos n» 302 • «Hay a lo más n» 304
Cuantificadores exactos y descripciones definidas * 306
Resumen del capítulo 312
vi
Productos cartesianos, secuencias y relaciones 359
Par ordenado 359 • Producto cartesiano 360 • Listas de dos o más elementos: n-secuencias o «n-tuplas»
361 • Relaciones entre conjuntos 363 • Productos cartesianos y operaciones básicas 364
Particiones 365
Apéndices
vii
Bibliografía . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 439
viii
Prefacio
Como este no es el prefacio final (el cual escribiré cuando tenga la versión final del libro),
aquí me gustaría describir el proyecto del libro: las ideas guía y las características que
—¡espero!— lo distinguen: las que hacen que valga la pena —o, todavía mejor: que
justifican— tener otro libro de texto de lógica.
Ideas guía
Mi impresión es que la mayoría de los libros de texto de lógica cae en uno de dos extre-
mos: o bien, está hecho para lectores con sofisticación matemática, o bien, está hecho
para lectores con muy poco entrenamiento matemático. Cada uno de estos extremos
tiene sus propios problemas.
Libros que presuponen sofisticación El problema más obvio es que son difíciles para
quien apenas se está introduciendo al tema. Pero tampoco son muy adeptos a contar
las motivaciones filosóficas para adoptar tal o cual formalismo, ni sus limitaciones ex-
presivas, o las perplejidades conceptuales que tienen; ambos problemas tratados en la
filosofía y la lógica matemática contemporáneas. A veces nos dejan con la impresión de
que la lógica se hubiera desarrollado con total independencia de la filosofía, y hoy fue-
ra un monolito independiente de toda crítica, expansión, o aplicación. Ello está bien si
sólo quisiéramos aprender mecánicamente el formalismo. Pero para un entendimiento
más profundo, es importante conocer sus motivaciones y limitaciones.
ix
algo del contexto teórico de la lógica en las áreas más amplias de la filosofía y la lógica
matemática.
Aspectos innovadores
«Amigabilidad» Un libro fácil de navegar: una estructura clara, que también nos permita
ver la progresión natural de los capítulos: cómo uno lleva al siguiente y cómo este
presupone lo aprendido en el anterior. También un texto limpio, bien organizado, que
no tema usar simbolismo matemático cuando se requiera, pero que no se exceda en este
cuando no es necesario. El balance perfecto requiere ayudas visuales para distinguir
distintos apartados, pero que no esté cargado de gráficos que distraen la atención.
Características
Algunas características de este libro que, espero, contribuyen a lograr los objetivos
mencionados arriba, son las siguientes.
Contenidos del capítulo y objetivos de aprendizaje Esto nos servirá para tener mayor
claridad acerca de lo que se estudiará en el capítulo, y de lo que se espera que apren-
damos en él. Están al inicio de cada capítulo. Varios todavía no los escribo; todos los
revisaré a fondo al tener una primera versión completa del libro.
Ejemplos distinguibles Los ejemplos se formulan en cajas naranjas, que se ven así:
x
¡Aquí pongo un ejemplo!
ejemplo
Uso una fuente sans-serif porque creo que lo hace más atractivo visualmente, y
ayuda a evitar la monotonía en el libro.
La caja tiene que tener una cierta altura mínima, para que el cintillo lateral muestre
el título completo.
Ejercicios distinguibles Los ejercicios se formulan en cajas naranjas, con una numera-
ción que hace fácil llevar la cuenta, y se ven así:
Ejercicio #
Este es un ejercicio. Uso una fuente sans-serif porque creo que lo hace más atractivo
visualmente, y ayuda a evitar la monotonía en el libro.
Proyectos de fin de capítulo Aunque me falta diseñar casi todos los proyectos, mi plan
es que estos consistan en ejercicios más complejos y demandantes que los ejercicios en
el texto principal:
• Pienso brindar un contexto o antecedente, ya sea histórico, filosófico o matemático
(o los tres), que permita entender en dónde se sitúa el problema.
• Me gustaría que la mayoría de estos proyectos consistieran en aplicaciones crea-
tivas de la lógica a varias disciplinas (matemáticas, computación, lingüística, filo-
sofía, planeación, diseño de modelos, etc.) así como a la vida cotidiana.
• Sugeriría que se usaran como trabajos de fin de semestre, o como puntos extra
en un curso; o para alguna otra evaluación importante.
• Voy a diseñar algunos de estos proyectos para que consistan en una exposición
oral.
• También estoy pensando que algunos sean para producir material audiovisual o
web.
xi
Apéndices: Lista de símbolos introducidos Al final del libro pondré una lista de los
símbolos introducidos; junto con la página en donde los introduje y su pronunciación
usual.
Apéndices: Lista de definiciones Además del índice alfabético, que refiere a las páginas
donde se mencionan términos importantes, voy a ofrecer una lista de definiciones, que
solamente refiere a la definición oficial del término.
Apéndices: Ejercicios resueltos Al final del libro resolveré algunos ejercicios, tanto para
confirmar el resultado, como para ejemplificar cómo se espera que se resuelvan. Hasta
ahora sólo tengo un par resueltos, pero mi objetivo es tener resuelto un 10 % del total
de ejercicios.
Apéndices: Formularios Al final del libro reuniré en un sólo lugar todas las reglas de
proposicional y cuantificacional que veremos.
xii
Ia parte:
1
capítulo
Objetivos de aprendizaje
1. Que comprendas para qué sirve la lógica: por qué es importante y con qué
fines se usa la argumentación, en diferentes áreas.
2. Que conozcas la relación de la lógica con el pensamiento crítico y con otras
formas de convencimiento.
3. Que conozcas los diferentes usos del lenguaje, y puedas reconocerlos en el
discurso hablado y escrito.
3
ste libro es una introducción a distintos aspectos de la lógica. La lógica, como
E se dice de otras tantas disciplinas, es una ciencia y un arte. Es una ciencia porque
es un estudio sistemático y riguroso de un fenómeno concreto: la argumentación
correcta (después analizaremos esta noción informal de «correcto»; de hecho, buena
parte del libro va sobre eso). Involucra la aplicación de las matemáticas al estudio
de este fenómeno, y se relaciona contras ciencias, como la computación teórica y la
lingüística. La lógica también es un arte, en el sentido de ser una familia de técnicas
que podemos aprender y utilizar en la vida cotidiana, así como en distintas áreas del
conocimiento. Estas técnicas están enfocadas a la creación, identificación y análisis de
argumentos correctos. En este libro vamos a revisar varios aspectos de estas dos caras
de la lógica. Mientras tanto, sistematicemos lo dicho hasta ahora en nuestra primera
definición.
Definición 1: Lógica
Este primer capítulo tiene una función introductoria y motivadora: para comprender
que es la lógica, expondré para qué sirve su objeto de estudio —la argumentación— en
distintas áreas, y cómo se relaciona con el pensamiento crítico y con otras formas de
convencimiento. También detallaré cómo es que podemos usar el lenguaje con distintos
fines, y cómo la argumentación es uno de ellos. En el siguiente capítulo comenzaremos
con las definiciones de los conceptos básicos de la lógica.
Como todo este primer capítulo es sobre la argumentación, y como la argumenta-
ción no es otra cosa que ofrecer argumentos, es importante tener una noción de qué
es un argumento. Por ahora, solamente veremos una definición tentativa de la noción
de argumento (es por ello que pongo una definición sin numerar). Para la definición
más exacta requerimos de algunos conceptos especializados. Estos los definiremos en
el siguiente capítulo (sección 2.3, definición 4).
Definición: Argumento (provisionalmente)
4
sólo de que haga o deje de hacer algo, sino también de que acepte una idea, o de que
rechace alguna. También es posible que queramos sustentar una idea que ya teníamos
o que alguien ofrece por algún interés secundario: puede ser algún fin legal, o como
primer paso hacia otra acción. Incluso, puede ser por mera curiosidad, por el deseo de
entender la idea: conocer las bases —los argumentos a favor— de una idea nos permite
ver con qué otras ideas se relaciona más cercanamente, pues nos permite ver qué ideas
la justifican y con cuáles ella se justifica.
A veces también argumentamos por el mero gusto de discutir. Para algunas personas,
debatir es como un deporte que gustan de practicar cada vez que se presenta la opor-
tunidad. Para otras personas, lo importante de iniciar una discusión argumentada es
ganarla y sentir la satisfacción de vencer. Aunque esto puede ser divertido, argumentar
con el único propósito de demostrar que estoy en lo correcto no me llevará muy lejos:
me da un fuerte incentivo para ignorar buenos argumentos, si estos se ofrecen en con-
tra de mi postura, para basar mis ideas en razones muy débiles, y para aceptar ideas
disparatadas, si es estas me ayudan a mantener mi postura pase lo que pase.
5
Aunque la deducción es el paradigma, la «regla de oro» de las matemáticas, también
se usan los argumentos estadísticos (por ejemplo, para motivar una conjetura) y los
argumentos abductivos (por ejemplo, para motivar la adopción de una definición o un
nuevo principio).1 Revisaremos la definición de estos en un capítulo posterior (cap. 16).
Las ciencias son aquellas disciplinas cuyos métodos la humanidad ha depurado para
encontrar las hipótesis más probablemente verdaderas sobre un tema, un área de la
realidad. Al presentar una hipótesis sobre cómo es un fenómeno natural y cómo se
explica, un científico no lo presenta como una verdad obvia, sino que ofrece razones
para pensar que esa hipótesis es la correcta: ofrece argumentos, típicamente estadísticos,
sobre cómo su hipótesis da cuenta de los datos obtenidos en el campo, el laboratorio o
el observatorio.
Además de la argumentación estadística, un componente universal del método cientí-
fico es la deducción. A partir de una hipótesis, se deducen consecuencias que se contras-
tan experimentalmente. Si las consecuencias de la hipótesis se acercan suficientemente
a los resultados reales, la comunidad científica toma seriamente la posibilidad de que
la hipótesis examinada describa el fenómeno en cuestión. Cuando las consecuencias
confirmadas se acumulan, la hipótesis comienza a aceptarse más ampliamente, hasta
llegar a ser parte de la ciencia establecida.
6
1.2. La argumentación y el pensamiento crítico
7
bueno y cuándo no. De eso, precisamente, va la enorme mayoría de las técnicas lógi-
cas que revisaremos en este libro: son modelos formales que nos permiten tener una
metodología clara, cuya efectividad puede ser revisada y comprobada con exactitud.
Nada de todo lo anterior significa que, para seguir las reglas de la lógica, siempre tenga-
mos que estar ofreciendo, encontrando, evaluando o criticando argumentos. Hay veces
en que puede valer la pena simplemente poner la lógica entre paréntesis. Como men-
cioné antes (sección 1.2), a veces nos dejamos convencer por el miedo o la lástima. Y
eso puede estar bien: para actuar como personas inteligentes no se requiere que seamos
robots. A veces actuar bajo el miedo o la compasión puede estar justificado.
Alguna vez vi un meme que contenía la escena de una película, donde un hombre le
declara a una mujer: «Te amo». Ella responde algo como: «¿Tienes evidencia empírica
que sustente tu afirmación?»3 El meme es gracioso precisamente por lo absurdo de la
respuesta. En ciertos tipos de interacciones preferimos basarnos en la confianza que
exigir evidencias y razones. Y eso está bien: «ser una persona lógica» —es decir, tener
una habilidad bien pulida para aplicar las técnicas de la lógica— no significa ser un
robot. Claro que el otro extremo es creer cualquier afirmación, por más disparatada
que sea, que nos diga una persona cercana. La virtud de «ser una persona lógica»
también incluye una habilidad prudencial: saber en qué momentos se requiere solicitar,
o exigir, evidencias y razones, y en qué otros momentos es mejor confiar en la otra
persona, o incluso simplemente asentir con la cabeza y dejarlo pasar sin más.
Un ejemplo de esto último pueden ser las discusiones sobre creencias políticas y reli-
giosas. En algunos casos es muy importante solicitar un fundamento racional, o incluso
exigirlo con firmeza (por ejemplo, cuando se trata de una autoridad pretendiendo im-
poner algún programa de dudosa cualidad científica, o de un familiar convaleciente
que piensa abandonar una terapia basada en evidencia por alguna pseudocientífica).
En otros, como cuando, en la cena familiar de fin de año, algún tío suelta alguna bou-
tade sin importancia, proveniente de algún dogma religioso o político sin justificación,
probablemente sea mejor dejarlo pasar.
Esta habilidad prudencial es una habilidad general de la vida —saber en qué vale la
pena usar nuestro tiempo y energía, digamos— pero, como puedes ver, acabo de inten-
tar convencerte de ello mediante argumentos: mediante el uso de nuestras capacidades
lógicas.
8
1.2.2. El principio de caridad
Para aplicar la lógica a la argumentación necesitamos entender lo que otra persona nos
comunica. Además, parte de usar el pensamiento crítico es comunicar nuestras ideas
con claridad, de manera que las razones que tenemos para ellas puedan quedar claras.
H.P. Grice, un filósofo americano del siglo XX, propuso que existen cuatro máximas —
cuatro reglas— que permiten la existencia de la comunicación entre los seres humanos
(Grice 2005/1975). A su vez, estas máximas son la manera en que realizamos lo que
Grice llamó el principio de cooperación: si un grupo de personas establecen una
interacción verbal, van a cooperar entre sí para entenderse y ser entendidos. Vamos a
revisar estas máximas ahora, y explicaremos su significado.
9
Máxima de calidad Esta máxima se refiere a la calidad de la información que damos, en
dos sentidos:
III No digas nada que creas que es falso.
IV No digas nada si no tienes pruebas suficientes de su veracidad.
Máxima de modo o manera Esta máxima se refiere a la claridad y exactitud con la que
hablamos, y se descompone en estas cuatro:
VI Evita la oscuridad en la expresión.
VII Evita la ambigüedad.
VIII Sé breve.
IX Sé ordenado.
El objetivo de Grice era describir los patrones que seguimos para intentar llevar a
cabo una buena práctica comunicativa: él no buscaba normar esa práctica. Sin embar-
go, es de notar que estas prácticas codifiquen lo que solemos entender por una buena
práctica comunicativa. Así que ahora que las conoces, un buen consejo es intentar se-
guirlas siempre que sea posible, con el objetivo de lograr comunicar tus ideas de manera
eficiente.
Ejercicio # 1
Para cada máxima de Grice, brinda tres ejemplos en los que no se cumpla. Estos ejem-
plos pueden ser breves narraciones que inventes, o vínculos a un video en el que suceda
cada uno de estos casos (en cada caso, di en qué minuto empieza y termina la interac-
ción que es un ejemplo de ello), o citas de un libro, periódico o revista (digitales o físicos)
que lo ejemplifiquen (recuerda brindar la referencia de donde lo tomaste).
10
realmente golpear o despedir— también se ofrecen razones: se ofrece una idea con la
que se pretende justificar otra. Sin embargo, estas ideas apelan al miedo —te hacen
saber que, si no lo haces, te dañarán— y no a la capacidad que tenemos de comprender
fundamentos y evidencias objetivos.
También somos capaces de convencer, y de ser convencidos, apelando a la compasión,
o incluso mediante la lástima. A veces la mera humanidad nos convence de ayudar a
alguien o de realizar alguna acción. Estas acciones pueden estar justificadas, en un
sentido tanto ético como racional: si una persona en una situación muy difícil me pide
ayuda, y tengo los recursos —de tiempo, de dinero, o los que se requieran— para
ayudarle, exigirle que me de algún argumento no me hace más racional. Es decir: esa
forma de convencerme no me exige el uso de la razón (más allá de entender lo que me
dice), pero actuar debido a la empatía y la amistad no necesariamente es ser irracional
—a veces, incluso, es un deber ético.
Por supuesto, esto no significa que actuar movido por las emociones no sea es irra-
cional. A veces sí lo es. Podemos tomar una decisión apresurada, sin prever sus conse-
cuencias o considerar las alternativas, debido al miedo, la lástima, u otras emociones.
A veces nos intentan convencer de creer en algo o de realizar alguna acción manipulan-
do esas emociones. En esos casos, el pensamiento crítico sí requiere que examinemos
la circunstancia con calma y cuidado, y que exijamos una razón que no se base en la
manipulación.
Otra forma de intentar convencer que tradicionalmente se opone al convencimiento
mediante argumentos es la retórica. Aunque la retórica tiene una historia muy larga
y existen hoy en día diferentes tradiciones en ella, consideraremos la definición que
ofrecen dos fuentes autoritativas sobre el tema.6 En su Diccionario de retórica y poética,
Beristáin define a la retórica como:
Arte de elaborar discursos gramaticalmente correctos, elegantes y, sobre
todo, persuasivos. Arte de extraer, especulativamente, de cualquier asunto,
una construcción de carácter suasorio.
Por otro lado, en el diccionario de Vega Reñón y Olmos Gómez encontramos que:
La historia de la retórica es una historia discontinua e indefinida con ten-
siones entre dos usos del término: uno general, como arte de la persuasión
(su polo argumentativo u oratorio) [. . . ]; y otro más restringido, como arte
de hablar bien (su polo literario u ornamental) [. . . ] Entre ambos polos ha
habido siempre una constante oscilación y hoy asistimos al último capítulo
de esa tensión entre una taxonomía de las figuras del buen discurso y una
pragmática del discurso eficaz.
Por tanto, la retórica ha codificado durante siglos la argumentación persua-
siva como arte de usar bien el lenguaje (ars bene loquendi) y con eficacia en
11
un discurso al dirigirse a un auditorio.
Como he mencionado, tradicionalmente, la lógica se opone a la retórica: mientras una
intenta convencer, primordialmente, mediante argumentos cuya estructura y contenido
siga pautas bien delimitadas y sistematizadas, la otra intenta convencer, primordial-
mente, mediante la persuasión del discurso elegante. En muchos casos, estos fines se
contraponen: un discurso lógicamente impecable puede tener nulas cualidades estéti-
cas, y un discurso de bellos ornamentos puede realizar argumentos que fácilmente se
diagnostican como falacias desde un punto de vista lógico. Pero eso no significa que
esto suceda necesariamente: grandes figuras de la filosofía y la literatura han escrito
ensayos combinando ambas virtudes; por lo que no se debe pensar que la exactitud y
el rigor lógico están necesariamente peleados con el buen estilo.
Así, la lógica y la retórica se diferencian por los fines que persiguen: en cómo buscan
persuadir. Estos modos de persuadir, a su vez, pueden usarse con distintos objetivos.
Parte del pensamiento crítico consiste en saber distinguir en qué casos el uso de la
retórica oculta una argumentación deficiente, que debe examinarse lógicamente, y no
dejarse convencer si no hay buenas razones para ello.
Ejercicio # 2
Brinda:
• Dos ejemplos de intentos de convencer mediante un argumento,
• dos ejemplos de intentos de convencer mediante la apelación al miedo,
• dos ejemplos de intentos de convencer mediante la apelación a la compasión,
• dos ejemplos de intentos de convencer mediante la retórica.
Estos ejemplos pueden ser breves narraciones que inventes, o vínculos a un video en el
que suceda cada uno de estos casos (en cada caso, di en qué minuto empieza y termina
la interacción que es un ejemplo de ello), o citas de un libro, periódico o revista (digitales
o físicos) que lo ejemplifiquen. En estos casos, recuerda brindar la referencia de donde
lo tomaste.
12
1.4.1. Usos del lenguaje
Ahora veremos una clasificación de tres grandes tipos de usos del lenguaje; esta clasifi-
cación, aunque es muy idealizada y no completamente fina, nos servirá para poner a la
argumentación en contexto. La fuente principal de esta clasificación, que ha sido adop-
tada en muchos otros libros de texto, es el clásico de Copi y Cohen.7 Ellos distinguen
tres usos del lenguaje, que ahora expondré.
Discurso expresivo Es el lenguaje que se usa para mostrar o provocar sentimientos. Aun-
que ciertamente el lenguaje expresivo transmite cierto tipo de información, lo que lo
distingue del discurso informativo es que su función principal no es transmitir informa-
ción factual: que pueda o no ser verdadera, sino comunicar o causar sentimientos. El
caso paradigmático de discurso expresivo se da en la emisión de enunciados exclamativos,
que no son ni verdaderos ni falsos.8
Discurso directivo Es el lenguaje que se usa para causar o impedir acciones. Se suele
usar cuando realizamos órdenes y peticiones; estas, como las oraciones exclamativas,
no son ni verdaderas ni falsas. El caso paradigmático de discurso informativo se da en
la emisión de enunciados imperativos.
Como los mismos Copi y Cohen notan (pp. 85-89), es claro que esta distinción no es
exhaustiva: hay usos del lenguaje que no caen definitivamente en una u otra. Tampoco
es exclusiva: hay usos del lenguaje que caen bajo dos, o quizá hasta tres, de los tipos; en
cierto grado, al menos.
Sobre la exhaustividad, parece sencillo pensar maneras de usar el lenguaje que me-
rezcan su propia clasificación, pues no caben cómodamente en ninguno de los usos
anteriores, aunque comparten algunas características importantes entre sí. La primera
es el discurso inquisitivo.
Discurso inquisitivo Es el lenguaje que se usa para solicitar información y hacer pregun-
tas. Estas, como las oraciones exclamativas e imperativas, no son ni verdaderas ni falsas.
(Lo que es verdadero o falso es la respuesta a una pregunta.) El caso paradigmático de
discurso inquisitivo se da en la emisión de enunciados interrogativos.
Copi y Cohen incluyen a la argumentación dentro del discurso informativo, pero
no es claro que ello sea así. Una propuesta es separar ambos tipos de discurso: en
el informativo, la finalidad es describir un suceso o un objeto, transmitir información
13
sobre algún particular.9 En el que podemos llamar «el uso argumentativo», la finalidad
es proveer razones para una idea específica.
14
Creo porque las he visto en diagramas,
planeta deforme partido en dos
con sus pequeñas vísceras expuestas.
Como otro ejemplo, alguien puede usar el lenguaje con una intención directiva sin emitir
una oración imperativa. En el contexto de una cena familiar, mientras sacas tu cajetilla
de cigarrillos y te dispones a encender uno, tu pareja te dice: «La gente educada no
fuma en la mesa». Aunque es una oración declarativa, es claro cuál es la intención de
tal aseveración: una intención directiva. Esto es, al mismo tiempo, un ejemplo de cómo
el contexto en el que se usa ese lenguaje puede ayudarnos a distinguir con qué objetivo
se lo está usando.
A final de cuentas, lo importante de diferenciar los usos del lenguaje es lo siguiente: al
hacer un análisis lógico, nos enfocaremos en el uso argumentativo (y, por consecuencia,
informativo) del lenguaje. Es cuando alguien se propone argumentar que tiene sentido
aplicar el análisis lógico de los argumentos.
Ejercicio # 3
I Para cada uno de los siguientes 10 casos di de qué tipo de discurso se trata. Si
piensas que se requiere más contexto para saberlo, dilo.
1. Cebolla, luminosa redoma, pétalo a pétalo se formó tu hermosura, escamas de
cristal te acrecentaron y en el secreto de la tierra oscura se redondeó tu vientre de
rocío. Bajo la tierra fue el milagro y cuando apareció tu torpe tallo verde, y nacie-
ron tus hojas como espadas en el huerto, la tierra acumuló su poderío mostrando
tu desnuda transparencia, y como en Afrodita el mar remoto duplicó la magnolia
levantando sus senos, la tierra así te hizo, cebolla, clara como un planeta, y des-
tinada a relucir, constelación constante, redonda rosa de agua, sobre la mesa de
las pobres gentes.11
2. La mantarraya o manta gigante (Manta birostris) es una especie de elasmobran-
quio del orden Myliobatiformes.12
3. Disculpa, ¿qué hora tienes?
4. ¡A mi no me vas a venir a decir qué hacer, o qué pensar, sobre todo si tú mismo
no sabes qué hacer de tu vida!
5. ¿Qué hay que hacer si uno ve un animal en peligro de extinción comiendo una
planta en peligro de extinción?
6. El 29 de noviembre de 1873, Cantor envió una carta a Dedekind preguntando
si la colección de números naturales y la colección de números reales positivos
«pueden corresponder para que cada individuo de una colección corresponda a
uno y solo a uno de los demás», a lo que Dedekind respondió escribiendo que
no conocía la respuesta, agregando sin embargo que la pregunta no tenía mucho
interés práctico.13
15
7. ¡Ah, qué bellos paisajes se pueden contemplar en aquéllas montañas, durante los
días más claros del verano!
8. Para cada uno de los siguientes 10 casos, di de qué tipo de discurso se trata.
9. ¿Contar una historia de ficción contará como uso descriptivo?
10. ¿Por qué cuando una persona tiene la razón hay que dársela? ¡Ya la tiene! Sería
mejor dársela cuando no la tenga.
II Para cada uno de los usos del lenguaje (informativo, expresivo, directivo, inquisitivo y
argumentativo), da 4 casos que lo ilustre. Estos ejemplos pueden ser breves narraciones
que inventes, o vínculos a un video en el que suceda cada uno de estos casos (en cada
caso, di en qué minuto empieza y termina la interacción que es un ejemplo de ello), o
citas de un libro, periódico o revista (digitales o físicos) que lo ejemplifiquen (recuerda
brindar la referencia de donde lo tomaste).
El filósofo inglés John L. Austin (1911-1960) propuso una teoría de los actos de habla
en su libro Cómo Hacer Cosas con Palabras.14 Vamos a revisar sus conceptos básicos,
resumidos en la siguiente definición.
Definición 2: Enunciado
Un enunciado es la acción de emitir una oración en un contexto específico.
Tipo Características
Se utilizan para constatar, es decir,
para reportar o describir hechos. Su
Constatativos
característica esencial es que pue-
den ser verdaderos o falsos.
Se utilizan para realizar una acción
Realizativos o «performativos» adicional al mero enunciar. No son
ni verdaderos ni falsos.
Cuadro 1.1: Clasificación de los enunciados por el tipo de acción que constituyen.
Entonces, las acciones que consisten en meramente describir un hecho, son los enun-
ciados constatativos. Las acciones que se realizan al momento de enunciar una oración,
16
y que no son descripciones, son los realizativos. Estas acciones son tales como jurar,
comprometerse, apostar, bautizar, etcétera. Austin daba los siguientes ejemplos (Austin
1962/1981, p. 46):
• «Sí, juro (desempeñar el cargo con lealtad, honradez, etc)», expresado
en el curso de la ceremonia de asunción de un cargo.
• «Bautizo este barco Queen Elizabeth», expresado al romper la botella
de champaña contra la proa.
• «Lego mi reloj a mi hermano», como cláusula de un testamento.
• «Te apuesto cien pesos a que mañana va a llover».
De nuevo: en estos actos, el mero enunciar algo constituye una acción distinta del enun-
ciar: «Te apuesto cien pesos a que mañana va a llover», además de enunciar la oración,
constituye la acción de apostar. Si te digo: «Te prometo que leeré todos los libros que he
comprado», además del enunciado, he realizado la acción de prometer. Mi enunciado
realiza la acción: no se requiere nada más. A diferencia de estos, los enunciados cons-
tatativos no realizan ninguna acción más que el enunciar la descripción de un hecho.
Como lo dice su definición, los enunciados realizativos no son ni verdaderos ni falsos,
pues no se enuncian para describir un hecho, y solamente las descripciones pueden ser
verdaderas o falsas: si una descripción se ajusta al hecho, es verdadera; si no describe
al hecho como sucedió, es falsa. Pero los realizativos no describen, sino que realizan
otra acción. Sin embargo, así como los constatativos pueden ser o verdaderos o falsos,
para los realizativos existe un criterio de corrección, una forma de saber cuándo un
realizativo está «bien» o «mal».
Ningún ejemplo mejor que el de Austin: para apostar, no basta con que uno diga «Te
apuesto que . . . » Se requiere que ese enunciado se de en las circunstancias apropiadas.
Es difícil caracterizarlas en lo general, pero podemos ejemplificar un caso en el que
no se dan: «el caso de la persona que anuncia su apuesta cuando la carrera ya ha
terminado» (Austin 1962/1981, p. 55). Si cuando ya todos vimos quién gano la carrera,
yo te digo «Te apuesto que ganará él» (señalándote al ganador), obviamente nadie
aceptaría que he realizado una apuesta: nadie me tomaría en serio. En esos casos,
no es que el realizativo sea falso, sino que tiene una propiedad parecida, que Austin
llama «infortunio»: un realizativo es desafortunado cuando no se de dan las condiciones
apropiadas para que, al enunciar la oración, se realice la acción. Por ejemplo, si yo le
digo a un par de amigos: «¡Los declaro marido y mujer!», pero yo no soy un juez, mi
enunciado no realiza la acción de casarlos, sino que es desafortunado.
17
Ejercicio # 4
I Para cada uno de los siguientes enunciados, si es constatativo, indica que so-
lamente describe un hecho; si no lo es, indica qué acción se ejecuta con ellos.
Enunciado Acción
Ayer compramos la despensa para todo el
mes.
Si me vuelves a insultar, me largo de esta
casa.
Cómpreme una pintura, no sea malo.
El número atómico de un elemento quími-
co es el número de protones que tiene ca-
da uno de sus átomos.
Los declaro marido y mujer.
DD
18
Resumen del capítulo
⋆ La lógica es la ciencia y el arte de la argumentación correcta.
⋆ Argumentamos con fines distintos, como: convencer, fundamentar una idea,
comprender sus relaciones con otras ideas, y por el mero gusto de debatir.
⋆ La argumentación forma parte de la vida cotidiana, pero también es esencial
en las ciencias y en la filosofía.
⋆ La argumentación es parte esencial del pensamiento crítico, el cual también
requiere rasgos y habilidades como la prudencia, saber utilizar el principio
de caridad (entender tal discurso de manera que resulte ser lo más razonable
posible), y seguir las máximas de Grice para la comunicación.
⋆ Además de la argumentación, hay otras formas de convencer, como el con-
vencimiento mediante amenazas, miedo, compasión o lástima, o mediante
la retórica. Lo distintivo del convencimiento mediante la argumentación es
que se hace mediante razones.
⋆ Existen diferentes usos del lenguaje, que se separan mediante las intenciones
con las que se utiliza en un contexto. Encontramos, al menos: el uso infor-
mativo, el expresivo, el directivo, el inquisitivo, y el argumentativo. Una guía
confiable (pero no definitiva) para distinguir los primeros tres es mediante
la forma gramatical.
Notas
1. Los argumentos probabilísticos en las matemáticas puras ya fueron sugeridos desde Gauss. Los grandes
padres de la lógica contemporánea, Russell y Gödel, fueron muy explícitos sobre el papel de la abducción
en la adopción de nuevos axiomas matemáticos (Gödel 1990 [1947]: pp. 476-7; Russell & Whitehead 1910:
pp. 59 y 62). Tao (medalla Fields 2006) tiene una breve introducción en su blog al tema de las heurísticas
probabilísticas en la teoría de números (Tao 2012).
2. Cf. Bowell & Kemp (2005): pp. 1-9; Cederblom & Paulsen (2011): pp. 1-8; Woods & Irvine & Walton
(2004): p. 5. Edmund Dudley (Dudley 2019) sugiere los siguientes cuatro elementos como componentes
centrales del pensamiento crítico:
1. La creencia de que la información que se nos proporciona no siempre debe aceptarse al pie de la letra.
En muchos casos, es aceptable —e, incluso, ética e intelectualmente obligatorio— cuestionar,
preguntar sobre las bases y fuentes.
2. La idea de que hay una diferencia entre comprender y entender. Dudley hace una diferencia entre com-
prender el lenguaje y comprender de manera superficial un texto o un discurso, y entender el
panorama más amplio. Pensar críticamente requiere no solamente entender cada fragmento de
19
información, sino saber integrarlo en una visión amplia.
3. La conciencia de que estamos rodeados de información y desinformación. Esta conciencia es el primer
paso, pero también se requieren habilidades para poder tratar con la desinformación.
4. La convicción de que la comprensión se mejora no solo al obtener respuestas, sino también al formular nuevas
preguntas.
3. Este es el meme:
5. Existe una discusión muy amplia en la epistemología y la psicología del razonamiento sobre hasta qué
punto somos racionales, o podemos serlo. Desde hace varias décadas se sabe que nuestra mente tiene
recursos acotados (por ejemplo, en su capacidad de memoria a corto plazo), y por ello, algunos psicó-
logos y filósofos han buscado teorías de la racionalidad que no requieran idealizar demasiado nuestras
capacidades cognitivas. Sin embargo, lo que la evidencia empírica indica es que, en muchos contextos
(sobre todo cotidianos) usamos heurísticas o reglas flexibles que nos llevan a conclusiones de manera so-
lamente probable. Pero esto no implica que no seamos racionales, o que no podamos utilizar los métodos
de la lógica deductiva o de la probabilidad para razonar; no lo implica porque de hecho lo hacemos, en
contextos de rigor académico y fuera de ellos. Nuestra racionalidad está, de acuerdo con esta literatura,
acotada: en algunos casos es más rápida que confiable. Pero aún así somos racionales. En un capítulo
posterior hablaré más sobre los sesgos cognitivos y su relación con la teoría de las falacias. Mientras tanto,
esto nos lleva a un interesantísimo debate que, por su amplitud, no puedo tratar más aquí. Ver Gigerenzer
& Selten 2011, Goldman 1986, y Kahneman 2012.
6. Ver Beristáin 1995: p. 421 y Vega Reñón & Olmos Gómez 2011: p. 522.
8. De hecho, se debate si los enunciados exclamativos expresan o presuponen proposiciones (ver Collins 2005;
Michaelis 2001; Sadock & Zwicky 1985). Como este debate es muy especializado, aquí nos quedaremos
con la idea, provisionalmente, de que las exclamaciones no expresan proposiciones (aunque pueden
presuponerlas).
20
9. Por ejemplo, Pazos (2003) distingue entre usos informativos y argumentativos del lenguaje.
11. Pablo Neruda, «Oda a la cebolla», en Antología fundamental, Pehuén Poesía, 1988 (selección de Jorge
Barros): pp. 182-184.
13. Fragmento de «The Nature of Infinity — and Beyond», por Jørgen Veisdal: https://medium.com/
cantors-paradise/the-nature-of-infinity-and-beyond-a05c146df02c
21
22
capítulo
2
Conceptos fundamentales
del análisis con lógica formal
Objetivos de aprendizaje
1. Que comprendas el concepto de proposición.
2. Que comprendas qué es un argumento, y seas capaz de identificarlos y po-
nerlos en su forma estándar.
3. Que puedas identificar premisas, e inferencia, además de utilizar los marca-
dores argumentales para reconocerlas.
4. Que conozcas la clasificación de los distintos tipos de argumentos basada
en el tipo de inferencia que contienen.
5. Que sepas diferenciar entre la verdad y la validez, y entre argumentos y
explicaciones, aclaraciones, causas y condicionales.
23
2.1. ¿Qué es una proposición?
L ciar algunas de las características más centrales de las proposiciones. Estas son
características que tienen todas las proposiciones; de hecho, son características
que definen lo que es ser una proposición.
Definición 3: Proposición
24
• Ejemplos de la característica 2: las oraciones declarativas «Pedro es esposo
de María» y «Correr eleva el ritmo cardíaco» expresan proposiciones.
• Como ejemplo de la característica 3: las siguientes oraciones significan la mis-
ma proposición: «Toño golpeó a Pepe», «Pepe fue golpeado por Toño», y «A
Pepe lo golpeó Toño».
• Como ejemplos de la característica 4, considera estas oraciones: «La Ciudad
de México es hermosa», «Mexico City is beautiful», «La ville de Mexico est be-
lle», «Mexiko-Stadt ist wunderschön». Todas expresan la misma proposición,
ejemplo 1
En general, la primera prueba que debe pasar algo para ser una proposición es que
pueda ser verdadera o falsa. Frente a una porción del lenguaje, pregúntate: «Esto que
dice, ¿podría ser verdadero o podría ser falso?» Si la respuesta es que sí —que sí podría
ser verdadero o falso—, entonces lo más probable es que estés frente a una proposición.
Relacionado con lo anterior, el segundo test es que una proposición puede usarse
como respuesta a una pregunta —o, más usualmente, presuponerse o sugerirse como res-
puesta. Por ejemplo: si te preguntan, «¿Qué día es hoy?» y tú respondes «Jueves», la
palabra «Jueves» no expresa, por sí misma, una proposición. Más bien, la palabra sugie-
re la siguiente proposición: Hoy es jueves. Esta última sí es una proposición. Considera
este otro ejemplo: te preguntan «¿Cuál es tu platillo favorito?» y tú respondes: «Sopa».
De nuevo, la palabra «sopa» no expresa una proposición; pero es claro que con ella
quieres dar a entender esta proposición: Mi platillo favorito es la sopa.
Otro test para saber si algo es una proposición, aunque este no siempre tiene que
ser así (es un «test» falible), es el siguiente. Muchas proposiciones contienen una cópula:
una palabra que conecta sujeto con predicado, como:
• «Es»,
• «está»
• «era»
25
• «estaban»
• etc.
Es decir, las conjugaciones de los verbos «ser» y «estar» suelen usarse como conectores
entre sujeto y predicado. Además, las oraciones que tienen estos conectores suelen
usarse como oraciones declarativas. Por ello, las oraciones que contienen estas cópulas
suelen expresar proposiciones. ¡Sólo recuerda que esta prueba puede fallar!
Finalmente, nota que toda la oración de la que estemos hablando tiene que contar
como proposición. Puede suceder que una oración que no expresa una oración —por
ejemplo, una oración exclamativa— tenga como parte a una oración declarativa. Pero
cuando preguntamos si una oración expresa o no una proposición, preguntamos por
toda la oración, no por sus partes. Así, «La pradera tiene valles verdes» sí expresa una
proposición, pero «¿La pradera tiene valles verdes?» no.
Ya que hemos visto la definición del concepto de proposición y ejemplos de sus carac-
terísticas, ejercitaremos el concepto al usarlo para reconocer en dónde se aplica.
Ejercicio # 5
De los siguientes casos, ¿Cuáles sí expresan una proposición? Los que no, ¿por qué no
lo hacen?
1. Disculpe, ¿qué hora es?
2. La mantarraya o manta gigante (Manta birostris) es una especie de elasmobran-
quio del orden Myliobatiformes.
3. ¡A mi no me vas a venir a decir qué hacer, o qué pensar, sobre todo si tú mismo
no sabes qué hacer de tu vida!
4. El realismo científico es una familia de posturas de acuerdo a las cuales nuestras
mejores teorías científicas son verdaderas, o aproximadamente verdaderas.
5. Debes pagarme dentro de los próximos 11 meses.
6. ¿Cuáles son, si es que alguno, los defectos de una tesis de acuerdo a la cual el
ser ahí es un ente cuyo ser es posibilidad, ser de una manera o de otra?
7. ¡Ah, qué bellos paisajes se pueden contemplar en aquéllas montañas, durante los
días más claros del verano!
8. En 1583 se urdía en París una maniobra para penetrar en Inglaterra por Esco-
cia; la tramaban el duque de Guisa, el embajador español en Francia y el nuncio
apostólico, en unión de exiliados ingleses.
9. Nadie puede copiar en el examen, lo tienen prohibido.
10. El albanés es una de las lenguas oficiales de la parcialmente reconocida República
de Kosovo, de algunos cantones de Macedonia del Norte y de algunas comunas
del sur de Italia.
26
2.2. El concepto de concepto *
27
ticas con las que se representan los objetos que describe el concepto. (Por ejemplo, la
comprehensión de mi concepto «automóvil» contiene a la característica de ser un objeto
que se mueve; la comprehensión de mi concepto «perro» contiene la característica de
ser un ser vivo.) Por otro lado, la extensión de un concepto es el conjunto de las cosas
que describe el concepto: la extensión, por ejemplo, del concepto «perro» es el conjunto
de todos los perros. Ahora bien, la «ley de extensión y comprehensión» suele ponerse
así:
Ley de extensión y comprehensión A mayor comprehensión, menor ex-
tensión, y a mayor extensión, menor comprehensión.
Aunque después de un razonamiento rápido pueda parecernos verdadera, esta «ley»,
así puesta, tiene una infinidad de excepciones.6 Además, dos conceptos pueden tener el
mismo número de notas en su comprehensión y aún así tener extensiones de diferente
tamaño; también, dos conceptos pueden tener un número distinto de notas en su com-
prehensión y aún así tener extensiones del mismo tamaño (por ejemplo, los conceptos
«presidente de México» y «máximo ocupante de alguna de las residencias oficiales del
Castillo de Chapultepec, Los Pinos o Palacio Nacional» tienen la misma extensión, pero
diferente número de características en la comprehensión).
Además de relacionarse con la teoría de la definición —que sí tiene aspectos lógi-
cos importantes, como veremos en un capítulo posterior— y con la supuesta «ley» de
comprehensión y extensión, los libros modernos de lógica que tratan con los conceptos
también suelen mencionar su clasificación. Esto significa organizar a los conceptos de
acuerdo con una variedad de criterios. A su vez, estos criterios suelen tener muy poca
relación con cuestiones netamente lógicas, y ser más bien criterios semánticos, metafí-
sicos o epistemológicos. Por ejemplo, algunos clasifican a los conceptos de acuerdo a
si su comprehensión contiene o no más conceptos; los conceptos que contienen a otros
son los complejos y los que no, son simples. Pero esta caracterización no es lógica, sino
que requiere del análisis semántico y es muy debatida en los fundamentos de la ciencia
cognitiva.7 Otros criterios usuales son igualmente debatibles, e igualmente extraños a
consideraciones puramente lógicas.
En general, además de la tradición, existen muy pocas razones para incluir un trata-
miento de los conceptos en un curso de lógica.
28
Así, los componentes de un argumento son:
Premisas Ideas que se usan para apoyar a otra idea.
Inferencia Relación de apoyo o fundamentación entre premisas y conclusión.
Conclusión Idea que es apoyada, mediante la inferencia, a partir de las premisas.
Decimos, entonces, que en un «buen» argumento la conclusión de hecho se infiere
de las premisas. Y, en muchos argumentos «inadecuados» —los que se suelen conocer
como falacias— la conclusión solamente parece inferirse de las premisas. Veremos esto
con mayor detalle más adelante.
Vamos a dar una definición muy general de argumento, a partir de dos aspectos: de
qué está hecho, y para qué sirve.
Definición 4: Argumento
29
conclusión parecería ser algo como: Yo no cometí el crimen, suponiendo, también,
algunas premisas adicionales: si mi jefe vio que yo estaba en mi trabajo, yo estaba
en mi trabajo; si estuve en mi trabajo de lunes a viernes, en particular estuve el
martes; si yo estaba en mi trabajo el martes, no cometí el crimen. Todas estas no se
mencionan porque es fácil inferir que, al mencionar tu argumento, las estabas dando
por sentado.
Hemos visto que un argumento puede tener su conclusión implícita. Pero también
puede tener premisas implícitas: premisas que no se mencionan, pero que es razonable
suponer que estaban dándose por sentado. Existe un término especial para argumentos
30
con premisas implícitas, que voy a definir ahora.
Definición 5: Entimema
Un entimema es un argumento con premisas implícitas.
Como con los argumentos cuya conclusión se deja implícita, diversos factores contex-
tuales pueden permitirnos tener una idea razonable sobre qué premisas se están dejando
implícitas. Estos factores son elementos de la información que conocemos quienes he-
mos oído o leído el entimema. Y si no los conocemos, es probable que tengamos que
preguntar: «¿Estás suponiendo que. . . ?»
Es una buena práctica argumentativa dejar en claro, desde el principio, cuáles son las
premisas de las que estamos partiendo, a menos que estas sean realmente muy obvias.
Hacer explícitos nuestros supuestos permite que nuestros interlocutores entiendan me-
jor desde dónde partimos, cuáles son nuestras bases. Quizá ellos compartan nuestras
bases; en ese caso, es más fácil lograr un acuerdo. Si no las comparten, de cualquier
forma, saber en qué nos basamos les permitirá entender mejor cuál es el desacuerdo
que tenemos. Así, preferir los argumentos explícitos sobre los entimemas hace menos
probable que ocurran malentendidos.
Ahora vamos a ejercitar el concepto de premisas implícitas.
Ejercicio # 6
I En los siguientes argumentos falta una premisa, que está implícita. Indica cuál es. He
intentado que la información que se da en cada caso sea suficiente para poder distinguir
qué premisa se ha dejado implícita, pero si crees que no lo es, indícalo, y sugiere las
diversas ideas que podrían funcionar como premisa con la información disponible.
1. Si no cae cara, cae sol. [. . . ] Por lo tanto, cayó sol.
2. Toda persona que acepte el relativismo moral, debe por ello aceptar ser sujeto de
acciones indebidas. [. . . ] Por lo tanto, Jorge debe aceptar ser sujeto de acciones
indebidas.
3. El robo es una acción que contradice los principios morales. [. . . ] Por lo tanto, no
se debe robar.
4. Nadie sale ileso de una guerra. [. . . ] Mariana debe haber sido lastimada.
5. Fumar produce la absorción de compuestos (como los hidrocarburos aromáticos
policíclicos) que son activados metabólicamente al ser catalizados por enzimas
citocromo P450. Esta activación permite que los compuestos puedan formar enla-
ces covalentes con el ADN. A su vez, estos forman aductos de ADN. Los aductos
de ADN pueden causar errores en el proceso de replicación de las células, los
cuales resultan en mutaciones (como las transversiones G→T). Estas mutacio-
nes causan alteraciones en los controles del crecimiento celular. [. . . ] La multipli-
cación descontrolada de células anómalas causa cáncer. Todo lo anterior implica
31
que fumar causa cáncer.
6. Al aprender lógica aumentará tu capacidad de entender diversos temas. [. . . ] Por
ello, es menos probable que aumente tu capacidad de entender diversos temas.
II Dame un argumento de cada uno de estos tipos:
1. Con conclusión después de las premisas.
2. Con conclusión antes de las premisas.
3. Con conclusión enmedio de las premisas.
4. Con conclusión que se deja implícita.
Marcadores de premisa
Los marcadores de premisa nos indican la presencia de una o varias premisas del
argumento. Su presencia nos indica que las ideas que siguen apoyan a otra idea, que
apareció antes o aparecerá después, y que es la conclusión del argumento.
Ejemplos de estos marcadores son:
«Sobre la base de . . . » «Suponiendo que . . . » «Debido a . . . »
«Partiendo de que . . . » «A razón de que . . . » «Dado que . . . »
«Tomando en cuenta que . . . » «A causa de . . . »
Marcadores de conclusión
32
Ejemplos de estos marcadores son:
«Por lo tanto. . . » «De lo que se infiere que. . . »
«Se sigue que. . . » «Y debido a ello, . . . »
«Lo cual significa que. . . » «Lo que conlleva que. . . »
«En consecuencia, . . . » «Concluimos que. . . »
«Luego, . . . » «Ergo. . . »
«De ahí que. . . » «Con lo que tenemos que. . . »
Es muy importante distinguir a los marcadores de conclusión de las expresiones condi-
cionales, lo cual revisaremos en la sección 4.1.6.
Ejercicio # 7
En los siguientes argumentos, distingue los marcadores argumentales, si los hay (si no
tiene alguno de los tipos de marcador, indícalo).
Marcador
Marcadores
Argumento de conclu-
de premisa
sión
«La reproducción sexual provee un espectro más
amplio para generar variabilidad genética, cuando
piezas individuales de cromosomas -de óvulos y
espermatozoides- se recombinan en la fertilización.
Otra de las ventajas de la reproducción sexual es que
las mutaciones nocivas, que naturalmente se acumu-
lan a lo largo de los años, se diluyen y sus efectos se
anulan durante esa combinación genética. Se infiere
que los organismos que se reproducen asexualmente
carecen de esas ventajas.»8
Quien, en algún momento de su vida, ha amado, sa-
be tanto del éxtasis del alma como de la necesidad de
atender aspectos menos sutiles de la existencia. Esto
es así puesto que el amor no es solamente emoción y
éxtasis; también es un constante recordarnos de que,
por más elevada que sea nuestra adoración, se mantie-
ne solamente cuando descansa en cimientos concre-
tos y firmes. Y quien ama debe, por necesidad, saber
todo esto.
«Es necesario que haya sustancias simples, puesto
que hay compuestos; porque el compuesto no es sino
un montón o aggregatum de simples.»9
33
«Muchos problemas de rodilla son causados por una
musculatura apretada o desequilibrada. El estiramiento
y el fortalecimiento, por lo tanto, ayudan a prevenir el
dolor de rodilla.»10
Hay sobrepoblación cuando la cantidad de personas
excede la cantidad de recursos disponibles. Esta cau-
sa diversas consecuencias sociales y ambientales. Por
otro lado, en las naciones desarrolladas se consumen
recursos a una tasa mucho mayor que en las naciones
en vías de desarrollo. A razón de ello, la sobrepobla-
ción afecta de manera desigual, dependiendo del nivel
de desarrollo de la sociedad.
«Un embrión no es un individuo o persona humanos.
Un embrión es un ‘principio no desarrollado de algo’,
(según la cuarta acepción de la Real Academia Espa-
ñola). Que represente vida no significa que sea en sí y
por sí mismo un ser humano, una vida humana como
equivalente de persona. Vida y ser humano, persona y
vida biológica no son lo mismo, y no hay que olvidar-
lo.»11
«Sigue siendo pertinente continuar revisando los orí-
genes y evolución, así como los derroteros en el pre-
sente y el futuro de la autonomía universitaria (pese
a que haya sido un asunto sobre el que se ha escrito
abundatemente). Ello es así porque en el último cuarto
de siglo los controles desarrollados por los gobiernos,
y las demandas sociales, parecen estar acotando cada
vez más sus alcances.»12
Uno de los gases más contaminantes es el CO2 (es uno
de los gases del efecto invernadero). Por ello, cuando
comparamos autos eléctricos y autos de gasolina, ob-
tenemos que los primeros contaminan más. Esto debi-
do a que sus baterías contienen litio, cobalto y manga-
neso que al extraerse y procesarse generan muchas
toneladas de CO2 .
34
«La distinción entre la cinemática de una teoría y su
dinámica es fundamental para el marco conceptual de
muchos físicos. Sin embargo, un cambio en la cinemá-
tica de una teoría puede compensarse con un cambio
en su dinámica sin consecuencias empíricas, lo que
sugiere que estas características de la teoría, consi-
deradas por separado, no pueden tener un significado
físico. Por lo tanto, debe concluirse que, en adelante,
la cinemática por sí misma y la dinámica en sí misma
están condenadas a desvanecerse en meras sombras,
y solo una especie de unión de ambas preservará una
realidad independiente.»13
Según la definición 4, un argumento posee una única conclusión. Sin embargo, pare-
ce que podemos encontrar muchos ejemplos de argumentos que posean más de una
conclusión. Por ejemplo:
La libertad humana no se contradice con el determinismo de las leyes de
la naturaleza. Pues sería imposible actuar si a cada causa no le sucediera
un efecto, de acuerdo a las leyes; esto debido a que, si a una desición de
actuar no le siguiera, de manera determinada por las leyes, la acción, los
comportamientos subsecuentes no contarían como acciones (pues no todo
movimiento corporal cuenta como acción). Y para que una acción sea libre
tiene que ser causada por la voluntad de la persona. Entonces, la libertad
requiere la existencia de leyes deterministas. Y si algo requiere a otra co-
sa, no puede contradecirla. De ahí la conclusión. También se sigue que la
libertad sólo existe si hay determinismo.
En este argumento, podemos encontrar dos conclusiones distintas: primera, «La libertad
humana no se contradice con el determinismo de las leyes de la naturaleza». Sabemos
que esta es una conclusión debido a que encontramos el marcador de inferencia «Pues»,
que nos indica que lo anterior se basa en lo subsiguiente. Y la segunda conclusión es:
«la libertad sólo existe si hay determinismo».
35
Definición 7: Polisilogismo
Puede suceder que de las mismas premisas se infiera más de una conclusión. Como
ejemplo, considera el siguiente argumento:
1. Pedro y Pablo son hijos de Juan.
C1. Juan tiene al menos dos hijos.
C2. Pedro y Pablo son hermanos.
C3. Pedro es hijo de Juan.
En este ejemplo, las diferentes conclusiones, aunque son acerca de temas cercanos,
no se apoyan entre sí: son, simplemente, varias conclusiones que se pueden inferir
de la premisa.
Sin embargo, existe otro tipo de casos, en los que a partir de las premisas podemos
inferir conclusiones que, aunque distintas, sí se apoyan entre ellas. A estas conclu-
ejemplo 3
Los términos que se utilizan para indicar la presencia de un argumento —al indicar la
presencia de una inferencia o de una premisa— también suelen usarse con otros fines.
36
Principalmente, estas palabras se suelen utilizar en explicaciones, aclaraciones, descripciones
de causas, y oraciones condicionales.
2.4.1. Condicionales
Empecemos con las oraciones condicionales. Como su nombre lo dice, una oración
condicional enuncia la condición para que suceda algo (ya sea una condición suficiente
o necesaria, conceptos de los que hablaremos en la sección 4.1.6). Suele aparecer con
las palabras «si. . . entonces» y «. . . solamente si. . . ». Por ejemplo:
Si me dan trabajo, con gusto me cambio de ciudad.
Esta oración no es un argumento: nos dice que, si es que llegara a darse la condición
de que me den trabajo, entonces con gusto me cambiaré de ciudad. En estas oraciones
condicionales, basta que se dé la condición para que se dé lo condicionado. Pero no
nos dan una razón: no fundamenta una idea. Lo que sí fundamentaría una idea sería el
siguiente argumento:
Si me dan trabajo, con gusto me cambio de ciudad.
Me darán trabajo.
Por ello, me cambiaré de ciudad.
Aquí sí hay un argumento. Pero es distinto de la oración anterior, porque contiene
otras oraciones: además de la oración condicional, contiene otra premisa y una conclu-
sión.
Este ejemplo nos sirve para ilustrar algo importante: a veces se usan oraciones
condicionales para hacer un argumento que se deja implícito. Por ejemplo, si quiero
argumentar que yo no merezco el castigo, y me encuentro entre una audiencia que
sabe que quiero demostrarlo, y además yo y la audiencia sabemos que las pruebas son
insuficientes, podría decirles: «Si me van a castigar, necesitan pruebas suficientes». Se
podría pensar que estoy argumentando que no merezco el castigo porque, (i) las pruebas
no son suficientes, y (ii) para que me castiguen, necesitan pruebas suficientes. En este
caso hablaríamos de un argumento con una premisa y conclusión implícitas.
Sin embargo, como he dicho antes, para poder saber en dónde hay un argumento
implícito se necesita conocer el contexto. Y, de cualquier forma, un argumento sigue
siendo distinto a una mera afirmación condicional; lo que puede suceder es que ésta se
use para indicar un argumento.
Considera este otro ejemplo:
Me iré de este país sólo si encuentro un excelente trabajo fuera.
Como con el ejemplo anterior, aquí no hay un argumento: es una oración que nos
dice lo que se requiere, lo que se necesita, para que me vaya de este país: se requiere que
encuentre un excelente trabajo fuera. Encontrar ese trabajo quizá no baste para que me
37
vaya, pero sí se requiere. Como con el ejemplo anterior, esta oración puede usarse en
el contexto de un argumento, pero no es un argumento en sí misma.
Las oraciones condicionales y los argumentos se parecen en algo: en que en ambos
encontramos consecuencias. Al decir que, si pasa algo, entonces pasará otra cosa, estamos
diciendo que si sucede lo primero, eso tendrá como consecuencia lo segundo.
En un argumento también hay consecuencias: las premisas tienen como consecuen-
cia lógica, o como consecuencia probable (dependiendo del tipo de argumento), a la
conclusión (más adelante estudiaremos estos conceptos con más detalle). Pero en las
oraciones condicionales solamente afirmamos que una cosa tiene como consecuencia
otra: si sucede una, entonces sucederá la otra. En un argumento no tenemos una mera
afirmación, tenemos una relación inferencial entre premisas y conclusión: las premisas
conllevan la conclusión.
Resumiendo: es importante no confundir un argumento con una oración condicional:
un argumento tiene premisas, inferencia y conclusión, pero una oración condi-
cional es solamente una oración —una que afirma que sucederá algún evento si es
que se da, o únicamente bajo la condición de que se dé, otro evento. Con un argumento no
afirmamos: más bien, un argumento contiene afirmaciones.
2.4.2. Aclaraciones
38
son marcadores argumentales. Por ejemplo, a veces «significa» se usa para indicar una
inferencia, como en:
Quien es libre, decide su destino. Sólo mediante la elección racional de un
ethos podemos llegar a ser libres. Esto significa que quien es libre, decide su
destino y ha hecho una elección racional de un ethos.
En este ejemplo, bien podríamos sustituir la frase «Esto significa» por «Esto implica»:
las dos proposiciones iniciales conllevan la conclusión; dicho en un contexto, este argu-
mento se usaría para demostrar la conclusión de que quien es libre, decide su destino y ha
hecho una elección racional de un ethos. A diferencia de ello, en el ejemplo de Sartre, la
intención es dar el significado de terminología técnica, de palabras especializadas a las
que Sartre les da un significado específico para referirse a un fenómeno.
En general, debemos tener cuidado de que la ocurrencia de aparentes marcadores
argumentales no nos confunda: también pueden ser indicadores de una aclaración o
definición. ¿Cómo saberlo? Solamente podemos fijarnos en el contexto del discurso, y
tratar de inferir las intenciones del autor al escribirlo o enunciarlo: si pretende funda-
mentar una idea, está argumentando; si pretende explicar el significado de una frase
o palabra, está aclarando.
2.4.3. Causas
Las palabras con las que indicamos argumentos también se usan para indicar causas.
Una causa es un evento que produce o genera o hace que surja otro evento (en el lenguaje
coloquial, también se usa «causa» para referirse a características que, al poseerse, causan
que se posean otras, como cuando decimos «la ignorancia y el miedo son la causa de
la xenofobia»). Como ejemplo de esto, considera el siguiente pasaje, adaptado de una
cita de la BBC:
Sin embargo, la proyección de Carlos Anaya es que más allá del factor
estacional, la demanda de aguacate de Estados Unidos seguirá creciendo y,
por lo tanto, los precios tenderán a estabilizarse en un rango un poco más
alto que los valores históricos.15
En este ejemplo, la frase «por lo tanto» se usa para indicar no un argumento, sino una
causa: el aumento de la demanda de aguacate en Estados Unidos causará el aumento
en los precios del aguacate. Veamos otro ejemplo.
No pude dormir toda la noche. A razón de ello, estoy muy cansado.
De nuevo encontramos una expresión que a veces se utiliza para indicar premisas.
Sin embargo, aquí no se está ofreciendo una proposición como razón de la otra, sino
un suceso como causa del otro. El que no pudiera dormir causó, (hizo, produjo) que yo
estuviera muy cansado. Pero no estoy infiriendo que yo esté causado a partir de que no
39
pude dormir.
Las afirmaciones que describen causas tienen algo en común con los argumentos:
se pueden usar para justificar, para dar razón de un suceso. La diferencia es que las
afirmaciones que describen causas no contienen una relación de inferencia, como sí la
contienen los argumentos.
También podemos diferenciar a la relación causa-efecto de la relación inferencial. Una
relación inferencial es una relación entre proposiciones: se da cuando una proposición —
la conclusión— es consecuencia lógica de otras. En cambio, la relación causal es una
relación entre sucesos: se da cuando un evento concreto —no cómo lo describimos en
el lenguaje, sino el evento mismo— genera la existencia de otro evento, o genera un
cambio en otro evento.
Otra diferencia importante entre la causación y las relaciones inferenciales es que
usamos inferencias para demostrar, para argumentar a favor de una proposición. Esto lo
solemos hacer cuando alguien no cree en esa proposición. En cambio, regularmente,
usamos la descripción de causas no cuando queremos convencer a alguien de una pro-
posición, sino cuando queremos explicarle a alguien de dónde proviene cierto suceso, que
ya damos por sentado que existe.
2.4.4. Explicaciones
Una explicación responde a una pregunta «¿por qué?». Nos dice por qué sucede tal o cual
evento; por ello, la frase «porque» es un muy buen indicador de explicaciones: esa frase
suele usarse para decir en dónde comienza una explicación. Una explicación tampoco
es un argumento, aunque ambos conceptos estén relacionados muy estrechamente.
Por ejemplo:
Llegué tarde porque había una manifestación.
En este caso, quien enuncia esta oración no está dando un argumento: está explicando
por qué llegó tarde, enunciado el factor que lo provocó.
Las explicaciones, como las descripciones de causas, se parecen a los argumentos
en que en ambos podemos encontrar cierto tipo de consecuencia. Pero como con las
descripciones de causas, en las explicaciones ya suponemos de entrada que se da el
hecho, y al explicarlo decimos de dónde surgió. Mientras tanto, con los argumentos
buscamos demostrar que se da un hecho, que es la conclusión.
(Las explicaciones y descripciones de causas se parecen en varios aspectos. Esto ha
llevado a algunos autores a pensar que, en realidad, toda explicación es una descrip-
ción de causas. Esto es muy controvertido en la teoría de la explicación, así que no
profundizaremos en ello.)
Algunos argumentos suponen ciertas explicaciones: son las inferencias a la mejor expli-
40
cación, (que revisaremos en el capítulo ??). Y, según algunas teorías de la explicación,
toda explicación supone ciertos argumentos.16
De cualquier forma, argumentos y explicaciones son distintos. Un argumento con-
tiene premisas, de las cuales se infiere una conclusión. Tanto premisas como conclusión
son proposiciones. En cambio, una explicación contiene un hecho a explicar —un ex-
planandum— y la explicación de ello: un explanans. Al explicar damos por sentado que
el explanandum se da, que ya existe, y buscamos decir qué fue lo que lo llevó a existir; en
cambio, al argumentar no damos por sentado que la conclusión ya sea verdadera, sino
que buscamos demostrar que sí lo es.
A veces también pensamos que hay un argumento donde solamente se esta describien-
do un suceso, o las características de algo. Si esta descripción suena muy técnica o
sofisticada, puede parecernos un argumento. Por ejemplo:
Los científicos estiman que el microbioma humano contiene billones de bac-
terias, la mayoría de ellas inofensivas, muchas beneficiosas y algunas que
causan enfermedades. La creciente evidencia ha revelado el papel de estos
microbios como poderosos moduladores de la enfermedad y la salud. Los
cambios tanto en el recuento como en el contenido bacteriano se han re-
lacionado con el desarrollo de afecciones que van desde la caries dental
y las infecciones intestinales hasta las más graves, como la enfermedad in-
flamatoria intestinal crónica, la diabetes y la esclerosis múltiple. La mayor
parte de la investigación hasta la fecha se ha centrado en mapear los tipos
de bacterias que habitan nuestros cuerpos en un esfuerzo por determinar la
presencia de una especie bacteriana determinada y cómo podría afectar el
riesgo de enfermedad. Por el contrario, la nueva investigación profundiza
mucho más, observando los genes que componen las diversas especies y
cepas microbianas.17
Aquí solamente hay una descripción: se describen el microbioma y ciertas investiga-
ciones sobre este. No hay ningún argumento. ¿Cómo lo podemos saber? Porque ninguna
proposición se infiere de la otra, por lo que ninguna se ofrece como justificación —como
premisa— de otra. Sin esos elementos, no hay argumento.
Ejercicio # 8
Para cada uno de los siguientes textos, di si es un argumento, una proposición condicio-
nal, una aclaración, una descripción de causa, o una explicación.
1. Si vamos a aceptar que una empresa tome el control de las comunicaciones glo-
bales sin tener consecuencias por ello, y que además se le brinden millonarias
41
exenciones de impuestos, entonces es mejor que nos vayamos preparando para
una debacle no sólo de orden económico, sino político y hasta moral.
2. Cuando digo que «hemos dejado de creer en el amor duradero», me refiero a que,
aunque podamos seguir buscando una relación de pareja que se mantenga ante
las adversidades, nuestras acciones revelan que ya actuamos bajo la certeza de
que nuestras relaciones sobrevivirán.
3. No estoy de acuerdo con la legalidad de las corridas de toros. Pues un toro siente,
tanto como un humano; sentir permite percibir el dolor, y las corridas de toros
producen dolor. Pero no deberíamos dejar que fuera legal causar dolor por mero
disfrute.
4. Fumar produce la absorción de compuestos (como los hidrocarburos aromáticos
policíclicos) que son activados metabólicamente al ser catalizados por enzimas
citocromo P450. Esta activación permite que los compuestos puedan formar en-
laces covalentes con el ADN. A su vez, estos forman aductos de ADN.
...
...
...
...
...
...
...
...
42
investigación tenga en un momento determinado.
Por ejemplo, el quinto postulado de la geometría de Euclides le parecía a este, si no
tan obvio como los restantes cuatro, sí suficientemente obvio a los geómetras de su épo-
ca como para usarse como principio; mientras que, durante mucho tiempo, una amplia
cantidad de matemáticos intentaron demostrarlo como teorema. No fue hasta el siglo
XX que se demostró que el «principio» euclidiano era prescindible para hacer construc-
ciones geométricas, fundando lo que hoy se conoce como geometría no euclidiana.
43
infiel. Ya sabes a dónde voy con esto, ¿verdad?
3. Para la teoría cuántica ortodoxa la aleatoriedad surge de alguna manera del efecto
de la medición, no del comportamiento del sistema dinámico, el movimiento perió-
dico, que describe el sistema no medido. Nos gustaría sugerir (particularmente en
vista del hecho de que está de moda hoy en día buscar las manifestaciones cuán-
ticas del caos clásico) que una comparación del caos clásico y el cuántico sería
más fácil si la dinámica cuántica, como la clásica, fuera responsable de la aleato-
riedad, y esta no tuviera que ser puesta a mano. Pero hemos argumentado que,
por agradable que fuera, esto último simplemente no es el caso. Por ello, el caos
clásico no es comparable con el caos cuántico en la teoría cuántica ortodoxa.19
4. Ya antes hemos discutido mucho sobre la fuente de la orientación sexual y he-
mos podido establecer pocas cosas; la investigación sobre este tema sigue siendo
controvertida y escasa. Pero sí sabemos una conclusión: que el ambiente debe
jugar algún papel al determinar la orientación sexual. Esto se establece a partir
de dos hechos: que los gemelos idénticos pueden tener distintas orientaciones,
y que ellos heredan los mismos genes. De esto continuaremos hablando en otro
capítulo del libro.
5. La causa del universo yace fuera de él. Pues: o bien el universo tiene una causa
o no la tiene. Si el universo tiene una causa, la causa yace fuera de él. Y si el
universo carece de causa, el universo es necesario. Además, el universo no es
necesario.20
6. El siguiente argumento se conoce desde la Antigüedad, y ha sido llamado «La pa-
radoja de Epicuro». Hoy en día se conoce como «el argumento lógico del mal», y
se le distingue de otros argumentos alrededor de la existencia del mal. Podríamos
formularlo como sigue. Un supuesto básico es que Dios es omnisciente; también
es omnipotente. Además, Dios es completamente bueno. Pero existe el mal. De
todo esto se sigue que Dios no existe; pues, además, la existencia de ser omnis-
ciente, omnipotente y completamente bueno es incompatible con la existencia del
mal. Este argumento ha sido discutido muchas veces a través de la historia de la
filosofía.
7. Sería más fácil si supiéramos que la crisis actual fue causada por adolescentes
emprendedores que administran sitios de noticias falsas en Facebook, marione-
tas rusas y cuentas de bots, publicidad dirigida de Cambridge Analytica o inclu-
so cámaras de eco simétricamente partidistas inducidas tecnológicamente. Pero
nuestros estudios nos han llevado a la conclusión de que estos riesgos supuestos
no son, en el futuro cercano, las principales causas de irrupción. En lugar de estas
dinámicas impulsadas tecnológicamente, que son novedosas pero en última ins-
tancia menos importantes, vemos dinámicas a largo plazo de la economía política:
la ideología y las instituciones que interactúan con la adopción tecnológica como
44
los principales impulsores de la crisis epistémica actual. Estas dinámicas, que se
desarrollan en la televisión, la radio y el periodismo profesional convencional al
menos tanto como a través de Internet y las redes sociales, se han desarrollado
durante 30 años y han resultado en un ecosistema de medios altamente asimé-
trico que es el principal impulsor de la desinformación y propaganda en la esfera
pública estadounidense. El ecosistema de los medios de derecha, en particular,
circula una cantidad abrumadora de desinformación y propaganda doméstica, y
sus prácticas crean las mayores vulnerabilidades tanto a la propaganda extranje-
ra como a la explotación comercial nihilista por parte de las fábricas de clickbait.
Fuera del ecosistema de medios de derecha, observamos los esfuerzos de los
partidarios, los rusos y las fábricas de clickbait, pero las normas de verificación de
hechos y los compromisos institucionales periodísticos amortiguan la difusión y
amplificación de la desinformación. Estas dinámicas se invierten en la red insular
de derecha, y las afirmaciones partidistas de confirmación de identidad, por falsas
que sean, se aceleran y amplifican.21
8. Pierre-Simon, marqués de Laplace (1749–1827), conocido habitualmente como
Laplace, argumentó que las perturbaciones en las órbitas de los planetas a causa
de la atracción gravitatoria deberían ser periódicas, es decir, marcadas por ciclos
repetidos, en lugar de ser acumulativas. Eso bastaría para que el sistema solar se
estabilizara a sí mismo, y por lo tanto no habría necesidad de la intervención divina
para explicar por qué ha sobrevivido hasta el día de hoy. A Laplace se acostumbra
atribuirle la primera formulación precisa del determinismo científico.22
9. Lo más probable es que los gases producidos al quemar derivados del petróleo y
del carbón para tener fuentes de energía, sean una de las causas más importantes
del efecto invernadero. (Este efecto sucede cuando algunos gases que está en la
atmósfera del planeta impiden que la energía que nuestro planeta recibe por la
radiación del Sol regrese al espacio exterior.) A su vez, este efecto es una de las
causas más importantes del calentamiento global. Al crecer la población, crece la
demanda de energía. Es fácil inferir de aquí qué relación hay entre crecimiento
demográfico y calentamiento global.
10. Vemos que el proceso civilizatorio supone una transformación del comportamiento
y de la sensibilidad humanos en una dirección determinada. Pero es evidente que
en ningún momento ha habido seres humanos individuales que hayan tratado de
realizar esta transformación, esta «civilización», de modo consciente y «racional»
por medio de una serie de medidas que persigan tal objetivo. Es impensable que
el proceso civilizatorio haya sido iniciado por seres humanos capaces de planificar
a largo plazo y de dominar ordenadamente todos los efectos a corto plazo, ya que
estas capacidades, precisamente, presuponen un largo proceso civilizatorio. Es
evidente, pues, que la «civilización», como la racionalización, no es un producto
45
de la ratio humana, no es el resultado de una planificación que prevea a largo
término.23
Como he mencionado antes, fuera de los libros de texto y de los artículos especializa-
dos, los argumentos no se suelen presentar de manera límpida y explícita. A veces sus
premisas y/o conclusiones se dejan implícitas, a veces se sugieren mediante una excla-
mación o pregunta retórica; a veces el argumento está enmedio de información que no
es importante para comprenderlo, y a veces se utilizan giros retóricos para indicar una
idea o para agregarle algo de estilo literario.
En estos casos, es necesario parafrasear el discurso
Parafrasear significa usar para poner explícitamente el argumento que se preten-
otras palabras para expresar de ofrecer. Cuando parafrasees lo que dice otra perso-
la misma idea con mayor na, siempre recuerda usar el principio de caridad (secc.
claridad o inteligibilidad. 1.2.2); para aumentar la claridad de tu paráfrasis, re-
cuerda las máximas de Grice (secc. 1.2.3).
A veces las paráfrasis se usan para extraer una sola proposición; a veces es necesario
parafrasear todo un pasaje para obtener el argumento. Vamos a ver dos ejemplos: uno en
el que distinguimos la proposición que se quiere expresar con una pregunta, otro donde
el proceso es más radical y el argumento final no se parece mucho al texto original.
I Empecemos con un ejemplo sencillo. Considera este pasaje del Teeteto de Pla-
tón:
Sócrates: ¿Podrías, por lo menos, asegurar, que ninguna cosa le parece
a otro hombre la misma que a tí? ¿Y no afirmarías, más bien, que nada
se te presenta bajo el mismo aspecto, porque nunca eres semejante a
tí mismo?
ejemplo 4
46
I):
Lo que ahora me propongo no es criticar a esos pensadores, pero no
puedo evitar el referirme, como ejemplo, a un tratado sistemático es-
crito por uno de los más ilustres de ellos, la Metafísica de la Etica, de
Kant. Este hombre notable, cuyo sistema de filosofía permanecerá mu-
cho tiempo como uno de los hitos en la historia de la especulación filo-
sófica, establece, en el tratado en cuestión, un primer principio universal
como origen y fundamento de la obligación moral; es éste: Obra de ma-
nera que tu norma de acción sea admitida como ley por todos los seres
racionales. Pero, cuando empieza a deducir de este precepto cuales-
quiera de los deberes actuales de moralidad, fracasa, casi grotesca-
mente, en la demostración de que habría alguna contradicción, alguna
imposibilidad lógica (por no decir física) en la adopción por todos los
seres racionales de las reglas de conducta más atrozmente inmorales.
Todo cuanto demuestra que las consecuencias de su adopción univer-
sal serían tales que nadie se decidiría a incurrir en ellas.
Aquí he dado un solo pasaje, pero es importante conocer el contexto: en este primer
capítulo, Mill pretende introducir el problema del fundamento de la moral. La segunda
oración del capítulo es esta:
Desde los albores de la filosofía, la cuestión concerniente al summum
bonum, o, lo que es lo mismo, al fundamento de la moral, se ha con-
tado entre los problemas principales del pensamiento especulativo, ha
ocupado a los intelectos mejor dotados, y los ha dividido en sectas y
escuelas que han sostenido entre sí una vigorosa lucha.
Muy bien. Entonces, Mill pretende hablar de cuál es este fundamento de la moral, y
en la primera cita que puse, parece descalificar las ideas de Kant. Por ello, es clara
su intención en la primera cita: pretende argumentar en contra del principio de Kant al
concluir que este no es origen y fundamento de la obligación moral. Esta conclusión
no está explícita, pero, habiendo leído el pasaje y conociendo el contexto, debería
ser obvio que es a lo que Mill pretende llegar.
Por otro lado, ¿cuál es su argumento? Bueno, parte de dos premisas. La primera
parece ser que Kant «fracasa [. . . ] en la demostración de que habría alguna contra-
dicción [. . . ] en la adopción por todos los seres racionales de las reglas de conducta
más atrozmente inmorales». ¿Contradicción con qué? Bueno, contradicción con su
principio. Así que la primera premisa podría ponerse así: «No hay contradicción en-
tre el principio de Kant y la adopción por todos los seres racionales de las reglas de
conducta más atrozmente inmorales». La segunda premisa parece ser estar suge-
rida por esta idea: «Todo cuanto demuestra que las consecuencias de su adopción
universal serían tales que nadie se decidiría a incurrir en ellas.» Parafraseando, ten-
47
dríamos esta proposición: «De esto se sigue que las consecuencias de la adopción
universal del principio de Kant serían tales que nadie se decidiría a incurrir en ellas».
48
2.5.3. La forma estándar
.
Uso los tres puntos verticales («..») para decir que puede haber más premisas (¡inclu-
so puede haber solamente una!) El símbolo «∴» es, por supuesto, el símbolo para la
expresión «Por lo tanto», que indica cuál es la conclusión.
La ventaja de utilizar la forma estándar es que nos permite tener absoluta claridad
sobre cuáles son las premisas y cuál es la conclusión.
Ejercicio # 10
Pon cada uno de los argumentos del ejercicio de la página 43 en la forma estándar,
poniendo las premisas implícitas que fueran necesarias.
Una clasificación usual de los argumentos los divide en dos grandes grupos:
• Argumentos deductivos.
• Argumentos no-deductivos o probabilísticos.
No es la única clasificación posible, pero su generalidad y simplicidad la hacen muy
atractiva, así que la adoptaremos aquí.
La clasificación toma un aspecto esencial de los argumentos: la relación de inferencia
que contienen. Podríamos intentar diseñar clasificaciones alternativas, que tomaran en
cuenta diferencias en premisas y/o en conclusión. Pero (1) ya hemos visto que algunas
maneras de diferenciar entre tipos de premisas, y algunas maneras de diferenciar entre
tipos de conclusión, son bastante poco exactas (sec. 2.4.6), y además (2) dos argumentos
distintos pueden poseer las mismas premisas, o la misma conclusión o incluso las mismas
49
premisas y la misma conclusión. Esto indica que el criterio de clasificación no debería
basarse en las premisas, ni en la conclusión, sino en la manera en que las premisas
apoyan a la conclusión: es decir, en la inferencia.
Hay varias definiciones equivalentes (es decir, que dicen lo mismo con palabras dis-
tintas). Estas son algunas:
• Un argumento es válido siempre y cuando: en toda situación lógicamente posible
en la que sus premisas sean todas verdaderas, la conclusión también es verdadera.
• Un argumento es válido siempre y cuando: es lógicamente necesario que: si las
premisas son verdaderas, también la conclusión es verdadera.
• Un argumento es válido siempre y cuando: es lógicamente imposible que: las
premisas sean verdaderas pero la conclusión sea falsa.
Tomaremos todas estas definiciones como siendo realmente una sola, dada su equi-
50
valencia.
Nota que la definición 10 implica que un argumento válido puede tener una con-
clusión falsa. Sólo que en ese caso, debe suceder que al menos una de sus premisas
sea falsa también. Esa definición también implica que un argumento puede ser válido
aún cuando tenga premisas falsas. La validez no siempre asegura verdad: solamen-
te asegura la verdad de la conclusión cuando todas y cada una de las premisas sean
verdaderas.
Por otro lado, a partir de la definición 10, se sigue directamente qué se requiere para
que un argumento sea inválido.
Definición: Invalidez
Invalidez Un argumento es inválido siempre y cuando: hay alguna situación
lógicamente posible en la que sus premisas sean todas verdaderas, pero
la conclusión es falsa.
En la definición de validez que vimos arriba, una situación es un caso, un escenario, una
realidad, un mundo o un universo. Y decimos que una situación es lógicamente posible
siempre y cuando no sea auto-contradictoria. De manera equivalente, una situación será
lógicamente imposible cuando sí sea auto-contradictoria.
Forma y modalidad
51
∴ El mundo no existe en el año 2001.
Es claro que la premisa 1 es falsa: el mundo no se acabó en el año 2000. Sin em-
bargo, podemos imaginar una situación en la que el universo implote en el año 2000
(¡Sería un universo muy distinto al nuestro! Pero esa situación es lógicamente po-
sible porque no involucra ninguna auto-contradicción.) Y además, en esa situación
meramente posible, que el mundo acabe en el año 2000 conlleva que el mundo no
exista en el año 2001; por lo que se seguiría que el mundo no existe en el año 2001.
Esto ejemplifica la noción de necesidad: en toda circunstancia posible en la que
las premisas 1 y 2 sean verdaderas, la conclusión también lo será —aún cuando
la realidad concreta no sea una situación en la que las premisas sean verdaderas;
como en este caso, que 1 es falsa.
Resta hablar sobre el primer concepto. Una concepción tradicional es que un argu-
mento válido lo es en virtud de su forma lógica. Que sea válido en virtud de su forma lógica,
significa que: si un argumento particular es válido, entonces todo argumento que tenga
la misma forma lógica que ese primero, también será válido. Y que lo sea en virtud de
su forma lógica significa que la validez se debe no al contenido, sino a la estructura.
¿Qué es esta forma lógica? Es la estructura del argumento en el que se ha quitado toda
la «materia» y solamente queda la forma. La materia consiste en los términos que no
son constantes lógicas; a su vez, la forma de un argumento viene dada por las constantes
lógicas que aparecen en ese argumento. (Como analogía, piensa que las constantes
lógicas son el molde, y la materia del argumento es la masa de galletas: el argumento
concreto sería la masa en el molde.) Por supuesto, todavía no hemos definido la noción
de constante lógica; esto lo haremos hasta la sección 4.1.2.
Por ahora, solamente piensa que: si un argumento es válido, entonces todo argumento
que tenga la misma forma lógica también será válido. Es por eso que, primordialmente,
la validez es una propiedad de las formas de argumento. Revisaremos muchas de
estas estructuras de argumento válidas en este libro.24
52
2. Todo el que sabe que el amor es emoción y éxtasis y requiere de cimientos
firmes, es sabio.
∴ Todo el que ama es sabio.
Ahora bien, este argumento tiene la forma lógica que sigue —aunque, por ahora, si
no lo alcanzas a ver, te voy a pedir que solamente me lo creas: podremos compro-
barlo definitivamente hasta el capítulo 10.
1. Todo el que es X , es Y .
2. Todo el que es Y , es Z .
∴ Todo el que es X , es Z .
Como resulta que esta forma lógica es válida (algo que también podremos compro-
bar solamente hasta el capítulo 11), todo argumento que tenga esta misma forma
lógica va a ser igualmente válido. En particular, este lo es:
1. Todo el que es un árbol, ladra.
2. Todo el que ladra tiene una garganta.
∴ Todo el que es un árbol tiene una garganta.
Por supuesto, la premisa 1 es falsa —y también la conclusión. ¿Cómo puede ser
esto? Porque la validez de un argumento no siempre asegura la verdad de su con-
clusión: solamente asegura verdad cuando todas las premisas son verdaderas.
Así, el argumento anterior es válido con premisas falsas, y por eso no asegura que
su conclusión sea verdadera.
Solidez
Como notamos arriba, la definición de validez permite que haya argumentos válidos
con premisas falsas. Para argumentos así, la mera validez no garantiza la verdad de la
conclusión.
Un argumento que es válido y además solamente tiene premisas verdaderas se conoce
como un argumento sólido o correcto (en inglés, «sound»).
Definición 11: Solidez
Un argumento es sólido siempre y cuando sea válido y además todas sus
premisas sean verdaderas.
53
Verdad y validez
Hay algo que debemos notar ahora y que es importante recordar siempre. Lo resaltaré
porque me interesa mucho que grabes esto (si no lo has grabado ya) en tu memoria:
Los argumentos no son verdaderos ni falsos. Sólo las proposicio-
nes lo son. Los argumentos pueden ser válidos o inválidos, fiables
o no fiables, y correctos o incorrectos, pero nunca verdaderos ni
falsos.
Parte de la definición de una proposición, como se dio arriba (definición 3), es co-
mo un objeto que es un portador de verdad. Ninguna otra cosa es portadora de verdad:
ninguna puede ser verdadera o falsa. (Por supuesto, en el lenguaje cotidiano decimos
cosas como «¡Ese es un auto de verdad!» para decir que es un auto de mucha calidad,
o que se acerca a un ideal. En la lógica vamos a usar el lenguaje preciso y bien defi-
nido, y evitaremos estos usos coloquiales.) Los conceptos de «validez», «fiabilidad» y
«corrección» que he mencionado son los que definimos arriba (definiciones 10, 13, y
11, respectivamente). Pero recuerda esto: la noción de verdad es para proposiciones; la
noción de validez (y de fiabilidad), para argumentos.
(Por supuesto, estamos usando el lenguaje técnico de la lógica: estamos definiendo
conceptos de manera rigurosa, y apartando ciertas palabras del Español para referirnos
a ellos. En el lenguaje cotidiano, es normal utilizar adjetivos como «válido» y «confiable»
para muy distintas cosas. No importa: cuando hablemos de lógica vamos a utilizar el
lenguaje especializado.)
Los argumentos probabilísticos son los que contienen a una relación infe-
rencial que puede clasificarse como fiable o no fiable, pero que no tiene
sentido caracterizarla como válida o inválida.
54
que tengan en común con otras, pero no con todas. La clasificación de los humanos
por quiénes son y quiénes no son piedras, no sirve para ello. Lo mismo sucede con la
clasificación de los argumentos probabilísticos por cuáles son y cuáles no son válidos.
Que los argumentos probabilísticos no sean válidos significa, de acuerdo a la defini-
ción 10, que existen casos lógicamente posibles en los que las premisas son verdaderas,
pero la conclusión no. Sin embargo, según la definición 12, estos pueden ser fiables o
no fiables. A su vez, podemos definir así al concepto de fiabilidad:
Definición 13: Fiabilidad
Un argumento es fiable siempre y cuando: las premisas elevan la proba-
bilidad de que la conclusión sea verdadera.
55
puede ser fiable o no fiable. Es decir: es un tipo de argumento en el que sus premisas
hacen más probable a su conclusión, si es que es un buen argumento; o en el que sus
premisas no hacen más probable a su conclusión, si es que es un mal argumento.
A su vez, los argumentos probabilísticos se suelen clasificar así:
– Inductivos
Probabilísticos: – Analógicos
– Abductivos (inferencia a la mejor explicación)
En el capítulo 16 hablaremos con algo más de detalle sobre los argumentos probabi-
lísticos.
Hice algunos videos donde también explico varios de los conceptos de este capítulo, te podría
interesar revisarlos:
56
Algunos autores niegan la existencia de argumentos conductivos como una categoría
separada de argumento. Por ejemplo, de acuerdo con Possin (2016; cf. Adler 2013), lo
que se ha tomado como argumento conductivo suele ser, o bien meramente un argu-
mento inductivo, o bien, constituyente de un artículo argumentativo.
De cualquier forma, como hemos dicho, la evaluación de un argumento conductivo
es mediante la evaluación de la «fuerza final», digámoslo así, de las premisas a favor
—donde esta fuerza final considera la fuerza de las premisas a favor y les «resta» la
fuerza de las premisas en contra. Pero para evaluar esta fuerza vamos a necesitar de las
técnicas de evaluación de apoyo evidencial o lógico que una premisa le brinda a una
conclusión, por lo que en este libro no nos enfocaremos en este tipo de argumentos.
57
58
capítulo
3
Lógica: filosofía, mate-
mática, modelo y arte
Objetivos de aprendizaje
1. Que te familiarices con los distintos aspectos de la lógica; incluyendo su
historia como rama de la filosofía y su emergencia como un área de las
matemáticas.
2. Que entiendas en qué sentido la lógica es un modelo de la argumentación.
3. Que consideres a la lógica también como un arte, una técnica que puede
practicarse.
4. Que te familiarices con los componentes de un sistema lógico, que es el tipo
de aparato matemático con el que vamos a comenzar a modelar argumentos.
59
3.1. Los orígenes filosóficos y matemáticos de la lógica
L cribió sus famosos tratados de lógica, entre ellos los Primeros Analíticos, para
sistematizar a a la ciencia de la deducción. Este fenómeno había sido estudiado
antes en la lógica hindú; por ejemplo, en la escuela Jaina o en los Nyāayasutras.27 Como
otro ejemplo, es fácil concebir al Eutidemo de Platón como una divertidísima exposición
de las falacias más elementales. Probablemente, el desarrollo de la lógica en el seno
de la filosofía llegó a su cúspide cuando (en su Crítica de la Razón Pura), Kant llegó a
pensar que era una ciencia finalizada.28
Pero también es ampliamente aceptado que la lógica contemporánea, al menos en su
aspecto más puro, es una rama de las matemáticas.29
La lógica matemática es uno de los más grandes resultados de la interacción entre la
matemática y la filosofía desde la segunda mitad del siglo XIX hasta la primera del XX.
Grandes genios filosófico-matemáticos contribuyeron a esto, aplicando herramientas
de diversas ramas de las matemáticas descubiertas (¡o inventadas!) en su tiempo: el
resultado de las ideas de, entre otros, Boole, De Morgan, Peirce y Frege de utilizar
herramientas del álgebra (el estudio de las operaciones para combinar elementos de un
conjunto), el análisis (la teoría de las funciones), la combinatoria y, posteriormente, la
teoría de conjuntos, para entender el concepto de la inferencia válida.30
Los proyectos filosóficos y matemáticos de estas diferentes personalidades eran muy
variados, pero durante este período revolucionario, un tema en común daba el hilo con-
ductor: los fundamentos de las matemáticas. Se pensaba que la lógica podía fundamentar
a la matemática, en el sentido de que las suposiciones básicas de ésta eran demostrables
a partir de principios puramente lógicos. En las últimas décadas del siglo XIX, grandes
matemáticos como Peano o Dedekind ya habían logrado avances definiendo distintos
sistemas numéricos y haciendo completamente explícitos los principios fundamentado-
res de la aritmética y la teoría de los números, mientras que Hilbert había establecido
los fundamentos de la geometría y Cantor había demostrado, mediante su teoría de los
conjuntos, que existen distintos tamaños de infinito.
Desde entonces, la lógica matemática pasó a formar un área de las matemáticas puras,
y fue desarrollada por personalidades como Russell, Zermelo, Gödel, Church, Skolem,
o Tarski. La historia de ese proyecto y de la «crisis de los fundamentos» es larga e
interesante, pero no puedo darla aquí.31
Hoy en día, la lógica matemática tiene aplicaciones muy variadas, pero sobre todo
(hablando fuera de la filosofía y las matemáticas mismas) en temas relacionados con la
computación: desde el inicio, con Turing, hasta llegar a la ingeniería contemporánea,
donde ciertas lógicas no clásicas se aplican en sistemas de diagnóstico del Alzheimer.32
60
3.2. La lógica como modelo
Sin embargo, la lógica que estudiamos en los cursos de lógica para la argumentación no
es solamente matemáticas puras. Incluye algo de matemáticas puras, por supuesto. Pero
es, sobre todo, matemáticas aplicadas.
La característica esencial de las matemáticas aplicadas es que son matemáticas que
se usan para diseñar un modelo de la realidad física, material. Un modelo es una
representación científica de un fenómeno, que abstrae o idealiza o de otra forma ignora
algunos de sus aspectos para enfocarse en otros. Un modelo es una representación de los
fenómenos o sistemas modelados, y es un objeto que se puede manipular para que nos
provea información acerca de ellos (cf. la figura 3.1).
Modelo
representación información
Las maquetas del sistema solar hechas con bolas de unicel, que representan a los
ejemplo 8
planetas en sus órbitas alrededor del Sol, son un ejemplo muy bien conocido de un
modelo. Este representa al sistema solar y sus partes, aunque ignorando algunos
detalles irrelevantes para nuestro propósito –como la composición química de los
planetas– o escalando varias propiedades –como sus distancias y tamaños.
61
Tenemos el problema de querer saber cuántas naranjas en total tienen Martita y
Luisito. Sabemos que Luisito tiene 5 naranjas y que Martita tiene 10. Entonces, la
ecuación:
5 + 10 = x (3.1)
es un modelo de nuestro problema. La solución, por supuesto, es obvia: x = 15, que
es el número de naranjas que tienen conjuntamente.
ejemplo 9
Pero lo elemental de este modelo no debe hacernos perder de vista que es eso: un
modelo. Al haber representado el número de naranjas que tiene Luisito como una
cantidad matemática –el número 5, que en y por sí mismo no tiene nada que ver
con naranjas, o con ninguna fruta ni objeto material alguno– y haber hecho lo mismo
con el número de naranjas de Martita, damos un paso enorme: tenemos a nuestra
disposición todas las técnicas de las matemáticas puras. Cuando sumamos 5 más
10, no estamos haciendo ninguna operación particular con las naranjas: estamos
sumando números. Como nuestro conocimiento de la suma nos permite llegar inme-
diatamente al resultado, el haber pasado mediante el modelo (la ecuación 3.1) nos
permite conocer algo sobre la realidad al manipular números en abstracto.
Un buen modelo nos representa no solamente un solo caso, sino un conjunto de ellos:
un modelo es siempre una representación de un tipo de fenómenos, cuando nos interesa obtener
información acerca de un aspecto de ellos. Por ejemplo, el modelo que usamos arriba, la
ecuación 3.1, en realidad es un caso muy particular de un modelo mucho más general,
que podríamos definir así:
T = L + M, (3.2)
donde T representa el número total de las naranjas que tienen ambas personas, L las
naranjas que tiene Luisito en alguna circunstancia, y M el número de naranjas que
tiene Martita en esa misma circunstancia. Visto así, 3.2 es un modelo que nos permite
la obtener información adecuada en todo caso posible en que queramos saber cuántas
naranjas tienen en total Martita y Luisito: si Martita gana una naranja o Luisito pierde
tres, el modelo 3.2 sigue siendo adecuado.
Por supuesto, el ejemplo de las naranjas es extremadamente elemental; pero sirve
bien para resaltar algunas características de los modelos que es importante notar en el
modelo que la lógica hace de la argumentación.
Como sucede con todo modelo, al utilizar a la lógica para representar al fenómeno
de la argumentación, ignoramos algunas características de éste para enfocarnos en
otras. ¿Es esto necesariamente malo? No. Un modelo que fuera igual de complejo que el
fenómeno que intenta representar ya no sería un modelo — ¡sería el mismo fenómeno!33
Así, como con los planetas de unicel, el modelo de la lógica formal no va a recupe-
rar todo en el fenómeno de la argumentación. ¿Recuperará lo suficiente? Bueno, qué
62
cuenta como «suficiente» depende de nuestros fines. El modelo de los planetas de unicel
representa «lo suficiente» si nuestro interés es conocer cómo están anidadas las órbitas
de los planetas de nuestro sistema solar. Pero, ciertamente, no representa «lo suficiente»
si lo que queremos es representar las proporciones de tamaños entre los planetas y el
Sol, por ejemplo.
Entonces, ¿qué es lo «suficiente» que representa el modelo de la lógica formal?
La respuesta usual es: la validez de una cierta clase de argumentos. Pero deja de
lado, como hemos visto anteriormente, otros aspectos: a saber, todo aquéllo que cae
fuera del uso informativo del lenguaje, en su aspecto argumentativo; específicamente,
todo aquéllo del lenguaje que no sea proposicional. (En particular, LC0 deja fuera todo
aquéllo que no sea veritativo-funcional.)
¿Es esto malo? Bueno, no hay tal cosa como «lo malo» en un sentido absoluto, sino
sólo en un sentido relativo a nuestros fines: si nuestro fin es hacer un análisis preciso y
exacto del discurso en su aspecto argumentativo-deductivo, la lógica formal es una ex-
celente herramienta para modelar ese aspecto. Si nuestro fin es distinto, probablemente
sea mejor buscar en otro lugar. Pero en un curso de lógica para filosofía buscamos
enfocarnos precisamente en el aspecto argumentativo-deductivo del lenguaje —para
analizarlo, para entenderlo, y para aplicarlo— y es por ello que es tremendamente útil
entender y manejar bien el sistema de la lógica formal.
63
lógicas, esenciales para que el modelo de la lógica sea útil para entender a la argumen-
tación:
• Poder identificar en dónde hay un argumento y en dónde nos estamos enfrentando
con un discurso no argumentativo (secciones 1.3, 1.4).
• Poder complementar a un argumento, distinguiendo las premisas implícitas que
supone (secciones 2.3.1 y 2.5).
• Poder separar o diferenciar lo que pertenece a un argumento y lo que forma parte
del contexto discursivo pero que no es parte del argumento (secc. 2.5).
• Poder interpretar un fragmento de discurso bajo el principio de caridad (secciones
1.2.2 y 2.5).
Estas las vamos a volver a usar en los siguientes capítulos. Otras habilidades forman
parte de los contenidos de los siguientes capítulos, o las volveremos a revisar en distintos
contextos:
• Poder parafrasear el argumento en un discurso, hablado o escrito, de manera que
su estructura lógica sea clara.
• Poder transformar un problema concreto a uno en el que las técnicas lógicas sean
aplicables directamente.
• Poder dominar las diferentes técnicas de modelado que estudiaremos en este li-
bro: la formalización de argumentos en el lenguaje natural, la operación con las
reglas matemáticas de los sistemas lógicos, y la interpretación de argumentos en
el lenguaje formal.
• Poder aplicar razonamientos correctos para ámbitos como la toma de decisiones
y la exposición de ideas.
Como he dicho, este libro básicamente está hecho para ayudarte a adquirir y entrenar
estas capacidades.34
Además de las mencionadas, también debemos ejercitar las capacidades universales,
y los principios básicos, del diálogo racional que he mencionado antes: la habilidad
prudencial sobre cuándo es apropiado aplicar el análisis lógico (secc. 1.2.1), el principio
de caridad (secc. 1.2.2), y las máximas comunicativas de Grice (secc. 1.2.3).
Hemos dicho que usaremos a la lógica matemática como un modelo de las inferencias
deductivas del lenguaje natural (así como Newton utilizaba al cálculo y la geometría
como un modelo de las fuerzas mecánicas). A este modelo –la lógica matemática inter-
pretada como lógica del lenguaje natural– le llamaré «lógica formal».
64
La lógica formal siempre utiliza un particular sistema lógico estudiado en la lógica
matemática. Ahora definiremos esta noción.
Definición 14: Sistema Lógico
Existen muchísimos sistemas lógicos; pero el que es usual revisar en un primer curso
introductorio de lógica matemática (o «simbólica» o «formal») se conoce como «lógica
clásica de orden cero» (o «proposicional» o «de oraciones»; también se conoce como
«cálculo proposicional» o «de oraciones»). Le llamaremos, de manera abreviada, «LC0»,
usando letras sin serifas para distinguirlo.
Como dije, existen muchísimos sistemas lógicos además de LC0. Una clasificación
usual (influida por, pero no idéntica a, la clasificación de Susan Haack37 ) es la siguiente:
– Extensiones
Sistemas lógicos distintos a LC0 – Subsistemas
– Rivales
Para explicar estas diferencias voy a recurrir a conceptos —como verdad lógica o len-
guaje de un sistema lógico— que todavía no hemos definido; por lo que probablemente
sea más útil regresar a esta sección después de haberlos entendido. Entonces, tendría-
65
mos:
Un sistema lógico L1 es una extensión de otro, L2 o, de manera equivalente, L2 es
un subsistema de L1 , cuando la extensión (i) incluye las mismas fórmulas que
el subsistema, (ii) el mismo conjunto de verdades lógicas del subsistema, pero
también (iii) lenguaje adicional (que no está en el subsistema) y (iv) verdades
lógicas adicionales (por ejemplo, la lógica de primer orden que veremos es una
extensión de la lógica de orden cero.) Dos sistemas lógicos distintos pueden ser
extensiones del mismo sistema (por ejemplo, la lógica clásica de primer orden y
la lógica clásica modal de orden cero son ambas extensiones de LC0).
Un sistema lógico es rival de otro cuando no es ni una extensión de ni un subsistema
del otro. (Por ejemplo, las lógicas conexivas son sistemas rivales de LC0, en este
sentido.)
Esta clasificación es bastante cruda. Por ejemplo, la lógica intuicionista (que no revi-
saremos aquí) es un subsistema de LC0, pero fue diseñada bajo un proyecto filosófico y
matemático radicalmente opuesto a las motivaciones de la lógica clásica.
Las motivaciones para crear sistemas distintos de lógica pueden ser muy distintas.
Cuando se trata de extensiones de la lógica clásica, regularmente la motivación suele
ser la idea de que la lógica clásica no es suficientemente expresiva: que no puede expresar
conceptos y distinciones que expresamos en el lenguaje natural, y de los que nos gus-
taría estudiar su comportamiento inferencial. Algunos subsistemas se diseñan bajo la
idea de que la lógica clásica «demuestra demasiado», en el sentido en que debería (por
diferentes razones) tener menos verdades lógicas (como he mencionado sobre la lógica
intuicionista, también se ha argumentado esto para las lógicas sub-estructurales). Final-
mente, los sistemas rivales suelen ser diseñados ya sea para razonar sobre fenómenos
que, se argumenta, no pueden entenderse de forma clásica (como la lógica cuántica),
o simplemente se entienden de manera más sencilla con otro tipo de formalismo.
Esta clasificación, como he dicho, es bastante cruda. Además, solamente he hablado
de sistemas lógicos para la deducción, pero también han proliferado sistemas para
inferencias falibles, abductivas, o inductivas. Será mejor dirigirte a algunos libros de
lógicas no clásicas y de filosofía de la lógica para más detalles.38
66
Resumen del capítulo
⋆ La lógica tiene tres aspectos:
• Filosófico: es el resultado de diversos proyectos filosóficos, entre los que
se incluye la sistematización del razonamiento deductivo y la funda-
mentación de las matemáticas.
• Matemático: es una teoría matemática abstracta que se aplica para mo-
delar un fenómeno concreto: la argumentación.
• Técnico: es una habilidad, una técnica o arte, que puede aplicarse en
diferentes contextos, y que requiere de ciertos principios prudenciales
para que sepamos cómo y cuándo aplicarla.
⋆ Un sistema lógico tiene varios componentes:
• Lenguaje,
• Teoría de modelos,
• Teoría de la demostración.
⋆ Además de los sistemas lógicos que revisaremos en este libro, existen siste-
mas de lógica no clásica. Estos se suelen dividir en:
• Extensiones,
• Subsistemas,
• Rivales.
Notas
1. También es fundamental en la filosofía del lenguaje y de la mente. Sin embargo, precisamente debido a
ello, existen muchas controversias a su alrededor, que aquí vamos a tener que pasar de largo.
2. Como he mencionado en una nota anterior, se ha propuesto que las oraciones exclamativas expresan
proposiciones; otros autores defienden que solamente las presuponen. Ver la nota de la página 13.
3. Machery (2009: p. 12) argumenta que la siguiente es una descripción de «lo que la mayoría de los
psicólogos consideran que son los conceptos»:
Algunos libros de texto de lógica todavía identifican a un concepto con la representación de las carac-
67
terísticas esenciales de aquello que representa el concepto. Esto es todavía más desafortunado. Aunque
hoy en día algunos filósofos aceptan la existencia de esencias (e.g., Fine 1994), y otros han argumentado
que el conocimiento de esencias se requiere para todo conocimeinto (Lowe 2012), (i) es debatible que
existan las propiedades esenciales; (ii) aún si estas existen, es debatible que las conozcamos, (iii) aún
si conocemos algunas, es muy debatible que las debamos conocer para tener conceptos de cualesquiera
objetos: la psicología contemporánea parece ir en contra de esta idea. Sobre este último punto, ver Carey
2009; Leslie 2013.
6. Basta notar que se le pueden agregar condiciones triviales (es decir, que son satisfechas por todo objeto)
a la comprehensión de un concepto, de manera que su extensión permanezca la misma. Por ejemplo:
la extensión del concepto «aquella cosa que o bien es un mamífero implume o bien no es un mamífero y un
no-mamífero bajo el mismo aspecto y circunstancia» es exactamente la misma que la del concepto: «aquella
cosa que es un mamífero implume».
7. Ver Fodor 1998, donde se argumenta que un enorme número de conceptos son atómicos.
8. Fuente: «Molly Amazonas: el pez asexuado que vive en México y Estados Unidos y pone en entredicho
a un Nobel de Medicina», BBC Mundo: https://www.bbc.com/mundo/noticias-43056728
10. Traducido de: «How can keeping limber and fit help with knee pain?», WebMD: https://www.webmd.
com/pain-management/knee-pain/qa/how-can-keeping-limber-and-fit-help-with-knee-pain
11. Fuente: José Ramón López Rubí, «Un argumento lógico sobre el aborto», Derecho en Acción: http://
derechoenaccion.cide.edu/un-argumento-logico-sobre-el-aborto/
12. Adaptado de Armando Alcántara, «La autonomía en las universidades públicas: Vicisitudes de un con-
cepto y una práctica institucional». En H. Muñoz (coord.): La Universidad pública en México (pp. 113-145).
UNAM; Porrúa.
13. Traducido y adaptado de Robert Spekkens, «The Paradigm of Kinematics and Dynamics Must Yield
to Causal Structure», en Aguirre, Foster & Merali (eds.): Questioning the Foundations of Physics. Springer,
2015.
14. En esto hay que tener cuidado, pues ese mismo término se utiliza como un nombre para una paradoja:
un razonamiento aparentemente correcto, que parte de premisas aparentemente obvias, pero que lleva a
una contradicción o, al menos, a una conclusión aparentemente falsa. Esta paradoja forma la motivación
central para el problema filosófico de la vaguedad, pero en este libro no vamos a revisarla. Para una
revisión de las distintas teorías de la vaguedad, ver Paula Tejeiro, «Supervaluar o Revisar», Manuscrito,
2016, 39(3), pp. 149-169.
15. «Por qué se ha disparado el precio del aguacate y hasta cuándo seguirá subiendo», BBC Mundo: https:
//www.bbc.com/mundo/noticias-49209380
68
16. Por ejemplo, según la teoría nomológico-deductiva de Hempel, toda explicación científica es un argumento,
que parte de leyes generales y condiciones particulares y tiene como conclusión el hecho a explicar. La
teoría de Hempel fue muy discutida en el siglo XX y hoy no es muy popular en la filosofía de la ciencia.
Pero no es la única teoría de la explicación que recurre a la noción de argumento. Por ejemplo, la teoría
unificacionista de Kitcher afirma que explicar un fenómeno consiste en demostrar que puede la ocurrencia
de ese fenómeno se puede derivar de la misma teoría que la ocurrencia de muchos otros fenómenos.
Estrictamente hablando, no es a partir de cualquier derivación que se explica un fenómeno, se requiere
que esa derivación (o «patrón de argumento», como le llama Kitcher) sea «exigente» o «rigurosa»: difícil
de satisfacer.
17. «Hay más genes en el microbioma humano que estrellas observables», La Jornada, 14 de agosto de 2019.
19. Adaptado de Dürr, Goldstein y Zanghi: «Quantum chaos, classical randomness and Bohmian mechanics»,
p. 263.
21. Tomado de Benkler, Faris, y Roberts: Network propaganda: Manipulation, disinformation and radicalization
in American politics, pp. 251-352; mi traducción.
23. Adaptado de Norbert Elias, El proceso de la civilización, p. 449. Fondo de Cultura Económica.
24. Para un estudio lógico y filosófico de estas dos nociones de forma y necesidad, ver Gómez Torrente 2000.
25. El origen de este concepto es el libro de Wellman de 1971, Challenge and Response: Justification in Ethics.
Wellman se interesaba por las maneras en que podemos justificar nuestras posturas éticas.
26. Hay que notar que la noción de «convergencia» no es exclusiva —a pesar de algunas afirmaciones
confundidas— de un argumento conductivo. En un argumento deductivo también se pueden brindar
premisas distintas e independientes para la misma conclusión.
27. Sobre la lógica en la India, ver Woods, John & Gabbay, Dov (2004), y la edición especial del Journal of
Philosophical Logic, Vol. 40, No. 5, 2011.
28. Ver Crítica de la Razón Pura, Bviii. Para una historia de la lógica, ver Martha y William Kneale, 1980.
29. Para una voz de disenso, ver Barceló 2003. Como otro contrapunto a esta afirmación, existen las teorías
logicistas de la matemática, de acuerdo a las cuales, de hecho la matemática es la que se reduce a la
lógica. Estas ideas, cuya semilla se encuentra en Dedekind, se comenzaron a desarrollar por Frege (en
sus Fundamentos de la Aritmética, ver la traducción en 1972) a finales del siglo XIX, y llevaron a la magni-
ficente obra de Russell y Whitehead, Principia Mathematica, cuyos tres volúmenes fueron sucesivamente
publicados en 1910, 1912 y 1913. El logicismo ha sido defendido por varios autores recientemente. Ver
Tennant 2017.
30. Ver George Boole, The Laws of Thought o Las Leyes del Pensamiento.
69
31. Ver, por ejemplo, «Las matemáticas y los metafísicos», de Russell (Misticismo y Lógica); Ferreirós (2001);
«El problema de la consistencia», en El teorema de Gödel, de Nagel y Newman; Hilbert, Fundamentos de las
Matemáticas.
32. Para una historia de cómo la lógica desde Boole es la semilla de la revolución tecnológica e informacional,
ver The Logician and the Engineer: How George Boole and Claude Shannon Created the Information Age, de Paul
Nahin (Princeton University Press, 2012); para la aplicación de la lógica no clásica en el diagnóstico
del Alzheimer, ver, por ejemplo: Lopes et al. ‘Improved Application of Paraconsistent Artificial Neural
Networks in Diagnosis of Alzheimer’s Disease’ Neuroscience International, Vol. 2, 2011.
33. En su webcomic «Saturday Morning Breakfast Cereal», Zach Weinersmith hace una excelente broma ba-
sada en este hecho.
34. Las habilidades de las que he hablado coinciden en buena parte con la lista que, según Herrera, Madrid,
Morado y Rivera, son lo que debe saber de lógica una persona educada. Ver «¿Qué debe saber de lógica
una persona educada?», en: http://www.filosoficas.unam.mx/~Tdl/taller.htm
35. Si quieres adelantarte, las definiciones de verdad lógica para cada uno de los sistemas lógicos son las
definiciones 36 y: 168. Para la noción de consecuencia lógica, puedes ver las definiciones 40 y ??. Sobre
la noción de axioma, ve la caja de la página 42 y la sección 8.1.1.
36. Sobre las distintas semánticas formales, ve las sección 6.4 y el capítulo 15. Sobre los distintos aparatos
deductivos, ve la sección 8.1.
38. Un reciente libro de filosofía de la lógica es Cohnitz & Estrada González 2019. Un libro muy bueno para
introducirte a muchas lógicas no clásicas es Priest 2008. Una introducción mucho más amplia al enorme
universo de las lógicas son los múltiples volúmenes —dieciocho, a la fecha— del Handbook of Philosophical
Logic, editados en Springer por Dov Gabbay y Franz Guenthner.
70
IIa parte:
71
capítulo
El lenguaje de LC0
Alfabeto de LC0 74
Sistemas de notación 91
Las fórmulas de LC0 93
Notación polaca 100
¿Cómo saber que algo es una fórmula? 101
Objetivos de aprendizaje
1. Que te familiarices con los diferentes tipos de símbolos de LC0.
2. Que puedas distinguir qué es una constante lógica y qué es una variable
proposicional.
3. Que comprendas qué simboliza cada una de las constantes lógicas de LC0.
4. Que puedas reconocer las fórmulas de LC0.
5. Que conozcas las distintas clasificaciones de las fórmulas de LC0.
6. Que puedas distinguir la conectiva principal de una fórmula.
73
n la definición de sistema lógico (definición 14), vimos que un sistema lógico
E
tes:
tiene, entre sus componentes, a un lenguaje. De hecho, el lenguaje del sistema
lógico que estudiaremos en esta parte —LC0— tiene, a su vez, otros componen-
(
Alfabeto
Lenguaje =
Reglas de formación
Vamos a definir estos ahora.
Así como el lenguaje Español tiene un alfabeto —compuesto de todas las letras, mayús-
culas y minúsculas, así como todos los signos ortográficos y de puntuación— así LC0
tiene el suyo.
El alfabeto de LC0 es el conjunto de símbolos que componen al lenguaje. Con estos
símbolos construiremos las «palabras» de la lógica—a las que les llamaremos «fórmulas».
(Así como, mediante las reglas de la sintaxis y la gramática, construimos palabras, frases
y oraciones del Español usando su alfabeto.) Lo definimos como sigue.
Definición 15: Alfabeto de LC0
El alfabeto de LC0 se divide así:
Variables proposicionales: p,q ,r,s ,t ,u,v ,w . . .
(
Unaria (monádica): ¬
Alfabeto Conectivas lógicas
Binarias (diádicas): ∨, &, ⊃, ≡
Signos de agrupación: (, ), [, ]
A «¬» le llamaremos «la negación»; a «∨» le llamaremos «la disyunción»,
a «&», le llamaremos «la conjunción», a « ⊃ » le llamaremos «el condicional
material», y a «≡» le llamaremos «el bicondicional material» o también «la
equivalencia material».
Las variables proposicionales son eso: variables que representan proposiciones. En reali-
dad, representan a las proposiciones cuando usamos a la lógica como modelo de ar-
gumentos en el lenguaje natural. En el nivel del aparato matemático, estas variables
simplemente pueden tomar uno de dos posibles valores: verdadero (que denotaremos
«V») o falso («F») —así como las variables del álgebra que viste en bachillerato pueden
74
tomar un número como valor. (Esto lo veremos con más detalle en un capítulo posterior,
cuando revisemos la semántica formal de LC0.)
Comenzaremos revisando el concepto de variable.
Definición 16: Variable
Una variable es un símbolo (de algún lenguaje especificado) que denota,
bajo distintas interpretaciones, a distintos objetos de un conjunto especí-
fico. Este conjunto se conoce como el dominio de la variable.
Por ahora, por «interpretación» entiende solo esto: una interpretación es simplemente
una manera (una regla) de asignarle valores a las variables.
Entonces, cada variable proposicional tendrá (bajo una interpretación) uno de los
dos posibles valores: V o F. Esto es a nivel matemático. Pero como estamos usando el
aparato matemático de la lógica para modelar argumentos del lenguaje natural, usare-
mos a las variables proposicionales como modelos de las proposiciones. Esto justifica
la siguiente definición:
Definición 17: Variable proposicional
Podríamos resumirlo así: Una variable proposicional representa a una proposición cual-
quiera, al tener asignado un valor de verdad. Es decir: así como usamos las variables del
álgebra del bachillerato para representar muchas distintas cosas —por ejemplo, en un
ejercicio, «x» puede representar la masa de un cuerpo; en otro ejercicio, puede repre-
sentar la altura de un edificio—, así también usamos las variables proposicionales para
representar proposiciones. En un modelo particular —es decir, al formalizar una propo-
sición particular—, una variable proposicional representará una proposición específica.
Hablaremos más de esto en la sección 5.3.
Ahora vamos a comenzar a entender las conectivas lógicas de LC0, y cómo modelan
aspectos del lenguaje natural.
Como vimos antes, usamos a las variables proposicionales para representar proposi-
ciones: una variable proposicional representa una proposición cualquiera. Esto es en el
nivel de para qué usamos esas variables. Matemáticamente, una variable proposicional
solamente puede tomar uno de dos posibles valores: V o F.
Las variables proposicionales, entonces, representan la materia de los argumentos, su
75
contenido. Pero con las constantes proposicionales representamos su forma, su estructura.
Primero definamos la noción de constante.
Definición 18: Constante
Una constante es un símbolo (de algún lenguaje especificado) que denota
a un único objeto particular de un conjunto específico.
Antes de ver más sobre las constantes particulares de LC0, veamos ejemplos de las
nociones mismas de constante y de variable.
Sin embargo, las nociones de variable y de constante son mucho más generales. Una
constante o una variable pueden tener valores numéricos, como los casos de este
76
ejemplo, tomados del álgebra de bachillerato; pero también pueden tomar valores
de cualquier otro tipo. En el caso que nos interesa, las variables proposicionales
tomarán solamente dos valores: V —el valor de verdad verdadero— y F —el valor
de verdad falso. No usaremos símbolos constantes para proposiciones.
77
cional» si su operación es un condicional material. (Mejor dicho, con un concepto que
revisaremos en la sección 4.3.4: si su conectiva principal es el condicional.)
Por ahora, este concepto de forma lógica puede parecer muy abstracto, o quizá hasta
vago. Es mejor revisarlo «en vivo», verlo en acción; así que es mejor que comencemos
a ver ejemplos de ello.
Mientras tanto, de todo lo dicho aquí, recuerda que las constantes lógicas son:
• Constantes: a diferencia de las variables, no cambian su valor: siempre significan
lo mismo;
• Lógicas: en varios sentidos:
1. Son operaciones entre proposiciones, que se definen de dos formas (semántica y
demostrativamente, que veremos en capítulos posteriores).
2. Ellas proveen la forma lógica de una proposición, como veremos en la sección
4.3.2 y siguientes.
3. Al determinar la estructura lógica de una proposición, y como un argumen-
to está compuesto de proposiciones (premisas y conclusión) conectadas me-
diante una inferencia, las conectivas lógicas también determinan la forma
lógica de los argumentos deductivos.
4. Por lo anterior, y debido a que un argumento es válido en virtud de su forma
lógica (recuerda la definición 10 y la sección 2.6.2), ellas determinan qué
inferencias son lógicamente válidas (profundizaremos en esto en capítulos
posteriores).
• Modelan ciertas partículas del lenguaje natural, que revisaremos en esta sección.
Además de lo que he dicho, la noción de forma lógica y de constante lógica han provo-
cado intensos y profundos debates en los fundamentos filosóficos de la lógica. Desafor-
tunadamente, no podemos revisarlos aquí con la profundidad que merecen. Pero dejo
algo de bibliografía recomendada en la siguiente nota.1
4.1.3. La negación
78
De hecho, la negación es la única conectiva monádica de la lógica que estamos apren-
diendo.
En Español tenemos distintas palabras con las que podemos expresar la negación
lógica de una proposición. Veamos ejemplos.2
sos.
Algunas frases más largas, que podrían tener alguna carga retórica extra, también
son representables por la negación lógica:
• Sería mentir el afirmar que la justicia consiste en una distribución equitativa
de los recursos.
• La justicia será cualquier cosa, menos una distribución equitativa de los re-
cursos.
• Nadie sensato podría creer que la justicia consista en una distribución equi-
tativa de los recursos.
Quien use estas frases seguramente querrá decir algo más que la proposición ex-
presada, quizá algún giro retórico o implicatura que la persona que escuche podrá
detectar (en el contexto y si es suficientemente avezada). Pero la lógica no modela
todo en el lenguaje; sólo su aspecto proposicional. Es por eso que esos aspectos
quedan fuera del modelo.
Negaciones y adversativos
79
Las conjunciones adversativas En general, la negación lógica se suele confundir con
contraponen dos oraciones. Es- contrariedad. Las proposiciones incompatibles (como
ta contraposición puede ser Hoy es martes y Hoy es miércoles) son (al menos) con-
una restricción de la oración trarias. Pero la contrariedad no es suficiente para la
contrapuesta sobre la primera negación lógica de una proposición.
o una incompatibilidad total.
Por poner un ejemplo, Hoy es martes y Hoy es miércoles no son exhaustivas porque hay
otras cinco posibilidades. Pero Hoy es martes y Hoy no es martes sí lo son: no hay una
tercera posibilidad (por ejemplo, si es miércoles, o sábado, será verdad que Hoy no es
martes). Ahora veamos la noción de exclusividad.
Definición 21: Exclusividad
Dada cualquier proposición p , ella y su negación lógica (¬p ) son exclu-
sivas, es decir, son incompatibles. No pueden ser verdad en la misma
circunstancia: al menos una de las dos tiene que ser falsa.
80
alternativa (1) y el requisito de exhaustividad cancela la alternativa (2). Es decir, una
proposición y su negación no podrían jamás ser simultáneamente verdaderas ni simultá-
neamente falsas. Por ello decimos que una es la contradictoria de la otra. En el cuadro
4.1 resumo los criterios para encontrar si dos proposiciones son contradictorias.
Podemos representar a la negación como partiendo el conjunto de todas las posibi-
lidades —el conjunto de todas las situaciones o escenarios posibles— en dos: en una
parte, se da la proposición; en la otra, su negación lógica. Estas partes no se cruzan
(¡son exclusivas!), y no hay una tercera región (¡son exhaustiva!) Considera la propo-
sición expresada por «Mi botella de agua es azul». Pintemos de azul el conjunto de las
situaciones en las que es verdad, y dejemos en blanco aquellas en las que no es verdad:
nos resultaría algo como la figura 4.1.
Pero que «Mi botella de agua es azul» sea falsa es compatible con otras varias posi-
bilidades: que mi botella sea negra, o rosa, o que no tenga botella de agua. Por ello,
«Mi botella de agua es azul» y «Mi botella de agua es rosa» no son contradictorias: son
contrarias (su verdad se excluye), pero no son exhaustivas, porque hay varias otras po-
sibilidades: que sea negra, verde, o que yo no tenga botella, por ejemplo. La negación
lógica de una proposición solamente es su contradictoria.
4.1.4. La conjunción
81
Definición 22: Conectiva diádica
Una conectiva es diádica cuando se aplica a dos proposiciones. A las co-
nectivas diádicas también se les conoce como binarias.
Conjunciones en el Español
En Español tenemos distintas palabras con las que podemos expresar la conjunción
lógica. Por ejemplo, todas las oraciones de la siguiente lista expresan la misma propo-
sición: la conjunción lógica de las proposiciones: El ser humano es indeciso y La libertad
es la esencia del ser humano.3
Conjunciones adversativas
Algunas conjunciones son adversativas: «pero», «sin embargo», «mas», «aunque», «em-
pero», «antes bien», «si bien», «no obstante», etc. Estas no son negaciones, sino con-
junciones. Aunque parezcan contraponer dos oraciones, en el nivel lógico sólo afirman
ambas proposiciones. Es decir, el modelo lógico abstrae las características de los adver-
sativos que van más allá de la conjunción. Por ejemplo:
ejemplo 13
Si nos quedamos en el nivel lógico, todas estas expresan la conjunción de las propo-
siciones mencionadas.
82
Orden temporal Usualmente, al decir cosas como «Pedro se inscribió y ganó la carre-
ra», queremos comunicar que, primero, Pedro se inscribió, y que después, ganó la
carrera. Esto se pierde en la representación lógica. La proposición expresada por
«Pedro se inscribió & ganó la carrera» no implica ningún orden temporal. Es la
misma proposición que: «Pedro ganó la carrera & se inscribió en ella».
Orden causal A veces, usamos las conjunciones para hablar de causas y efectos. Por
ejemplo, cuando digo «Comí en la calle y me dio una infección», podría querer
implicar que mi enfermedad fue a causa de haber comido en la calle. Pero la
conjunción lógica no refleja eso. En el nivel puramente lógico, es igual lo anterior
que: Me dio una infección y comí en la calle.
Relevancia Muchas veces, unir oraciones con conjunciones supone que hay alguna
relación de relevancia entre ellas: que tales oraciones «tienen algo que ver» entre
sí. Pero esto no se requiere con la conjunción lógica. Puedo decir, por ejemplo,
que Hoy comí pasta y también se ofreció una prueba de la hipótesis de Riemann, aunque
una cosa no sea relevante para la otra.
Listas En el Español a veces se usan las conjunciones, como «y», para construir listas de
cosas o tareas, como una lista de supermercado o de un grupo de la escuela. (Por
ejemplo, puedo hacer una lista de pendientes: Pasear al perro y comprar detergente.)
Pero estas no son representables mediante una conjunción lógica, porque esta sólo
conecta proposiciones, no cosas o tareas.
Preguntas retóricas También usamos a la conjunción «y» para introducir preguntas
retóricas, como: «Yo no voy a ir, ¿y?». Pero este tampoco es un uso que pueda
representarse por la conjunción lógica, pues tampoco conecta proposiciones.
Disyunciones en el Español
En Español tenemos distintas palabras con las que podemos expresar la disyunción
lógica. A veces usamos una simple «o» entre las oraciones en disyunción, como en:
Iremos al cine o iremos al concierto.
Pero también a veces usamos el «o bien . . . o bien . . . », como en:
O bien la naturaleza del ser humano es accesible y podemos hacer ciencia de ello, o bien esa
naturaleza es inexpugnable y no es cognoscible por la ciencia.
Otra manera de expresar la disyunción es con «ya sea»:
83
Ya sea que aceptemos el premio o que lo rechacemos, iremos a la premiación.
A veces dejamos las disyunciones implícitas: Podemos ir a bailar, a cenar, al cine, o quedar-
nos en casa. Por supuesto, hay otras formas de expresar disyunciones en el español.
En Español solemos usar la disyunción exclusiva, que es la que usamos cuando exis-
ten dos opciones incompatibles. Por ejemplo: «O estás conmigo o estás contra mi», o
«Entrega todas tus tareas o vas a reprobar»; también: «O comemos pizza o comemos
sushi». De hecho, la disyunción exclusiva se puede definir mediante otras conectivas,
como veremos después.
Pero la disyunción que usaremos en lógica es inclusiva: permite que ambas proposi-
ciones —que ambos disyuntos— sean verdaderos. Cuando usemos la disyunción lógica
no vamos a suponer de entrada que los disyuntos son incompatibles. Si lo son, serán
debido a las oraciones en disyunción en ese caso; pero no debido a la disyunción misma.
Vamos a ver la diferencia entre las disyunciones inclusiva y exclusiva. Recuerda que
las conectivas lógicas son operaciones. Una disyunción, en particular, va a tomar dos
valores y nos devolverá otro valor: el resultado de la operación de esos valores. Las
disyunciones exclusiva e inclusiva difieren respecto a qué valor devuelven cuando se
toman dos proposiciones que son verdaderas, y respecto a qué valor devuelven cuando
se toman dos proposiciones que son falsas. Esto se ve en el cuadro 4.2.
84
Cuando «o» no es una disyunción veritativo-funcional
Raymundo Morado distingue distintos usos del «o» en Español que no significan una
disyunción inclusiva ni una exclusiva, como:
• Alternativas en preguntas, como en «¿Té o café?». No es una disyunción lógica
porque no conecta proposiciones.
• Alternativas en mandatos, como en «¡La bolsa o la vida!». Tampoco es una dis-
yunción lógica porque tampoco conecta proposiciones.
La herradura, «⊃», se utiliza para representar al condicional material entre dos pro-
posiciones. Tenemos nombres específicos para las dos partes del condicional material:
Definición 23: Antecedente y consecuente
A ⊃ B
requerido para
Figura 4.2: Suficiencia: La verdad del antecedente basta (pero no se requiere) para la verdad
del consecuente. Necesidad: La verdad del consecuente se requiere (pero no basta) para la
verdad del consecuente.
85
Y es falso porque no basta aprobar todas las materias del programa para titularse:
tienes que cumplir otras varias condiciones, como hacer un servicio social, etcétera.
Este es otro par de ejemplos, que espero que puedas ver por qué los he clasificado
así:
V: Aprendes a andar en bici ⊃ tienes una bici disponible
F: Tienes una bici disponible ⊃ Aprendes a andar en bici
Hay que distinguir diversos usos de los términos condicionales en el Español. Por ejem-
plo, a veces utilizamos oraciones condicionales para indicar un argumento:
Si los policías son parte del Estado, entonces podemos inferir que sus acciones también son
responsabilidad del Estado.
A veces las utilizamos para indicar relaciones causales, de influencia, o de dependen-
cia:
Si comieras sanamente, mejoraría tu salud.
Además, solemos dar por sentado que las proposiciones relacionadas por un con-
dicional tienen alguna relación de relevancia entre ellas—o, como se suele decir, que
«tienen algo que ver». Por ello, nos sonaría muy extraño que alguien dijera algo como:
Si comes sanamente, el área de un círculo es 𝜋 × r 2 .
Pero resulta que un condicional material no requiere ninguna relación de relevancia
entre su antecedente y su consecuente, por lo que de hecho es verdadero decir que si
comes sanamente ⊃ el área de un círculo es 𝜋 × r 2 , o que la luna es de queso ⊃ 2+2=4.
86
Todos los ejemplos anteriores se pueden formalizar con un condicional material, sólo
que perderemos los significados especificados. Por ejemplo, decir «Tú fumas ⊃ Tú te
dañas» no conserva el sentido de causalidad que estaba presente en el primer ejemplo.
Pero, aún así, es un condicional material verdadero (como se puede confirmar después
de leer el siguiente capítulo).
Como lo veremos en el siguiente capítulo, un condicional material solamente es la
siguiente relación:
Si el antecedente es verdadero, también lo es el consecuente.
Que es la misma relación que:
Si el consecuente es falso, también lo es el antecedente.
Que es la misma relación que:
No sucede que el antecedente sea verdadero y el consecuente sea falso.
Por supuesto, esto es solamente si de hecho se da la relación de condicional material
entre antecedente y consecuente. Es decir: sólo si la fórmula con forma de condicional
material es verdadera. Si la relación no se da —si esa fórmula es falsa— entonces el
antecedente puede darse sin el consecuente (recuerda la figura 4.2).
Todos los siguientes son condicionales materiales verdaderos, aunque falle alguna
característica (o varias) características de los condicionales que solemos usar en el
Español:
ejemplo 15
87
un condicional material, sólo indica esto:
No sucede que el antecedente sea verdadero y el consecuente sea falso.
Por ello, es crucial distinguir entre oraciones como:
Comer y nutrirse son derechos humanos; por lo tanto, el comer es un derecho,
que indican argumentos; de oraciones como:
Si comer y nutrirse son derechos humanos, entonces el comer es un derecho,
que indican condicionales materiales. El primero es verdadero solamente si hay un
argumento válido con el cual «el comer es un derecho» se pueda inferir de «comer y
nutrirse son derechos humanos». Mientras tanto, el segundo es verdadero solamente si
no sucede que: «comer y nutrirse son derechos humanos» sea verdada, pero «el comer
es un derecho» sea falsa. ¡Esta última opción no habla de ningún argumento!
Otra manera de verlo es así: el condicional material se define mediante su tabla de
verdad, que veremos en la sección 6.4. Mientras tanto, que un argumento sea válido
se define en la definición 10, y para comprobar que un argumento lo sea, se usan los
métodos semánticos y demostrativos que veremos en futuros capítulos.
Ejercicio # 11
De las siguientes oraciones, di cuáles son expresiones condicionales, y cuáles ex-
presan un argumento (al tener un indicador de conclusión).
¿Por qué es el condicional una relación tan «débil» o tan «delgada»? Porque, original-
mente, se diseñó para tratar relaciones condicionales en las matemáticas.5 Es verdad
que en el Español tenemos condicionales mucho más sofisticados que el condicional
material —pero recordemos que estamos usando a la lógica matemática como un mode-
lo de un fenómeno concreto. Y los modelos suelen ignorar ciertos aspectos de aquéllo
que modelan, pues es imposible capturarlo todo.
De hecho, se han desarrollado sistemas lógicos que intentan recuperar algunas pro-
piedades de los condicionales del Español que quedan fuera de LC0, pero estos sistemas
caen fuera del alcance de este libro.6
Dicho todo lo anterior, podemos usar el condicional material para formalizar varias
88
frases del español, entendiendo que, en algunos casos, la formalización no va a cap-
turar todos los aspectos lógicos de las locuciones formalizadas. Por ejemplo, todas las
siguientes oraciones se formalizarían como «A ⊃ B»:
Si A, entonces B. Si A, B.
A implica B. B es implicada por A.
Basta que A para que B. Que A es suficiente para que B.
B es necesario [o se necesita] para A. A requiere que B.
B es sine qua non de A. A sólo si B.
Que A conlleva que B. A trae aparejado B.
A trae por consecuencia a B. B, dado que A.
B, cuando A. Cuando A, B.
Suponiendo sin conceder que A, B. No ocurre que A sin que B.
B, toda vez que A. B, pues A.
B, en virtud de A. A causa que B.
B, por causa de A. B, porque A.
Las últimas cinco locuciones —«pues», «en virtud de», «causa que», «por causa de», y
«porque»— son locuciones que indican relaciones de explicación, influencia o dependencia.
Pero estas relaciones son más complejas que la relación indicada por el condicional
material, por lo que usar a este para formalizar locuciones como las anteriores, supone
ignorar características que no pueden formalizarse en la lógica clásica. Se han propuesto
lógicas no clásicas para sistematizar las inferencias válidas con estas locuciones, que no
vamos a revisar aquí.7
Otro par de frases que podemos formalizar con un condicional material son:
B, en toda ocasión en que A. A, siempre que B.
Sin embargo, hay que notar que el uso de «siempre que» en el segundo ejemplo no
significa «en toda ocasión». Como se ve en el primer ejemplo, «en toda ocasión en
que» se utiliza para el antecedente. Entonces, el sentido de «siempre que» del segundo
ejemplo es el de un requisito, una condición necesaria; como cuando decimos «Pasarás
la materia siempre que entregues todas las tareas». En este caso, queremos decir: «Se
requiere entregar todas las tareas para pasar la materia». Por lo tanto, en este sentido,
«A, siempre que B» se formalizaría «A ⊃ B».
Las tres líneas, ≡, se utiliza para representar a la equivalencia material entre dos
proposiciones, también llamado bicondicional material.
89
Esta conectiva es una equivalencia: un tipo de igualdad. Cuando se pone entre dos
proposiciones, nos dice que las dos proposiciones son equivalentes: son iguales en cierto
sentido. ¿En qué sentido? En su valor de verdad. Dos proposiciones materialmente
equivalentes van a ser iguales respecto a su «materia»; es decir, una fórmula con la
forma: A ≡ B nos dice que las fórmulas a cada lado—A y B—tienen el mismo valor de
verdad: o son ambas verdaderas, o son ambas falsas.
Bicondicionales en el español
Como vimos arriba, le decimos «material» porque el bicondicional nos dice que las pro-
posiciones equivalentes son idénticas en su «materia»: en su valor de verdad. Pero esto
no significa que las proposiciones equivalentes sean iguales en sentidos más estrictos.
Un sentido más estricto de equivalencia es la equivalencia lógica, que revisaremos en
secciones posteriores (6.8 y 8.4).
Otro sentido de equivalencia es la equivalencia de significado: la que se da cuando dos
oraciones distintas significan exactamente lo mismo. El criterio para decir cuándo dos
oraciones expresan el mismo mensaje todavía es muy controvertido en la semántica.
Sin embargo, es claro que dos oraciones pueden expresar proposiciones materialmente
equivalentes sin que expresen la misma proposición. Una de las razones de ello es que
el bicondicional material no requiere relevancia entre las proposiciones equivalentes. Por
90
ejemplo, la proposición expresada por:
2+2=4
Ya tenemos frente a nosotros los símbolos con que escribiremos el lenguaje de LC0, y
la manera usual en que estos modelan conectivas del Español. Falta ver cómo escribir en
ese lenguaje de manera que «tenga sentido». A eso pasaremos, después de hablar sobre
la notación. En el siguiente capítulo trataremos más con la relación entre este lenguaje
y el lenguaje natural del que es un modelo.
p1 p5 q3 s9 ...
91
Tipo Conectiva Nombre Expresiones del Español Características
•Exhaustiva •Excluyen-
Monádica ¬ Negación «No» •«Es falso que»
te
•A-temporal •Sin rele-
& Conjunción «Y» •«También»
vancia •Sin orden
Diádicas
∨ Disyunción «O» •«Ya sea. . . ya sea. . . » •Inclusiva
Bicondicional «Siempre y cuando» •«Si y •Material: no es necesa-
≡
material solamente si» rio
•Material: no es necesa-
rio •El antecedente bas-
Condicional «Si. . . entonces. . . » ta para el consecuente
⊃
material •«. . . implica que. . . » •El consecuente se re-
quiere para el antece-
dente
o, cuando se hace con extremo rigor, algunos8 usan la misma letra pero con distintos
números de primas:
p ′ p ′′′′ p ′′ . . .
y otros prefieren usar mayúsculas, a veces sin preferencia por alguna letra o letras par-
ticulares:
A W C L ...
En general, es una cuestión arbitraria qué símbolos usar como variables proposicionales.
Podemos elegir cualquiera, siempre que la convención sea conocida por las personas
involucradas o al menos, sea fácil de adivinar.
Algo parecido sucede para las meta-variables: las variables que toman fórmulas como
valores (ver la definición 24, abajo). Algunos autores (como yo) usamos las mayúsculas
sin serifas:
A B C ...
mientras que otros, si es que ya han usado mayúsculas para las variables proposiciona-
les, usan letras minúsculas.9 Algunos utilizan letra manuscrita,10 como:
A B C ...
De nuevo, estas decisiones son muy arbitrarias, y lo único que importa es que conoz-
camos la convención y la sigamos de manera sistemática.
92
Para las conectivas también existen notaciones alternativas. Para la disyunción la
más usual es la «v» estilizada, ∨, pero seguro hay otras. Para la conjunción se utilizan
cualquiera de los siguientes símbolos (aquí usaremos el primero):
∧
& ∧ •
pq
⊃ > → ⇒
≡ <> ↔ ⇔
¬ ∼ –
En el Español tenemos palabras, frases y oraciones. Eso quiere decir que no toda combi-
nación de símbolos del alfabeto es parte del español. Por ejemplo, la cadena de símbolos:
pAm;AbbRRampóK
no es parte del Español, aunque use su alfabeto. O la siguiente cadena de palabras:
brilla Rojo la ambiente Secante
tampoco es parte del Español, aunque use palabras hechas de su alfabeto.
Las reglas de la gramática y la sintaxis del Español nos permiten formar palabras,
frases y oraciones a partir de su alfabeto; mientras que eliminamos como «agramáticas»
aquellas cadenas de estos símbolos que no cumplan con ellas.
93
Esa misma es la función de las reglas de formación (o, como a veces también se les
llama, «la gramática») de LC0. Sólo que ahora no hablaremos de «palabras», «frases»
ni «oraciones», sino de fórmulas.13
Otra manera de verlo es que contaremos como fórmula del lenguaje de LC0 a una
cadena de símbolos que puede tener un valor de verdad (ya sea verdadero o falso).
Son las «frases» que, en lógica, «significan algo». Las cadenas de símbolos que no sean
fórmulas no pueden tener ningún valor de verdad: no pueden ser ni verdaderas ni falsas.
(Tal como decir «brilla Rojo la ambiente Secante» no es ni verdad ni falsedad —¡pues
no significa nada!)
Antes de definir las reglas, introduzcamos el concepto de meta-variable:
Definición 24: Metavariable
Una meta-variable en nuestro sistema es una variable que toma valores
en el conjunto de fórmulas del lenguaje. Por lo tanto, representa fórmulas
atómicas (que son variables proposicionales, de ahí «meta-variable») y a
fórmulas moleculares de cualquier tipo.
Usaremos letras mayúsculas sin serifas,14 como «A» o «B» como meta-variables. Ahora
ya podemos definir las reglas de formación de nuestro sistema lógico:
Definición 25: Reglas de formación de LC0
Esas son las 4 reglas que definen el lenguaje de LC0 (aunque la tercera tenga cuatro
casos). Simplemente nos dicen qué cadenas de símbolos cuentan como fórmulas de
nuestro lenguaje. Además, gracias a la regla de clausura—la regla R4 de arriba—que
nos dice que nada más pertenece a nuestro lenguaje, sabemos que cualquier cosa que
no cumpla con nuestras reglas, no estará en nuestro lenguaje.
Estas reglas no tienen una conexión directa con los valores de verdad, es decir, no nos
dicen qué fórmulas son verdaderas o falsas. Solo nos dicen qué cuenta como fórmula
en nuestro lenguaje. Por lo tanto, son más bien un requisito: para que algo pueda tener
valor de verdad en LC0, debe ser una fórmula—es decir, cumplir con las reglas de
formación.
94
4.3.1. Explicación de las reglas
95
4.3.2. Atómicas y moleculares
4.3.3. Subfórmulas
Poniendo la idea de manera laxa, podemos decir que las subfórmulas de una fórmula A
son las fórmulas que aparecen en A.
Por ejemplo, en la fórmula:
(p ∨ r ) ⊃ (¬q ≡ s )
podemos encontrar a
¬q ≡ s
entre sus subfórmulas, pero también a:
p ∨r
96
Definición 27: Fórmula atómica
Una fórmula atómica de LC0 es una fórmula que no contiene subfórmulas
(además de sí misma). Por lo tanto, no contiene conectivas proposiciona-
les. Es decir, las fórmulas atómicas son las variables proposicionales.
Ejercicio # 13
Obtén todas las subfórmulas de las siguiente fórmulas (recuerda que la fórmula entera
también es subfórmula de sí misma).
1 s ∨ (t ⊃ r ) 6 s ∨ [t ≡ (p & q )]
2 [s ≡ (¬q ∨ r )] ⊃ [(q ≡ t ) & ¬p] 7 (p ∨ r ) ⊃ (q & s )
3 [(q ≡ r ) ∨ ¬s ] ≡ [(p ∨ r ) ⊃ ¬q ] 8 (s ⊃ r ) & (p ⊃ r )
4 ¬s ⊃ p 9 (p & t ) ⊃ s
5 p ⊃r 10 (p ⊃ r ) ⊃ ¬s
Debemos notar algo importante: todas las conectivas binarias siempre van a quedar en-
medio de las fórmulas que conectan, mientras que la conectiva monádica —la negación—
queda siempre hasta delante. La negación siempre afectará a la fórmula inmediata a su
derecha, mientras que las conectivas binarias unen las fórmulas inmediatas a sus lados
izquierdo y derecho.
(Gracias a este hecho, sabemos «de entrada» que las siguientes cadenas de símbolos
nunca van a contar como fórmulas:
La primera porque usa la negación, que es monádica —es decir, que sólo se «pega»
a una fórmula— como si fuera diádica; la segunda porque usa una conectiva diádica
como si fuera monádica; la tercera porque también usa mal la negación, y la cuarta
porque la equivalencia material siempre debe conectar al menos dos fórmulas, y ahí
sólo está conectando a una —a saber, a «(q & ¬r )».)
En general, toda fórmula molecular tiene su conectiva principal, que es la que deter-
mina si la fórmula es una negación de otra fórmula, una conjunción de otras dos, una
equivalencia entre dos fórmulas, etc.
97
La conectiva principal es la que está «hasta afuera» de todos los paréntesis. Por ejem-
plo, en la fórmula:
(p ≡ ¬q ) ∨ ¬(r ⊃ s )
la conectiva principal es la disyunción, porque está hasta afuera, aunque en medio, de
los paréntesis. En cambio, en:
¬ (p ≡ ¬q ) ∨ ¬(r ⊃ s )
(p ∨ s ) ⊃ ¬(q ∨ r )
tiene al condicional material como conectiva principal, por lo que una manera correcta
de leerlo es:
Si p o s , entonces es falso que: q o r .
Nota que leímos tomando primero a la conectiva que está hasta afuera de todos los
paréntesis—en este caso, «⊃»—y después, yendo por sus subfórmulas de izquierda a
derecha, empezando con cada una de ellas por su conectiva principal. Por eso, después
de empezar con la conectiva principal, vamos con su subfórmula:
(p ∨ s ),
que leemos «Si p o s », donde el «si» es la primera parte del condicional que está enmedio
de esta y la siguiente subfórmula:
¬(q ∨ r ),
que leemos «entonces es falso que: q o r », pues el «entonces» es la segunda parte del
condicional. Seguimos con la conectiva principal de esa subfórmula: «es falso que»,
para terminar con la conectiva principal de la siguiente subfórmula, (q ∨ r ), y que
leemos: «q o r ».
98
Dos convenciones
Ya sabemos que la conectiva principal siempre va a quedar «hasta afuera» de los parén-
tesis, ya sea enmedio (si es una conectiva binaria) o hasta la izquierda, si es la negación.
Ahora vamos a notar dos hechos y hacer dos correspondientes convenciones.
El primer hecho es que, en las reglas de formación de la definición 25, a partir de,
por ejemplo, una variable proposicional como q , podemos construir su negación, que
quedaría: ¬(q ). Los paréntesis en esta fórmula son innecesarios, pues sabemos que la
negación está negando a q , así que podríamos escribir la misma fórmula simplemente
como «¬q ». Pero a veces se vuelven necesarios, como en este ejemplo:
¬(q ∨ r ), (4.1)
(¬q ) ∨ r (4.2)
Estas fórmulas son muy distintas: 4.1 es una fórmula negada (a su vez, esa fórmula es
una disyunción), mientras que 4.2 es una disyunción de dos fórmulas (una de las cuales
está negada). Es decir, necesitamos los paréntesis para desambiguar entre fórmulas:
para decir cuál de las opciones posibles es la que queremos decir.
A partir de lo dicho vamos a establecer la primera convención. Es decir, el primer acuer-
do acerca de cómo escribir y leer fórmulas, que no es parte de las reglas de formación,
sino cuestión de pura utilidad.
Convención 1 (Paréntesis innecesarios). Si los paréntesis de una fórmula con conectivas
lógicas no son necesarios para reconocer su conectiva principal, podemos eliminarlos.
El segundo hecho es que a veces utilizar muchos paréntesis se vuelve confuso. En
casos como:
¬(¬¬q ∨ (¬r ≡ ¬s )) ⊃ ((¬p) & (r ∨ s )) (4.3)
puede resultar confuso saber si estamos frente a una negación o a un condicional. Por
lo tanto, usaremos los corchetes como sustitutos de los paréntesis siempre que sea útil;
pero los pondremos siempre hasta afuera de toda la fórmula. De esta manera, la fórmula
4.3 quedaría así:
¬[¬¬q ∨ (¬r ≡ ¬s )] ⊃ [(¬p) & (r ∨ s )] (4.4)
que es un poco más fácil de leer.
Dado ello, la segunda convención notacional es la siguiente:
99
Convención 2 (Corchetes). Si los paréntesis de una fórmula hacen difícil leerla, sustituire-
mos paréntesis con corchetes.
Ejercicio # 14
Considera el diálogo Fedón de Platón. De este, extrae 10 oraciones declarativas, y for-
malízalas con las conectivas y variables proposicionales.
100
A su vez, la fórmula:
p & ¬q
que pronunciaríamos: «p y no-q », se escribiría así:
K pN q
q ≡ (p ∨ r ),
[p ⊃ (q ∨ r )] ⊃ ¬p
C C pAqr N p,
lo cual también coincide con la manera de leer la fórmula: «el condicional entre el
condicional entre p y: o q o r , y no-p».
¬(p & q ) ⊃ q
101
5. Por R2.3 en 1 y 3, ¬(p & q ) ⊃ q es fórmula.
¡Lo logré! Entonces sí es fórmula. (Se lee: «si no es el caso que p y q , entonces q »).
∨p (q & ¬r )
Veamos:
ejemplo 17
En casos como el ejemplo 17, en que no tenemos una fórmula, intentar construirla
con las reglas no es suficiente, pues si no es una fórmula, nunca vamos a lograrlo.
Podemos usar el árbol genealógico de una fórmula.16 Por ejemplo, dada la fórmula:
¬(q ⊃ r ) ≡ (s ∨ ¬q )
¬(q ⊃ r ) ≡ (s ∨ ¬q )
¬(q ⊃ r ) (s ∨ ¬q )
q ⊃r s ¬q
q r q
102
Ahora consideremos la cadena de símbolos de arriba, ∨p (q & ¬r ) , de la que nos
preguntábamos si era una fórmula. Intentaríamos construir su árbol genealógico así:
ejemplo 18
∨p (q & ¬r )
p
Como vemos, apenas intentamos poner las dos fórmulas que deberían estar para la
disyunción, sólo logramos poner una; lo cual significa que no tenemos una fórmula
ahí.
En los siguientes ejercicios vamos a practicar varios de los conceptos de las últimas
secciones.
Ejercicio # 15
A . Di cuál es la conectiva principal de las siguientes cadenas de símbolos. Si alguna
no es fórmula, justifica por qué.
1. [(¬t ⊃ ¬r ) ≡ (¬q ⊃ s )] & [¬t ⊃ ¬(p ∨ q )]
2. ¬(t ⊃ p) & [(q ∨ r ) ≡ ((t ⊃ r ) ∨ (s & q ))]
3. ¬s ∨ p & q
4. (q ∨ ¬s ≡ [¬q ∨ (r ⊃ p)
5. [(q ≡ r ) ∨ ¬s ] ≡ [(p ∨ r ) ⊃ ¬q ]
B . Escribe las siguientes fórmulas, que están en la notación polaca, en la notación que
hemos estado usando.
1. ApN r
2. N K q N s
3. EC ts K pN q
103
4. K K q N r Epq
5. C K N q N r N EN q N r
C . Toma la siguiente cadena de símbolos:
¬p ⊃ q ≡ ¬s & t
104
Proyecto del capítulo:
Antecedentes d *
Problema d *
Notas
1. Un texto muy introductorio y muy breve es Estrada González 2005. Otro recomendable es Gómez Torren-
te 2000, aunque este es más avanzado. Algunas referencias clásicas para estos temas son la Conceptografía
de Frege (en Frege 2016), la conferencia «La lógica como la esencia de la filosofía» de Russell (en Russell
1914/1964), y el Tractatus Logico-Philosophicus de Wittgenstein (Wittgenstein 1921/2012). Para introduccio-
nes recientes Cohnitz & Estrada González 2019 es recomendable, aunque está en inglés. Dos artículos
enciclopédicos importantes son MacFarlane 2017 y Pietroski 2016.
2. Para ver más ejemplos, ver Raymundo Morado, «Conectivas Lógicas», manuscrito. Disponible en su sitio
web.
3. Para ver más ejemplos, ver Raymundo Morado, «Conectivas Lógicas», manuscrito. Disponible en su sitio
web.
5. Incluso como modelo del razonamiento en matemáticas, el condicional material ingnora algo que ciertos
lógicos pensaban que también estaba presente: la aparente necesidad de la conexión entre los enunciados
de las matemáticas y sus consecuencias.
105
6. Ver Palau et al.(2004).
7. Por ejemplo: Lewis, Counterfactuals; Schnieder, «A Logic for ‘Because’ »; Fine, «Guide to Ground».
12. En realidad, existen problemas muy interesantes en la interacción entre las propiedades lógicas de un
sistema y las características de la notación con la que lo describimos; problemas que, desafortunadamente,
no podemos tratar aquí. Para un buen inicio, ver «Símbolos y Notación Lógica», de Axel Barceló, en su
blog Conceptual.
13. Algunos autores usan «fórmulas bien formadas», que abrevian con «fbf» (o con «wff», por la expresión
en inglés: well formed formula), pero aquí no seguiremos esa convención.
14. Las serifas son las «patitas» en las letras. Una fuente con serifas, como la que estoy usando en este libro,
tiene «patitas», que puedes ver en la letra: «p», mientras que sin serifas, se ve así: «p».
15. El mismo que usa Alonzo Church, Introduction to Mathematical Logic, Princeton University Press, 1956, p.
38.
16. Comparar con Badesa, Jané y Jansana, Elementos de Lógica Formal, Ariel, pp. 129-130.
106
capítulo
La interpretación de LC0
Objetivos de aprendizaje
1. Que comprendas el concepto de interpretación del lenguaje formal.
2. Que comprendas el concepto de formalización del lenguaje natural.
107
a lógica LC0 es un sistema lógico (definición 14), pero, como vimos en la sec-
Tomaremos un ejemplo del modelado matemático que nos dan desde la educación
media, un típico problema de la materia de Física:
Dos pueblos que están a una distancia de 20 km uno del otro están unidos
por una carretera recta. Joselito, un ciclista, va de un pueblo al otro; su
velocidad es constante, de 10 m/s. ¿Cuánto tiempo tardará en llegar de un
pueblo al otro?
Este sería el problema. De este, tenemos que extraer los datos, que son las magnitudes
relevantes para poder resolverlo:
Distancia: 20 km (rectilíneos)
Velocidad: 10 m/s (constante o uniforme)
Y esta sería la «fórmula» o ley que usaremos para calcular, con los datos, una solución
al problema:
x = x 0 + vt (5.1)
Esta ecuación nos dice que la posición del objeto en un determinado momento, x, es
igual a la posición inicial (en algún momento anterior), x 0 , más: la multiplicación de la
velocidad con que se ha movido, v , por el tiempo transcurrido, t .
Ya tenemos los ingredientes básicos. ¿Qué falta?
Primero, pasar los datos al lenguaje matemático en el que está escrita la ley. (En el
modelo de la lógica, esto corresponde a la formalización.) Segundo, usar la ley para
calcular el resultado. Para ello usamos técnicas matemáticas—en este caso, álgebra y
108
aritmética. (Esto corresponde a las distintas técnicas que veremos después para demos-
trar validez o invalidez de un argumento.) Tercero, «traducir de regreso» el resultado,
de manera que el resultado, que era puramente matemático, sea ahora una respuesta al
problema físico. (Esto corresponde a la interpretación de fórmulas del sistema lógico
con proposiciones expresadas en el lenguaje natural.)
Entonces, formalizamos:
x 0 = El pueblo del que sale Joselito.
x = El pueblo al que va Joselito = x 0 + 20, 000 (pues habíamos dicho que estaba a
20 km del primero, y estamos usando unidades en metros).
v = 10 m/s
t = incógnita
Después, usamos álgebra para despejar la variable que no concemos en la ecuación
5.1:
x − x0
t= (5.2)
v
Es decir,
20, 000m
t=
(10 ms )
Ya teniendo esto, usamos aritmética para encontrar el resultado:
t = 2,000 s = 33.333 . . . min (5.3)
Esta (un tiempo de 33 minutos y un tercio, es decir, 33 minutos y 20 segundos) nos da
la respuesta al problema original, pues la ecuación 5.3 nos da no sólo un número, sino
una cantidad física de tiempo.
El problema que acabamos de ver y su resolución es un ejemplo más del modelado
matemático, pero haciendo explícito el proceso que esquematizamos en la sección 3,
con la figura 3.1. En la figura 5.1 hay un esquema menos abstracto.
109
Problema
formalización
interpretación
Datos Leyes
matemáticas
Resultado
110
es más perspicua que la interpretación con la proposición:
Si no salimos el jueves, o jugamos videojuegos o pedimos pizza y vemos una película,
pues la segunda tiene conectivas lógicas que no se representan en la fórmula.
De hecho, hablando para todos los casos, tenemos esta definición:
Definición 30: Interpretación perspicua
Ejercicio # 16
Interpreta de manera perspicua cada una de las 10 fórmulas siguientes:
1. p & s 6. (q & r ) ∨ (t & s )
2. t ⊃ ¬p 7. (q ⊃ ¬s ) ≡ (t ∨ ¬r )
3. q ≡ (p & r ) 8. (r ≡ ¬s ) ⊃ (q & ¬r )
4. q ≡ (p & ¬r ) 9. [q ∨ (r ∨ s )] ≡ ¬(t & r )
5. (t ∨ s ) ⊃ (p & ¬p) 10. 9 ∨ ¬ 8
111
5.3. Del lenguaje natural al formal: formalización
p ∨ q,
tomando:
• Pedimos pizza y cenamos en casa = p,
• Vamos al café y cenamos ahí = q .
Pero esta opción tampoco es la más perspicua, pues otra vez estamos ignorando conec-
tivas lógicas dentro de las proposiciones que le asignamos a las atómicas. De hecho, la
opción más perspicua sería:
(p & r ) ∨ (q & s ),
tomando:
• Pedimos pizza = p,
• Cenamos en casa = r ,
• Vamos al café = q ,
• Cenamos [en el café] = s .
Esta es la opción más perspicua porque le hemos asignado proposiciones simples
a las fórmulas atómicas, haciendo corresponder las conectivas en la proposición
molecular con las de la fórmula.
En general,
Definición 31: Formalización perspicua
112
Para formalizar, hay que seguir los siguientes pasos:
Primero Organiza los argumentos en premisas y conclusiones: primero las premisas,
luego un indicador de inferencia, y finalmente, la conclusión. Recuerda que un
argumento puede tener su conclusión al inicio, en medio o al final. (Puedes revisar
este video para recordar.)
Segundo Formaliza cada proposición. Recuerda que esto consiste en definir una inter-
pretación: una variable proposicional para cada proposición atómica, y entonces
extraer las conectivas que están presentes en las fórmulas complejas; finalmente,
ofrecer una fórmula que (dadas las conectivas en esa proposición y el diccionario)
represente esa proposición.
Tercero Arregla las fórmulas en orden, de acuerdo a los dos pasos anteriores: enumera
las premisas, y en la siguiente línea pon un símbolo de «por lo tanto» (es decir:
∴) seguido de la conclusión.
Ejercicio # 17
Formaliza los siguientes argumentos.
• El arte es mimesis y el arte es katarsis. Pero el arte es mimesis y katarsis siempre y
cuando: el artista busca representar y, también, busca expresar. Si el artista busca
expresar, entonces el arte es subjetivo. Si el artista busca representar, entonces
113
el arte es objetivo. Por lo tanto, el arte es subjetivo y objetivo.
• Si me ruegas, tenemos un gran futuro. Pues basta que me ruegues para que
te perdone; pero te perdono siempre y cuando no lo vuelvas a hacer; y si no lo
vuelves a hacer, tenemos un gran futuro.
• Pasaré el examen de idiomas y me graduaré. Me graduaré, lo que requiere que
termine los créditos. O dejo el trabajo o no termino los créditos. O sea que, en
definitiva, todo lo anterior conlleva que voy a pasar el examen y voy a dejar el
trabajo.
• Si te quiere, te trata bien. Pero si te trata bien, esperará reciprocidad. De ahí que,
si te quiere, esperará reciprocidad y le importará tu bienestar. Pues no va a pasar
que: espere reciprocidad y no le importa tu bienestar.
114
programa de nominalización de Field (o algo muy parecido a ello). Así que, al final,
esas tres propuestas no son caminos fáciles. (Premisa implícita: las tres propues-
tas son caminos fáciles si y solamente si: triunfan y no tiene éxito el programa de
nominalización de Field.) (Mark Colyvan, ‘There is No Easy Road to Nominalism’,
Mind, 2010)
3. Él [Kant] establece, en el tratado en cuestión [Fundamentación de la Metafísica
de las Costumbres], un primer principio universal como origen y fundamento de la
obligación moral; es éste: Obra de manera que tu norma de acción sea admitida
como ley por todos los seres racionales. Pero, cuando empieza a deducir de este
precepto cualesquiera de los deberes actuales de moralidad, fracasa, casi grotes-
camente, en la demostración de que habría alguna contradicción, alguna imposi-
bilidad lógica (por no decir física) en la adopción por todos los seres racionales de
las reglas de conducta más atrozmente inmorales. Todo cuanto demuestra que
las consecuencias de su adopción universal serían tales que nadie se decidiría a
incurrir en ellas. (Paráfrasis: El principio de Kant es compatible con la adopción
de las reglas de conducta inmorales. Si eso pasa, entonces nadie actúa bajo ese
principio. Si nadie se actúa bajo el principio de Kant, entonces este no es origen
y fundamento de la obligación moral. Ergo, el principio de Kant no es origen y
fundamento de la obligación moral.) (John Stuart Mill, El Utilitarismo, capítulo I)
4. Hay compuestos. Una sustancia compuesta es un agregado de simples. Por lo
tanto, hay sustancias simples. (Premisa implícita: Si una sustancia compuesta es
un agregado de simples, y hay sustancias compuestas, entonces hay simples.)
(Leibniz, Monadología, §1)
5. Pero ¿no cree que hay suficientes casos registrados de personas que creen que
han oído cómo Satán les hablaba dentro de su corazón, del mismo modo que
los místicos afirman a Dios? Y ahora no hablo de una visión exterior, hablo de
una experiencia puramente mental. Ésa parece ser una experiencia de la misma
clase que la experiencia de Dios de los místicos, y no veo por qué, por lo que nos
dicen los místicos, no se puede sostener el mismo argumento en favor de Satán.
(Paráfrasis: Si hay personas que creen que les ha hablado Satán, entonces: si
los místicos infieren la existencia de Dios a partir de sus experiencias, entonces
podemos inferir la existencia de Satán a partir de la experiencia de las personas
que creen que les habla Satán. Si podemos inferir la existencia de Satán a partir de
la experiencia de las personas que creen que les habla, entonces el argumento de
los místicos es inválido. Hay personas que creen que les ha hablado Satán. Por lo
tanto, el argumento de los místicos es inválido.) (Bertrand Russell: «La existencia
de Dios», debate con F.C. Copleston)
115
Proyecto del capítulo:
Antecedentes d *
Problema d *
Notas
116
capítulo
6
Definición semánti-
ca por tablas de verdad
Objetivos de aprendizaje
1.
2.
117
as conectivas lógicas son, al nivel de la gramática de LC0, símbolos que co-
Como veremos abajo (en la sección 6.4), cada una de las conectivas lógicas es una
función de valores de verdad. Primero definamos qué es una función.
Definición 32: Función
Una función es una regla de asociación entre dos conjuntos, de manera
que, para cada entrada (elemento del primer conjunto) le corresponde una
única «salida» (elemento del segundo). Que una función sea una regla
significa que hay una manera de especificarla —de definirla— de una vez
para siempre.
Una manera útil de pensar a las funciones es como «máquinas», que toman a la entra-
da, la «procesan» de acuerdo a la regla que las define, y nos devuelven el resultado. Vamos
a ilustrar esto gráficamente, en la figura 6.1.1 Usaremos x como variable para los ele-
mentos de la entrada, y f como variable para las funciones. Entonces, f (x) va a ser la
función aplicada a x, que es idéntica al resultado.
Dijimos que una función es una regla de asociación entre dos conjuntos, lo cual nos ser-
virá por ahora. La idea es que una función asocia elementos «de dos conjuntos» porque
118
toma elementos de un conjunto —el conjunto de las entradas— y nos devuelve elemen-
tos del segundo conjunto—el conjunto de las salidas. (Aunque, de hecho, el conjunto de
entradas y el de las salidas pueden ser el mismo, de manera que la función tome entra-
das en un conjunto, las «procese» y nos devuelva valores del mismo conjunto. En este
sentido, la función «va» de un conjunto a ese mismo conjunto, solo que «tomándolo»
dos veces.)
La notación que se usa para definir de qué conjunto tomamos la entrada y de cuál la
salida de una función f , es la siguiente:
f : E −→ S,
Sólo nos falta la notación para la regla que define a la función. En muchos ámbitos,
es usual definir a las funciones—especificar las reglas—con esta notación (fíjate que
también es una flecha, pero con una «colita», y que no va de conjuntos a conjuntos, sino
de entradas al valor correspondiente):
f (x) ↦−→ y,
Otra notación usual (en algunos ámbitos) para definir una función es así:
f (x) := y
Por ejemplo,
s uce sor (x) := x + 1
Dijimos que una función es una regla de asociación entre dos conjuntos, de manera
que a un elemento del primer conjunto le corresponde uno, y un único elemento del
segundo. Todas las funciones que vimos arriba cumplen con esto—¡si no, no serían
funciones! Si una «función» nos devuelve cero, dos o más valores para una misma
entrada, se dice que «no está bien definida», y en realidad no cuenta como función.
119
Ejercicio # 19
I Dime si las siguientes reglas definen a una función o no, y por qué.
1. Para todo papá, devuelve su hijo.
2. Para todo papá, devuelve su hijo primogénito.
3. Para auto vendido, devuelve su más reciente dueño.
4. Para cada mano de una persona, devuelve su otra mano.
5. Para toda persona, devuelve una con la que haya tenido una amistad.
6. Para todo papá, devuelve su hijo.
7. Para cada país del planeta, devuelve un idioma que se hable ahí.
8. Para cada ciudad del país, devuelve su montaña más grande.
9. Para cada Copa Mundial de futbol, devuelve su ganador.
10. Para cada país del planeta, devuelve su capital.
II Dame diez ejemplos de funciones. Para cada uno, puedes ya sea definir su regla
(como en los casos de arriba), o poner una función matemática explícita (como: « f (x) =
x 3 »).
Las conectivas lógicas proposicionales son operaciones con valores de verdad: funcio-
nes (def. 32) que toman uno (la negación) o dos (las demás) valores de verdad, y regre-
san exactamente un valor de verdad. Se dice, entonces, que son conectivas veritativo-
funcionales.
Por ejemplo, la negación es una función que toma un valor de verdad—el de la fórmula
negada—y nos devuelve un único valor de verdad: el de la fórmula negativa. Denotemos
con un «dos» en negritas al conjunto de los dos valores de verdad: 2 = {V, F}. Entonces,
usando la notación de la sección anterior para funciones, diríamos:
¬ : 2 −→ 2
Es decir: la negación toma uno de los dos valores de verdad, y nos da otro de los valores
de verdad. ¿Cuál es la regla que define a esta función?
Bueno, pues que la negación de una fórmula falsa es verdadera, y que la negación
de una fórmula verdadera, es falsa. Lo primero lo podríamos poner, usando una de las
notaciones de la sección anterior,
¬(V) ↦−→ F
o lo que es lo mismo, usando la otra:
¬(V) := F
120
Mientras que la segunda parte sería también: ¬(F) ↦−→ V, o igualmente: ¬(F) := V.
Ahora bien, tenemos también conectivas binarias. Por ejemplo, la disyunción, que es
una función que toma dos valores de verdad: el de cada uno de los disyuntos, y nos
devuelve un único valor de verdad: el de la fórmula disyuntiva. Entonces, la disyunción
va desde 2 «dos veces»—porque toma dos valores como entrada—a 2 «una vez», porque
regresa un solo resultado. Usando «×» para decir cuántas veces toma valores de un
conjunto, escribiríamos:
∨ : 2 × 2 −→ 2
Y podríamos usar notaciones (maneras de escribir los conceptos: secc. 4.2) como las
anteriores para cada uno de sus casos. Por ejemplo:
∨(V, F) ↦−→ V
Pero para el caso de las conectivas lógicas, lo usual es definirlas mediante su tabla
de verdad, que nos dice, para cada posible combinación de valores de verdad de las
proposiciones conectadas, qué valor de verdad tiene la proposición compuesta (com-
pleja, molecular) resultante. Es decir: las tablas de verdad nos definen a las conectivas
semánticamente —pues dan su semántica formal— y de manera explícita, pues dan todas
sus posibles maneras de operar con sus entradas.
Las tablas de verdad son un caso particular del concepto de tabla de función en ma-
temáticas. Una tabla de función nos dice, para cada entrada de la función, el resultado
de aplicar esta función a esa entrada.
Como veremos ahora, las funciones de LC0 tienen un número muy pequeño de po-
sibles entradas, definido por los dos valores de verdad. Pero esto no pasa siempre. Por
ejemplo, al aprender aritmética nos enseñan las tablas de multiplicar: para cada número
entero del 0 al 10, estas tablas nos dan el resultado de multiplicarlo por cada número
entero del 0 al 10. Incluyen, entonces, ejemplos como «3 × 3 = 9» o «5 × 7 = 35». Pero
sería imposible dar la tabla de función completa para la multiplicación—¡Por el sencillo
hecho de que esta es infinita! Tendría que incluir no sólo los números del 0 al 10. . . ¡Sino
la tabla de todo número, y además, no sólo multiplicar cada uno de los números por
un número del 0 al 10, sino por cada uno de todos los números! Nunca acabaríamos de
escribir, y menos de aprender, estas tablas. Por ello, es mucho más sencillo aprenderse
las reglas básicas —las tablas de multiplicar de la escuela primaria—, y luego aprender
un algoritmo —una serie de reglas— para utilizar estas tablas al multiplicar cualquier
número que nos presenten. Este es el tipo de procedimiento que utilizaremos aquí.
Por otro lado (y como veremos después: en el capítulo 8), las definiciones de las
conectivas mediante las tablas son equivalentes con la validez de ciertos esquemas de
inferencia. Pero primero, vamos a definir estas tablas. Y para ello, primero pongamos
sus presupuestos filósofico-matemáticos sobre la mesa.2
121
6.3. Presupuestos clasicistas en las tablas de verdad
De nuevo: una tabla de verdad nos dice, para cada posible combinación de valores
de verdad de las proposiciones conectadas, qué valor de verdad tiene la proposición
compuesta (compleja, molecular) resultante. Entonces necesitamos exponer todas las
posibles combinaciones de valores de verdad. Vamos a dar una definición rigurosa.
Definición 33: Tabla de verdad
Una tabla de verdad es una matriz: un arreglo de valores en columnas y
filas.
Las columnas (verticales) corresponden a las una fórmulas atómicas (va-
riables proposicionales) y a las conectivas: una columna por cada una de
las atómicas y por cada una de las conectivas.
Las filas (horizontales) corresponden a las posibles combinaciones de va-
lores de verdad: cada fila tendrá: en la columna que corresponde a una
atómica, un valor de verdad, y en la columna que le corresponde a una co-
nectiva, el valor de verdad que tiene la fórmula molecular que corresponde
con esa conectiva.
Dada una fórmula con n atómicas, la tabla que le corresponde va a tener
2n filas; dada una fórmula con un número n de atómicas y un número p de
conectivas lógicas, la tabla que le corresponde va a tener un número n + p
122
de columnas. Entonces, a cada fórmula con n atómicas y p conectivas, le
corresponderá una matriz de dimensión (2n ) × (n + p) .
Vamos a dar la tabla de verdad de cada conectiva. Diremos que esta tabla define
semánticamente a la conectiva: nos dice cómo se define la función de valores de verdad
que es «el aspecto semántico» de la conectiva.
Además, para cada tabla, vamos a dar una regla mnemotécnica, que resume lo esen-
cial de la tabla y que nos permite construirla sin recordar mucho más.
¬ A
F V
V F
La negación invierte los valores: negación de V es F; negación de F es V.
A & B
V V V
V F F
F F V
F F F
La conjunción sólo es verdadera cuando ambas proposiciones son verdaderas (y
es falsa en todos los demás casos: cuando una es falsa y cuando ambas son falsas).
A ∨ B
V V V
V V F
F V V
F F F
La disyunción es falsa sólo cuando ambas proposiciones son falsas (y es verdadera
en los demás casos: cuando ambas son verdaderas, o cuando solo una es verdadera).
123
6.4.4. La tabla de verdad de la equivalencia material
A ≡ B
V V V
V F F
F F V
F V F
La equivalencia material sólo es verdadera cuando ambas proposiciones tienen
el mismo valor de verdad: o ambas falsas, o ambas verdaderas. Si una tiene un valor
y la otra el otro, el bicondicional es falso.
A ⊃ B
V V V
V F F
F V V
F V F
La implicación material es falsa sólo cuando el antecedente es verdadero y el
consecuente es falso. En todos los demás casos (los dos casos con antecedente falso;
antecedente verdadero y consecuente verdadero), es verdadero.
Como dijimos antes, una tabla nos da todas las posibles combinaciones de valores de
verdad de las fórmulas atómicas de una fórmula, y mediante la definición semántica de
cada conectiva, nos da todas los posibles valores de verdad en cada una de esas posibles
combinaciones. Cada una de estas posibles combinaciones de valores de verdad de las
fórmulas atómicas —es decir, cada renglón de una tabla— es lo que llamamos una
asignación, definida como sigue.
Definición 34: Asignación de valores de verdad
124
proposicionales de una fórmula determina el valor de la fórmula completa.
Las tablas de la sección 6.4 nos dan la definición semántica de cada conectiva. Por lo
tanto, sólo nos dicen cómo «actúa», cómo opera cada conectiva con dos valores—si es
una conectiva binaria—o con uno—si es la conectiva unaria, la negación. Pero ahora
vamos a extender esta definición para poder evaluar fórmulas con varias conectivas. La
extensión consiste en definir el siguiente algoritmo.
Definición 35: Tablas de fórmulas con más de una conectiva
Para construir la tabla de verdad de una fórmula que tiene más de una
conectiva lógica, hay que aplicar las tres reglas siguientes.
Dos a la n Calculo 2n (2 a la n -ésima potencia), donde n = número de
variables proposicionales distintas en mi fórmula: si una misma va-
riable aparece más de una vez, no la cuento. El número resultante
es el número de filas que va a tener mi tabla de verdad.7
Mitad de la mitad Ya teniendo mis 2n filas de la tabla, para mi primera
letra proposicional (empezando por la que está hasta la izquierda)
pongo la primera mitad (es decir, mis primeras « (2n ) a la mitad»
o: (2n )/2) de esas filas todas verdaderas, y la segunda mitad todas
falsas. Para la siguiente letra (hacia la derecha), la mitad de la mitad
de la primera V, la otra mitad de mitad F, la siguiente mitad de mitad
V, y la siguiente y última mitad de mitad F. Si hay más letras, hago lo
mismo: para la tercera letra, pongo la mitad de la segunda V, la otra
mitad F. . . Y así me voy hasta la última letra. Si he hecho todo bien,
a la última letra que no se repita sólo me resta asignarle una V, la
siguiente F, y así: es decir, la asignación quedará «una y una» en la
última letra que no se repita. Nota: si una misma letra se repite en
la fórmula, simplemente copio la misma columna de la primera vez
que aparece en todas las demás columnas en las que aparezca.
De adentro hacia afuera, usando las tablas básicas Ya que ten-
go todas las filas de mis letras (es decir, de mis sub-fórmulas ató-
micas), aplico mis tablas de verdad básicas, empezando «de aden-
tro hacia afuera». Para ello, primero descubro cuál es la conectiva
principal de mi fórmula. Esa es la conectiva que voy a calcular al fi-
nal. Después me voy a las sub-fórmulas, y para cada una, descubro
su conectiva principal. Sigo así hasta llegar a las sub-fórmulas que
125
están «más adentro» (que ya no tienen sub-fórmulas). Empiezo por
esas.8
Al haber calculado la columna bajo la conectiva principal he terminado mi
tabla de la fórmula compleja.
Veamos un ejemplo.
r & (s ∨ ¬p)
Ya tengo las filas y columnas, me falta llenarlas. Esto lo hago con mi regla «Mitad
de la mitad». Empiezo por la columna más hasta la izquierda, rellenando con Vs la
primera mitad de las filas y con Fs la segunda:
r & (s ∨ ¬ p
V
V
V
V
F
F
F
F
Continuo con la letra inmediatamente a la derecha. Empiezo rellenando con Vs la
mitad de las filas que rellené con Vs en la primera columna, la siguiente con Fs, y
126
así hasta terminar la tabla.
r & (s ∨ ¬ p
V V
V V
V F
V F
F V
F V
F F
F F
Y siguiendo con la misma regla, termino con la última columna:
r & (s ∨ ¬ p
V V V
V V F
V F V
V F F
F V V
F V F
F F V
F F F
En resumen: por la regla «2n », como la fórmula tiene 3 variables proposicionales dis-
tintas, puse 23 = 8 renglones. Por la regla «mitad de la mitad», relleno la columna de
la primera letra a la izquierda así: la primera mitad de renglones con V, y la segunda
mitad con F —es decir: cuatro renglones V, y los últimos cuatro con F. Usando la
misma regla, paso con la letra inmediatamente a la derecha: s . Como la mitad de 4
es 2, las dos primeras filas en la columna de s van con V, las siguientes dos con F, y
así hasta terminar. Y termino con la última letra: p . La mitad de 2 es 1, así que ahora
empiezo con V y me voy uno y uno hasta terminar la columna.
Ya tengo todas las posibles asignaciones a esa fórmula: todas las posibles combi-
naciones de los valores de verdad a las variables proposicionales. Ahora aplico mi
regla «De adentro hacia afuera, usando las tablas básicas».
¿Cuál es la conectiva principal de esta fórmula? La conjunción. Esa la evalúo al final.
La conectiva más «hasta adentro» es la negación.
Entonces, primero aplico mi tabla para la negación a la fila de p : veo sus valores de
verdad y entonces aplico la tabla: donde hay V, la negación es F, etc. Voy a poner en
verde los valores de la columna o columnas que estamos tomando para los valores
de la columna de la conectiva que los toma, que estarán en rojo. Quedaría así:
127
r & (s ∨ ¬ p
V V F V
V V V F
V F F V
V F V F
F V F V
F V V F
F F F V
F F V F
Entonces aplico la tabla de la siguiente conectiva, que en este caso es ∨, la disyun-
ción. Para ella, tomo los valores de las fórmulas que conecta, que en este caso es s
y ¬p , y aplico la tabla de la ∨. (Por ejemplo, en el renglón en que s es V y ¬p es F,
voy a poner que s ∨ ¬p es V, porque así está en la tabla de la disyunción. Y así en
cada renglón.) Me quedará esto:
r & (s ∨ ¬ p
V V V F V
V V V V F
V F F F V
V F V V F
F V V F V
F V V V F
F F F F V
F F V V F
Finalmente, tomo mi conectiva principal, que en este caso es la conjunción &, y
calculo usando su tabla y los valores de las fórmulas que conecta, que en este caso
son r y (s ∨ ¬p) .
r & (s ∨ ¬ p
V V V V F V
V V V V V F
V F F F F V
V V F V V F
F F V V F V
F F V V V F
F F F F F V
F F F V V F
128
Ejercicio # 20
Realiza la tabla de verdad de cada una de las siguientes fórmulas:
1. p & s 6. (q & r ) ∨ (t & s )
2. t ⊃ ¬p 7. (q ⊃ ¬s ) ≡ (t ∨ ¬r )
3. q ≡ (p & r ) 8. (r ≡ ¬s ) ⊃ (q & ¬r )
4. q ≡ (p & ¬r ) 9. [q ∨ (r ∨ s )] ≡ ¬(t & r )
5. (t ∨ s ) ⊃ (p & ¬p) 10. 9 ∨ ¬ 8
A las segundas, que son F en toda posible asignación —en toda circunstancia— se les
llama contradicciones. (Sería mejor decir que son auto-contradicciones.) Son lógicamente
imposibles —es decir, por pura lógica, tienen que ser falsas; también se dice que son las
falsedades lógicas del sistema LC0.
Definición 37: Contradicción
Una fórmula es una contradicción si es F en toda posible asignación.
129
Definición 38: Contingencia
A su vez, a las fórmulas contingentes y a las fórmulas tautológicas se les llama satisfa-
cibles, pues son verdaderas en al menos una asignación (las tautológicas, por supuesto,
además son verdaderas en todas). Se usa este término porque se dice que una asignación
«satisface» una fórmula cuando esta es verdadera en esa asignación. A las fórmulas sa-
tisfacibles también se le puede llamar coherentes o consistentes. Por otro lado, de las
tautologías y contradicciones se dice que son fórmulas lógicamente necesarias, pues
tienen el mismo valor de verdad en toda posible circunstancia.
Vamos a resumir todos estos conceptos en el cuadro 6.1.
Estos conceptos nos serán útiles para diversos fines, como veremos en la siguien-
te sección y en el siguiente capítulo. Por lo pronto, después de hacer unos ejercicios,
notaremos dos aplicaciones inmediatas, en sendas subsecciones.
Ejercicio # 21
Para cada una de las siguientes fórmulas, construye su tabla de verdad y con base en
ello, di si son tautología, contingencia o contradicción:
1 p ⊃ ¬q 2 [¬q & (r ⊃ q )] & r 3 (r ∨ t ) ⊃ (s ∨ ¬t )
4 q ∨ ¬q 5 t ≡ (p ≡ ¬t ) 6 (p ∨ q ) ⊃ (¬p ⊃ q )
Es usual escuchar que existen «principios lógicos supremos», a veces también llamados
«leyes lógicas». Algunos de estos vienen desde Aristóteles,9 y se conservan en LC0 co-
mo fórmulas tautológicas. Vamos a formularlos usando meta-variables, pues cualquier
fórmula de LC0 que sea un caso de ellas va a ser una tautología.
• Principio de no contradicción: ¬( A & ¬A).
130
• Principio de tercero excluido: A ∨ ¬A.
• Principio de identidad: A ⊃ A.
(En realidad, el último principio se suele formular diciendo que «A = A». Pero esto, si
se toma literalmente, pertenece no a la lógica de orden cero —que no tiene el símbolo de
identidad, «=»—, sino a la lógica de primer orden con identidad: diría que todo objeto
es idéntico consigo.10 Si relajamos la noción de identidad, para que signifique algo más
general —equivalencia— entonces quizá podríamos leerlo como: «toda proposición es
equivalente consigo», es decir: A ≡ A. Pero esta última se sigue del principio como lo puse
arriba y de ciertas propiedades de la equivalencia material que revisaremos después.)
No es obvio en qué sentido estas son las «leyes» o «principios supremos». Cada fór-
mula que sea un caso de cualquiera de las tres formas listadas, será tautológica —eso
es verdad. Pero muchas otras fórmulas son tautológicas, aunque tengan una apariencia
muy distinta a cualquiera de estas tres —como: (p ∨ q ) ⊃ ¬(¬q & ¬p).
Quizá, en realidad, lo que sucede es que la tautologicidad de las fórmulas con las
formas de los tres «principios» es un reflejo de los presupuestos clasicistas que enunciamos
antes (sección 6.3).11 Básicamente, toda fórmula del tipo: ¬( A & ¬A) va a ser tautológica
debido a que ninguna fórmula puede tener más de un solo valor de verdad. Pero también
porque la negación y la conjunción se definen de las maneras que vimos en la sección
6.4. Algo parecido sucede con los otros dos «principios».
Sin embargo, resultaría entonces que los «principios» per se no son los que reflejan,
por así decir, la «esencia» de LC0 —los que definen la clasicalidad, digamos—, sino que
son tanto los presupuestos clasicistas —que haya sólo dos valores de verdad, que cada
proposición tenga uno y sólo uno de ellos, y que las conectivas sean todas veritativo-
funcionales— como las definiciones de cada conectiva, los que contienen, o mejor, los
que definen, esta esencia de la clasicalidad.
Ejercicio # 22
¿Cómo podrías demostrar que todos los casos de los tres «principios lógicos» son tau-
tologías? Responde y justifica tu respuesta. Después de ello, demuéstralo.
131
Estas tautologías se conocen como «paradojas» de la implicación material porque chocan
contra el sentido común, por la manera en que, en el Español, solemos usar las palabras
«si. . . entonces . . . ». Por ejemplo, las siguientes fórmulas:
A ⊃ ( B ⊃ A) ¬ A ⊃ ( A ⊃ B)
(¬A & A) ⊃ B A ⊃ ( B ∨ ¬ B)
A ⊃ ( B ⊃ B) ( A ⊃ B) ∨ ( B ⊃ A )
Dando interpretaciones de estos esquemas de fórmula en el lenguaje natural, podemos
ver lo extraño que suenan a nuestro «oído lógico». Por ejemplo, una interpretación de
la fórmula «A ⊃ ( B ⊃ A)» es:
Si estoy enfermo, entonces: si estoy sano, estoy enfermo.
Esta interpretación muestra que el condicional material no recupera el sentido causal
del «si . . . entonces . . . » del Español, pues no afirmaríamos la oración de arriba debido
a que parece decir que hay alguna relación causal entre estar sano y enfermo. De igual
forma, una posible interpretación de la fórmula «( A ⊃ B) ∨ ( B ⊃ A)» es:
Si la Luna es de queso entonces 2+2=4, o si 2+2=4 entonces la Luna es de queso.
Esta interpretación muestra que el condicional material no recupera una característica
del «si . . . entonces . . . » del Español: unir a proposiciones que tienen «algo que ver», es
decir, que guardan alguna relación de relevancia entre sí: ciertamente ¡que la Luna sea
de queso no parece tener nada que ver con que 2+2=4!
Según algunos lógicos, este tipo de ejemplos son «paradójicos» o—hablando más
estrictamente—extraños precisamente por ello. Esto ha llevado a la creación de sistemas
de lógica que buscan evitar que las fórmulas «paradójicas» de arriba resulten, como
resultan ser en LC0, verdades lógicas. Los primeros sistemas de lógica modal surgieron
así, de hecho; pero hoy en día se estudian lógicas de la relevancia; que no estudiaremos
aquí.12
Ejercicio # 23
Para cada una de las fórmulas que representan una «paradoja» del condicional ma-
terial, da al menos una manera en la que «choque» contra una manera usual de utilizar
el las palabras «si. . . entonces . . . » en el Español. Por ejemplo,
A ⊃ A choca con el uso del «si. . . entonces . . . » como orden temporal (es
decir, a veces decimos «Si A entonces B» para querer decir, entre otras
cosas, que A está antes que B); pues ninguna proposición puede suceder
antes que ella misma.
132
6.8. Equivalencia e implicación lógica: Semántica
Un condicional material no representa una relación lógicamente necesaria entre dos pro-
posiciones: que una afirmación del tipo «Si p, entonces q » sea verdadera (donde el
condicional es material), no nos dice que haya algún vínculo muy «estrecho» entre es-
tas fórmulas. Sólo nos dice que no sucede que la primera sea verdadera, pero no la
segunda. Pero estas fórmulas pueden no tener «nada que ver»: pueden no hablar sobre
lo mismo. Y también puede ser que una no se siga lógicamente de la otra, que no haya
inferencia válida que pase de la una a la otra.
De igual forma, una equivalencia material entre dos proposiciones no es una relación
muy estrecha entre ambas: sólo nos dice que o ambas son verdaderas, o ambas son
falsas; es decir, que ambas resultan tener el mismo valor de verdad. Pero de nuevo,
estas proposiciones pueden no tener «nada que ver» entre sí, ni ser realmente «la misma»
proposición: lo único que tienen idéntico es su valor de verdad.
Con las tablas de verdad y el concepto de tautología podemos definir dos relaciones
más «estrechas» entre proposiciones. Vamos a definir la equivalencia y la implicación
lógica entre dos proposiciones. Las que veremos son versiones semánticas de estos
conceptos; en un capítulo posterior veremos las versiones definidas con la teoría de la
demostración.
Cuando dos proposiciones son lógicamente equivalentes según esta definición, ambas
son verdaderas en exactamente los mismos casos y falsas en exactamente los mismos casos. Esto
lo sabemos porque, si su bicondicional es tautológico, significa que en toda asignación
en que la primera sea V, la segunda también lo será; y en toda asignación en que la
primera sea F, también lo será la segunda.
Resulta que la mayoría de las fórmulas semánticamente equivalentes no «se ven igual»:
tienen conectivas distintas, o incluso pueden incluir atómicas distintas. Pero que sean
semánticamente equivalentes sólo significa que tienen las mismas condiciones de verdad:
que son verdaderas en los mismos casos, y falsas en los mismos casos. Es decir: que el
bicondicional A ≡ B es lógicamente necesario —verdadero en toda posible asignación:
tautológico.
La siguiente definición nos dice qué significa, según LC0, que una fórmula implique
lógicamente a otra.
133
Definición 40: Implicación lógica—versión semántica
A partir de las definiciones 36-40, y de las tablas de las conectivas, es fácil demostrar
los siguientes teoremas.
Teorema 1. Toda fórmula de LC0 es o una tautología, o una contingencia, o una contradicción,
y no es más de una de ellas. Es decir: la clasificación semántica de las fórmulas es exhaustiva y
excluyente.
134
Teorema 6. Toda proposición se implica lógicamente a sí misma. (Corolario: Toda proposición
es lógicamente equivalente a sí misma.)
Teorema 7. Toda proposición implica lógicamente a cualquier tautología.
Teorema 8. Una contradicción implica lógicamente a cualquier proposición (tautológica, con-
tradictoria o contingente).
Teorema 9. Si A implica lógicamente a B y B es una contradicción, entonces A también es una
contradicción.
Teorema 10. Si A implica lógicamente a B y A es una tautología, entonces B también es una
tautología.
Teorema 11. Si A implica lógicamente a B y B es una contingencia, entonces: o A es una
contradicción, o A también es una contingencia.
135
Ejercicio # 24
Hay algunas fórmulas que tienen las siguientes tablas de verdad. Ahora no importa qué
fórmulas sean esas, solamente te pongo la columna de la conectiva principal.
Usando las definiciones 39 y 40, dime cuál es lógicamente equivalente con cuál y
cuál implica lógicamente a cuál.
(Recuerda que, por ejemplo, toda tautología es implicada lógicamente por toda otra fórmula,
y los demás hechos mencionados en esta sección.)
1 2 3 4 5 6 7 8 9 10
V V V V F F V F V V
V V V F F F F F F F
V V F F F V V F F F
V F F F V V F F F F
Por ejemplo: la fórmula con la tabla 3 implica a la fórmula 2 (porque si le hago la tabla al
condicional 3 ⊃ 2 , me va a salir V en todo renglón, por lo que será una tautología).
136
Proyecto del capítulo
Antecedentes d Una demostración matemática es un argumento deductivo a par-
tir de las suposiciones básicas y las definiciones. Como la estudiaremos en este
libro (capítulo 8), un argumento demostrativo se compone de una lista de las
suposiciones básicas —las premisas—, seguida de su conclusión, seguida de la
lista de los pasos que se siguen para inferir conclusiones intermedias a partir de
las premisas, hasta llegar a su conclusión. Pero también puede componerse de
una enunciación, utilizando el lenguaje natural, de cada uno de esos pasos. Este
es el formato que utilizamos en las pocas demostraciones que enunciamos en la
sección 6.8.2.
Problema d Utilizando las definiciones de tautología, contradicción, contingencia,
y de la equivalencia e implicación lógica en sus versiones semánticas (definiciones
36-40), además de las tablas de verdad de las conectivas, demuestra los teoremas
de la sección 6.8.2 para los que no se ofreció una demostración. Explica cada
paso, como se hizo en las demostraciones de los teoremas 1 y 11.
Notas
1. He tomado esta gráfica de Proofs and Fundamentals: A first course in abstract mathematics, 2da edición, por
Ethan D. Bloch, página 130; editorial Springer, 2011.
2. Para mayor detalle, ver Barceló 2015; Estrada 2011: «¿Cuánta filosofía hay en una tabla de verdad?».
donde este orden refleja el hecho de que los argumentos válidos (def. 10) son aquellos que preservan
verdad, en lugar de falsedad. Se puede argumentar que esta sexta suposición también subyace a las
137
tablas de verdad de LC0, sobre la base de que LC0 es una álgebra de Boole, que tiene, por definición,
un orden natural como el que se refleja en la sexta suposición, y que a su vez, se ve reflejado en la
definición de las operaciones booleanas que corresponden con nuestras conectivas. Quizá otra manera
de argumentarlo sea notar que las extensiones de LC0 que aceptan más valores de verdad utilizan este
supuesto para proceder de la manera más «conservadora» posible en la extensión de las tablas de las
nuevas conectivas, ver Barceló 2015.
4. Como las lógicas intensionales o modales; ver Hughes & Cresswell 1993.
5. Como las lógicas tensoriales de Lorenzo Peña (1993: capítulos 2 y 3), o la interpretación de los gluts en
ciertas lógicas multivaluadas (ver capítulos 7-9 de Priest 2008).
6. Como las lógicas trivaluadas K3 y Ł3 , o la lógica de infinitos valores Łℵ . Ver capítulos 7, 11, 11a de Priest
2008.
7. Recordatorio: «2n » significa el numero 2 por sí mismo n veces. No significa multiplicar 2 por n. Por ejemplo,
26 es la multiplicación: 2 × 2 × 2 × 2 × 2 × 2, no 2 × 6.
8. Recordatorio: la conectiva principal es la que conecta todas las sub-fórmulas. Por ejemplo: en (¬p ∨ (r ≡ s )),
la conectiva principal es ∨, y las siguientes son ¬ y ≡; a estas las calculo primero (empezando por la que
quiera) y al final calculo la principal. En ¬(r ⊃ s ) la conectiva principal es ¬, ésta la calculo después de
⊃.
10. En la notación que usaremos al revisar la lógica de primer orden con identidad, LC1=, lo escribiríamos
así: ∀x (x = x).
11. Para una opinión como esta, ver Copi y Cohen, Introducción a la Lógica, secc. 8.10.
138
capítulo
7
Métodos semánticos para
comprobar validez e invalidez
Objetivos de aprendizaje
1.
2.
139
os métodos semánticos son métodos basados en la semántica formal de LC0,
L es decir, en las tablas de verdad de las conectivas y de las fórmulas con más
de una conectiva. La ventaja de estos métodos es que nos permiten comprobar
tanto la validez como la invalidez de los argumentos formalizados en LC0; mientras que
los métodos demostrativos que veremos en el siguiente capítulo, en general, sólo nos
permiten comprobar la validez de un argumento.
2. q ⊃ r
∴q ⊃p
Vamos a comprobar su validez mediante el método del condicional asociado.
El primer paso es construir su condicional asociado, que sería este:
[(p ⊃ q ) & (q ⊃ r )] ⊃ (q ⊃ p)
140
Y vamos a hacerle su tabla de verdad. Usando la regla «2n », como son 3 variables
distintas, sé que n = 3; por lo que necesitaremos 23 = 8 filas, y una columna por
cada letra y conectiva. Empezamos con las atómicas, usando la regla «mitad de la
mitad»:
[(p ⊃ q) & (q ⊃ r )] ⊃ (q ⊃ p)
V V V V V V
V V V F V V
V F F V F V
V F F F F V
F V V V V F
F V V F V F
F F F V F F
F F F F F F
Sigo con las conectivas de más adentro, usando la regla «de adentro hacia afuera,
usando las tablas básicas»:
[(p ⊃ q) & (q ⊃ r )] ⊃ (q ⊃ p)
V V V V V V V V V
V V V V F F V V V
V F F F V V F V V
V F F F V F F V V
F V V V V V V F F
F V V V F F V F F
F V F F V V F V F
F V F F V F F V F
Y ahora evaluamos la conectiva más hacia afuera, que todavía no es la principal—la
conjunción. Esta «se alimenta» con las conectivas de más adentro: los condicionales
materiales en el antecedente de la fórmula, cuyas columnas están en verde:
[(p ⊃ q) & (q ⊃ r )] ⊃ (q ⊃ p)
V V V V V V V V V V
V V V F V F F V V V
V F F F F V V F V V
V F F F F V F F V V
F V V V V V V V F F
F V V F V F F V F F
F V F V F V V F V F
F V F V F V F F V F
La tabla completa quedaría así, con la columna de la conectiva principal en azul: el
condicional material. Este condicional «se alimenta» de, por un lado, la conjunción,
que es la conectiva principal del antecedente, y por el otro, la conectiva principal del
consecuente, que es el condicional material:
141
[(p ⊃ q) & (q ⊃ r )] ⊃ (q ⊃ p)
V V V V V V V V V V V
V V V F V F F V V V V
V F F F F V V V F V V
V F F F F V F V F V V
F V V V V V V F V F F
F V V F V F F V V F F
F V F V F V V V F V F
F V F V F V F V F V F
Resulta que hay al menos una asignación en la que la fórmula es V—por ejemplo,
la primera, contando de abajo hacia arriba—, pero que también hay al menos una
asignación en la que es F: la quinta. Es decir: el condicional asociado al argumento
es contingente. Eso significa que el argumento es inválido: no en todo caso posible
en el que las premisas son todas verdaderas, lo es también la conclusión. Ese caso
es precisamente la quinta asignación.
Ejercicio # 25
Formaliza los siguientes argumentos (dejando de lado el contexto que no forme parte
de ellos, y poniendo las premisas o conclusión, si es que alguno tuviera estas implícitas),
y demuestra su validez o invalidez mediante el método del condicional asociado.
1. Si el yo es trascendental, no podemos referirnos a él. Pero si el yo es empírico, no
persiste a través del tiempo. Sin embargo, podemos referirnos al yo y este persiste
a través del tiempo. Por lo tanto, el yo no es ni trascendental ni empírico.
2. Si tomamos la primera ruta, nos van a cobrar peaje y vamos a pagarlo. Y si to-
mamos la segunda ruta (que es por la libre), pasaremos por el pueblo que te dije.
Pero ni vamos a pagar peaje ni vamos a pasar por ese pueblo (por razones que
luego te cuento). Como bien sabes, para llegar a la boda sólo hay dos rutas, es
decir: que lleguemos a la boda requiere que o tomemos la primera ruta o tomemos
la segunda. ¿Puedes ver qué estoy concluyendo?
3. Para que las propuestas nominalistas triunfen se requiere que el argumento pla-
tonista de Quine sea desactivado. Para hacer esto último, se requiere demostrar
que el uso de las matemáticas en las ciencias empíricas es, en última instancia,
prescindible. Pero este uso es prescindible siempre y cuando el poder predicti-
vo y explicativo de las teorías no se pierda junto con la nominalización. Se sigue
que, para que las propuestas nominalistas triunfen, se requiere que las teorías
preserven su poder predictivo y explicativo con la nominalización.
4. La virtud es el máximo bien de la vida, y se consigue mediante el examen de la
propia conciencia. Que la virtud sea el máximo bien implica que la filosofía tiene
142
un valor importante, y o bien se consigue como hemos dicho, o bien nuestros
presupuestos están equivocados. Por ello, basta que la filosofía tenga un valor
importante para que nuestros presupuestos estén equivocados.
5. Es evidente que si la teoría cuántica solamente consiste en la ecuación de Schrö-
dinger, entonces no hay lugar para la probabilidad en ella. Pues si la teoría sola-
mente contiene a la ecuación de Schrödinger, entonces un sistema puede evolu-
cionar a una superposición de estados con una función de onda que no colapsará.
Pero si esto sucede, entonces la función de onda evoluciona de manera determi-
nista. Y que la función de onda evoluciona de manera determinista basta para que
no haya lugar en la teoría cuántica para la probabilidad.
143
así que vamos a suponer que no lo es. Es decir (por la definición 10), vamos a suponer
que todas sus premisas son verdaderas y que su conclusión es falsa. Si a partir de
esta suposición llegamos a una incoherencia, tenemos certeza de que la suposición
era falsa: que es falso que el argumento sea inválido—es decir, tenemos certeza de
que el argumento es válido. (Pues para cada argumento, sólo hay dos posibilidades,
exhaustivas y excluyentes: o que sea válido, o que sea inválido.)
¿Cómo podríamos llegar a esa incoherencia?
Básicamente, actuando bajo la suposición de la invalidez del argumento, y siguiendo
las tablas de verdad de las conectivas. Ya teniendo la suposición, intento asignarle va-
lores de verdad a cada fórmula de manera que sea coherente con la suposición. Es decir:
de manera que cada atómica tenga un y sólo un valor de verdad, y que cada fórmula
obedezca las tablas de verdad de las conectivas. Si logro construir la asignación de ma-
nera coherente, el argumento es inválido—pues he mostrado que hay una asignación
en la que las premisas son verdaderas, pero no la conclusión. Si no es coherente, he
demostrado su validez—pues he demostrado que suponer la verdad de las premisas
y la falsedad de su conclusión, me lleva o a asignar dos valores distintos a la misma
atómica, o a ir en contra de las tablas de las conectivas.
Vamos a verlo con más detalle.
Definición 43: Método de Asignaciones
144
suposiciones del paso anterior.
4. Continuo hasta que: o llegue a una incoherencia (es decir: hasta
que le asigne dos valores distintos a la misma atómica, o hasta que
tenga que asignarle valores a una fórmula molecular de manera que
no siga la tabla de la conectiva), o haya terminado con las atómicas.
5. Si llego a una incoherencia, el argumento es válido. Si no llego a una
incoherencia y puedo hacer la asignación completa, el argumento
es inválido.
6. Si he demostrado que el argumento es inválido, la asignación que
he construido de hecho me da uno de los renglones de la tabla de
verdad del condicional asociado en que éste es falso.
Contando posibilidades
145
Conectiva o var. # verdades # falsedades
atómica 1 1
¬ 1 1
∨ 3 1
& 1 3
⊃ 3 1
≡ 2 2
Consideremos el argumento:
1. p ⊃ q
2. q ⊃ r
∴q ⊃p
Según el primer paso, asigno V a cada premisa y F a cada conclusión:
1. p ⊃ q = V
2. q ⊃ r = V
∴q ⊃p =F
Según el segundo paso, sigo con la fórmula que sea me cierre más posibilidades.
En este caso, es la conclusión, pues el condicional sólo es F en un caso:
1. p ⊃ q = V
2. q ⊃ r = V
ejemplo 23
∴ q ⊃ p = F; q =V y p =F.
Según el tercer paso, copio lo que ya tengo hasta ahora en las otras líneas:
1. p ⊃ q = V; p =F y q =V
2. q ⊃ r = V; q =V
∴ q ⊃ p = F; q =V y p =F.
Según el cuarto paso, reviso. En este caso, no he caído en incoherencia: si 1 es V,
eso significa que el condicional (que es la conectiva principal) es V, pero ya tengo que
p es F y que q es V, eso es coherente con la V del condicional: el condicional es V
si tiene antecedente F y consecuente V. Además, en 2 tampoco tengo incoherencia,
al menos no todavía: un condicional puede ser V si su antecedente es V.
Solo resta terminar con la premisa 2. Si el condicional es V y si antencedente es V,
su consecuente también tiene que ser V (pues, si fuera F, el condicional sería F).
Así que asigno:
1. p ⊃ q = V; p =F y q =V
2. q ⊃ r = V; q =V y r =V
∴ q ⊃ p = F; q =V y p =F.
146
No hay ninguna incoherencia. Por lo tanto, el argumento es inválido.
De hecho, vale la pena revisar que este método no sólo me da el mismo resultado
que el método del condicional asociado, sino que me proporciona la asignación que
demuestra la invalidez del argumento: es decir, la asignación en la que las premisas
son todas verdaderas, pero no la conclusión. Si revisamos la tabla de la página 141,
podemos ver que la asignación que obtuve por este método: p =F, q =V, r =V, es
precisamente la quinta asignación de la tabla del condicional asociado al argumento;
en esa asignación, el condicional asociado es falso, mostrando también la invalidez
del argumento.
...................................................................................
Consideremos este otro argumento:
1. p&q
2. q ≡ (r ∨ s )
∴ r ∨s
Aplico mi primer paso:
1. p&q = V
2. q ≡ (r ∨ s ) = V
∴ r ∨s =F
Para aplicar mi segundo paso, la premisa 2 no es buena idea: el bicondicional es V
en dos casos (ambas fórmulas V, o ambas F). En cambio, puedo empezar (da igual)
por la conclusión o la premisa 1: la conclusión, siendo una disyunción, solo es F en
un caso, y la premisa 1, siendo conjunción, solo es V en un caso. Empecemos (para
el ejemplo) por la primera premisa. Según la tabla, la conjunción sólo es V cuando
ambos conyuntos lo son, así que:
1. p&q = V; p es V, q es V
2. q ≡ (r ∨ s ) = V
∴ r ∨s =F
Aplico mi tercer paso, copiando lo que ya tengo para q :
1. p&q = V; p es V, q es V
2. q ≡ (r ∨ s ) = V; q es V
∴ r ∨s =F
Reviso. No hay incoherencia, así que sigo:
1. p&q = V; p es V, q es V
2. q ≡ (r ∨ s ) = V; q es V, (r ∨ s ) es V
∴ r ∨s =F
Esto porque el bicondicional sólo es V si ambos tienen el mismo valor, y ya sabía
que q es V.
Pero ahora sí puedo ver que hay incoherencia: (r vs ) es V, según lo que puse en
la premisa 2, pero según lo que había puesto en la conclusión, (r vs ) es F. Le he
asignado dos valores a la misma fórmula. Por lo tanto, el argumento es válido y ya
147
terminé.
148
que el determinismo es verdad.
5. Si el determinismo es compatible con que haya libertad, y si el indeterminismo
(también) es compatible con la libertad, entonces hay libertad. Si hay libertad, en-
tonces mi vida tiene sentido. Por lo tanto, si o el determinismo o el indeterminismo
son verdaderos, mi vida tiene sentido.
II Interpreta los siguientes argumentos y comprueba su validez o invalidez mediante
el método del condicional asociado.
A B C D
1. p ≡ ¬s 1. s ⊃ q 1. s ⊃ q 1. r ∨ s
2. s ∨ t 2. q 2. s & q 2. ¬r ⊃ q
3. p & q /∴s 3. ¬s / ∴ ¬r ⊃ (s ∨ q )
/∴t /∴q
El método de asignaciones funciona bien cuando en las premisas tenemos fórmulas que
pueden ser verdaderas «de pocas maneras» y en la conclusión tenemos una fórmula que
puede ser falsa «de pocas maneras» (según lo expuesto en el cuadro 7.2).
Pero el método se hace engorroso cuando esto no sucede. Consideremos el siguiente
argumento:
1. p ⊃ ¬s
2. ¬s ⊃ (t ∨ q )
3. t ⊃ r
/ ∴t &r
Para usar el método de asignaciones, suponemos que el argumento es inválido, es decir,
que hay al menos una asignación bajo la cual las premisas son verdaderas, pero la
conclusión es falsa:
1. p ⊃ ¬s V
2. ¬s ⊃ (t ∨ q ) V
3. t ⊃ r V
/ ∴t &r F
Continuo asignando el valor de verdad de cada fórmula a su conectiva principal:
1. p ⊃ ¬s V
V
2. ¬s ⊃ (t ∨ q ) V
V
3. t ⊃ r V
V
/ ∴t &r F
F
Muy bien. Lo siguiente sería usar las tablas de verdad para asignar valores a las
149
subfórmulas en todas sus apariciones. ¿Por dónde empezar?
Bueno, sé que la conjunción «t & r » es falsa. Pero—recordando la tabla de verdad de
la conjunción—eso me deja tres posibilidades: que t sea falsa pero r no, que r sea falsa
pero t no, o que ambas sean falsas. Empezar por la conclusión, entonces, no me ayuda
mucho, pues no puedo obtener mucha información sobre las subfórmulas.
¿Y si empiezo por las premisas? Eso tampoco me ayudaría mucho: las tres son con-
dicionales materiales, y por tanto (según su tabla de verdad) tienen tres maneras de
ser verdaderos: que su antecedente sea falso pero su consecuente verdadero, que ambos
sean verdaderos, o que ambos sean falsos.
Es decir: ya sea que empiece por premisas o por conclusión, no puedo cerrar muchas
posibilidades abiertas, porque en ambos casos tengo tres maneras de asignar valores.
Esta es una limitación práctica del método: cuando en las premisas tenemos fórmulas
que pueden ser verdaderas «de varias maneras» y en la conclusión tenemos una fórmula
que puede ser falsa «de varias maneras» (de nuevo, según el cuadro 7.2), el método no
es tan práctico.
Hay dos opciones: usar otro método—como el del condicional asociado de la sec-
ción 7.1, o la deducción natural del siguiente capítulo—o seguir usando el método de
asignaciones, aunque este se vuelve más engorroso.
150
∴ t & r F
V F F
F F V
F F F
Lo que tenemos que hacer es considerar cada una de las posibles asignaciones
en las premisas. En nuestro ejemplo, esto significa considerar tres posibilidades: la
posibilidad de que t sea verdadera pero r no, la posibilidad de que t sea falsa pero r
no, y la posibilidad de que ambos sean falsas.
Ahora bien, extendiendo lo que ya sucedía antes: si en al menos una de las tres asig-
nacones puedo tener verdaderas las premisas pero falsa la conclusión (sin contravenir
las tablas de verdad o asignar dos valores a más de una atómica), el argumento es
inválido. Pero, si para cada una de las posibles asignaciones en las que la conclusión
es falsa, no puedo hacer verdaderas a las premisas sin caer en una incoherencia (con-
travenir las tablas o asignar dos valores a una misma variable), entonces el argumento
es válido.
Hay que fijarse en lo que acabamos de ver: basta con una asignación coherente
para demostrar la invalidez; pero para mostrar la validez no basta con que una de las
posibilidades me lleve a incoherencia, tienen que ser todas.
En nuestro ejemplo, esto requiere que las tres asignaciones que hacen falsa a la con-
clusión, me lleven a asignaciones incoherentes en las premisas.
Consideremos la primera de las tres, en la que: t es V y r es F. Usaré esta para las
premisas, copiando los valores donde aparezcan las letras:
1. p ⊃ ¬s V
V
2. ¬s ⊃ ( t ∨ q ) V
V V
3. t ⊃ r V
V V F
/ ∴ t &r F
V F F
¡Listo! En la premisa 3, asigné V a t , F a r , pero V al condicional: t ⊃ r . Eso es
incompatible con la tabla, es decir, es una incoherencia.
Pero no he terminado. Eso sólo muestra que una de las tres posibles asignaciones que
hacen falsa a la conclusión lleva a una incoherencia. Pero quedan dos.
Consideremos la siguiente, en la que t es F pero no r , y usemos eso para asignar esos
valores en donde quiera que aparezcan esas letras en las premisas:
1. p ⊃ ¬s V
V
2. ¬s ⊃ (t ∨ q ) V
V F
3. t ⊃ r V
F V V
/∴t &r F
F F V
151
No hay más apariciones de t ni de r . Además, hasta ahora no he llegado a ninguna
incoherencia. Y sigo teniendo tres maneras en que cada una de las premisas podría ser
verdadera.
En este caso, esta asignación me muestra la invalidez del argumento, pues (1) no
he llegado a ninguna incoherencia, y (2) nada en las suposiciones iniciales—que las
premisas son verdaderas y la conclusión es falsa—me obligan a hacer más asignaciones.
Ahora tengo total libertad: puedo hacer las siguientes asignaciones «como yo quiera»,
respetando las tablas, y llegaré a una asignación para todas las atómicas que me muestra
la invalidez. Por ejemplo, rellenando (con verde) las atómicas que faltan, y respetando
las tablas, tendría:
1. p ⊃ ¬ s V
F V FV
2. ¬ s ⊃ (t ∨ q ) V
FV V F F F
3. t ⊃ r V
F V V
/∴t &r F
F F V
Como había predicho, pude completar la tabla de manera coherente, pues toda la infor-
mación que tenía no me obligaba o impedía hacer estas asignaciones. Esto significa que
el argumento es inválido: hay al menos una asignación coherente en la que las premisas
son verdaderas pero al conclusión es falsa.
Ejercicio # 27
Formaliza los siguientes argumentos y comprueba su validez o invalidez utilizando
el método de asignaciones. Si es necesario, utiliza el método extendido, considerando
cada una de las posibilidades para una de las premisas o la conclusión.
(Recuerda: Basta una asignación coherente (bajo la suposición de premisas verda-
deras y conclusión falsa) para demostrar invalidez, pero se requiere que todas las asig-
naciones sean incoherentes (bajo la misma suposición) para demostrar validez. Si el
argumento es tal que en una premisa o en la conclusión sólo hay una posible asigna-
ción (para hacerla verdadera o falsa, según corresponda), esto ya cuenta como todas
las asignaciones.)
1. Si conocer es percibir, entonces: conozco algo si y solamente si percibo lo co-
nocido. Si recuerdo algo y lo que recuerdo está bien guardado en la memoria,
conozco lo que recuerdo. Si recuerdo algo y cierro los ojos, entonces (de todos
modos) conozco lo que recuerdo. Pero: si conozco algo siempre y cuando per-
cibo lo conocido, entonces: si cierro los ojos y recuerdo algo, no conozco lo que
recuerdo. Por lo tanto, conocer no es percibir. (Platón, Teeteto, 163b-164b)
2. Cada una de las tres propuestas (que consideraré) no triunfa sin que tenga éxito el
programa de nominalización de Field (o algo muy parecido a ello). Así que, al final,
esas tres propuestas no son caminos fáciles. (Premisa implícita: las tres propues-
152
tas son caminos fáciles si y solamente si: triunfan y no tiene éxito el programa de
nominalización de Field.) (Mark Colyvan, ‘There is No Easy Road to Nominalism’,
Mind, 2010)
3. Él [Kant] establece, en el tratado en cuestión [Fundamentación de la Metafísica
de las Costumbres], un primer principio universal como origen y fundamento de la
obligación moral; es éste: Obra de manera que tu norma de acción sea admitida
como ley por todos los seres racionales. Pero, cuando empieza a deducir de este
precepto cualesquiera de los deberes actuales de moralidad, fracasa, casi grotes-
camente, en la demostración de que habría alguna contradicción, alguna imposi-
bilidad lógica (por no decir física) en la adopción por todos los seres racionales de
las reglas de conducta más atrozmente inmorales. Todo cuanto demuestra que
las consecuencias de su adopción universal serían tales que nadie se decidiría a
incurrir en ellas. (Paráfrasis: El principio de Kant es compatible con la adopción
de las reglas de conducta inmorales. Si eso pasa, entonces nadie actúa bajo ese
principio. Si nadie se actúa bajo el principio de Kant, entonces este no es origen
y fundamento de la obligación moral. Ergo, el principio de Kant no es origen y
fundamento de la obligación moral.) (John Stuart Mill, El Utilitarismo, cap. I)
4. Hay compuestos. Una sustancia compuesta es un agregado de simples. Por lo
tanto, hay sustancias simples. (Premisa implícita: Si una sustancia compuesta es
un agregado de simples, y hay sustancias compuestas, entonces hay simples.)
(Leibniz, Monadología, §1)
5. Pero ¿no cree que hay suficientes casos registrados de personas que creen que
han oído cómo Satán les hablaba dentro de su corazón, del mismo modo que
los místicos afirman a Dios? Y ahora no hablo de una visión exterior, hablo de
una experiencia puramente mental. Ésa parece ser una experiencia de la misma
clase que la experiencia de Dios de los místicos, y no veo por qué, por lo que nos
dicen los místicos, no se puede sostener el mismo argumento en favor de Satán.
(Paráfrasis: Si hay personas que creen que les ha hablado Satán, entonces: si
los místicos infieren la existencia de Dios a partir de sus experiencias, entonces
podemos inferir la existencia de Satán a partir de la experiencia de las personas
que creen que les habla Satán. Si podemos inferir la existencia de Satán a partir de
la experiencia de las personas que creen que les habla, entonces el argumento de
los místicos es inválido. Hay personas que creen que les ha hablado Satán. Por lo
tanto, el argumento de los místicos es inválido.) (Bertrand Russell: «La existencia
de Dios», debate con F.C. Copleston)
153
Proyecto del capítulo:
Antecedentes d *
Problema d *
Notas
1. Es útil recordar que en este texto sólo estamos tratando con argumentos que tienen un número finito
de premisas, y una sola conclusión. (Tomamos a los argumentos que tienen varias conclusiones como
siendo, en realidad, varios argumentos «encadenados»: es decir, como los polisilogismos de la definición
7).
154
capítulo
8
Métodos demostrativos
para comprobar validez
Objetivos de aprendizaje
1.
2.
155
omo hemos dicho anteriormente, el objetivo principal de la aplicación de la
8.1.1. Axiomática *
156
esta «inmediatez» o «fundamentalidad» de los axiomas se debe a que estos dan una
«definición implícita» de los conceptos involucrados en los axiomas.
Por ejemplo, la geometría de Euclides consiste de cinco axiomas, de las cuales se
derivan proposiciones que describen el espacio euclidiano y las figuras geométricas que
existen en este.
Para poder inferir proposiciones a partir de los axiomas, los sistemas axiomáticos de-
ben incluir reglas de inferencia. Estas reglas definen qué tipos de argumentos son válidos,
y usando estos argumentos, se demuestran proposiciones. Como vimos en la página 42,
las proposiciones que se infieren de los axiomas y que tienen una cierta «importancia»
en el contexto en el que se usa ese sistema axiomático, se conocen como teoremas. Las
proposiciones que (aunque también se siguen de los axiomas) se utilizan para demostrar
teoremas, se conocen como lemas. Finalmente, las proposiciones que se siguen «fácil-
mente» de los teoremas se conocen como corolarios. Algunos teoremas que se dejan sin
demostrar en un contexto (pero que son teoremas porque ya se han demostrado en otro
lugar) se les llama «proposiciones» en ese contexto. Como vimos antes, esta clasificación
es más contextual que puramente lógica.
El método axiomático está en el núcleo de la matemática desde Euclides, y se forma-
lizó con el avance de la lógica matemática desde los inicios del siglo XX. Pero también
ha sido utilizado en filosofía, con mayor o menor éxito, al menos desde que Spinoza
escribiera su Ética. Russell y Whitehead utilizaron la axiomática para llevar a cabo su
programa logicista, que buscaba reducir la matemática a la lógica, en los tres volúme-
nes de su Principia Mathematica. Un ejemplo contemporáneo de filosofía axiomática es
el Principia Logico-Metaphysica de Edward Zalta, quien lleva años formalizando una teo-
ría de la modalidad, la identidad, la existencia y los objetos abstractos (como mundos
posibles, objetos matemáticos o formas platónicas).
donde cada una de las As y cada una de las Bs son fórmulas y n,m ≥ 0: es decir, un
secuente tiene cero o más fórmulas de cada lado del símbolo de implicación lógica, «⊢»
(Kleene 1952: cap. 15). Las fórmulas a la izquierda de este símbolo son el antecedente y
las fórmulas a la derecha son el consecuente del secuente. Si el secuente solamente tiene
una fórmula en su antecedente, su interpretación se reduce a:
A ⊢ B1 ∨ . . . ∨ Bm
157
Poniendo ambas ideas juntas, si el secuente tiene más de una fórmula de cada lado, lo
leemos como:
A1 & . . . & An ⊢ B1 ∨ . . . ∨ B m
Es decir: las fórmulas en el antecedente se leen en conjunción y las fórmulas en el con-
secuente se leen en disyunción. En general, un secuente se puede leer como expresando
esta idea:
Si todas las fórmulas del antecedente son verdaderas, entonces, necesariamente: alguna fórmula
del consecuente lo es.
Si el antecedente no contiene fórmulas (n = 0), es decir, si el secuente es de la forma:
⊢ B1 , . . . , Bm
entonces se lee al secuente como teniendo un antecedente tautológico; si el consecuente
no contiene fórmulas (m = 0), es decir, si el secuente es de la forma:
A1 , . . . , An ⊢
158
que nos muestra que, si a partir de una serie de fórmulas podemos inferir la fórmula A
dos veces, entonces a partir de la misma serie de fórmulas podemos inferir a la fórmula
A una única vez. Podemos, pues, «contraer» la inferencia.
Los sistemas de secuentes son muy útiles para el estudio de las propiedades metaló-
gicas de un sistema lógico, y también son muy usados para las lógicas no clásicas. Sin
embargo, en este libro no usaremos sistemas de este tipo.
159
8.3. Deducción Natural para LC0
Vamos a definir un sistema de reglas para LC0. De nuevo, estas reglas son estructuras
de argumento válidas, y al usar una después de la otra, resultan en varios argumen-
tos válidos. La deducción natural para LC0 consiste en tomar ciertas fórmulas de LC0
como premisas —fórmulas que encontramos, por ejemplo, al modelar un argumento
concreto— y utilizar estas reglas para llegar a una conclusión específica. Eso demuestra
la validez del argumento modelado, pues a partir de sus premisas, utilizando solamente
argumentos válidos, podemos inferir la conclusión.
Como las reglas que vamos a usar son esquemas de argumentos válidos (estructuras,
formas de ellos), necesitamos una manera de «traducirlas» a argumentos concretos,
formalizados en LC0. Eso es lo que nos da la sustitución uniforme. Veamos.
Cada una de las reglas que vamos a ver está escrita con meta-variables (definición
24), es decir, con variables que representan fórmulas de LC0, tanto atómicas como
160
moleculares.
Por ejemplo, esta es (parte de) la regla de la eliminación de la conjunción que veremos
abajo:
A&B
A
Esta regla nos dice: «Si tienes una fórmula cuya conectiva principal es una conjunción, es
lógicamente válido inferir el conyunto de la izquierda». De nuevo, cualquier argumento
con esta forma va a ser válido, como podemos confirmar muy fácilmente mediante
cualquiera de los dos métodos semánticos del capítulo pasado.
Lo que quiero resaltar es que la regla está escrita con meta-variables porque no nos
habla de un argumento específico, sino de un conjunto de argumentos: de todos aquéllos
que tengan la estructura especificada: una conjunción como premisa, y el conyunto de
la izquierda como conclusión. La regla nos dice, entonces, que todo argumento con esa
estructura va a ser válido.
Por ejemplo, estos dos argumentos:
1.q & r 1.(p ⊃ s ) & (r ∨ t )
/∴q /∴p⊃s
son válidos, pues en ambos hallamos la misma estructura: una premisa cuya conectiva
principal es una conjunción, y una conclusión que es el conyunto a la izquierda de la
conectiva. Revisa ambos argumentos y confirma que comprendes cómo cada uno es un
caso, un ejemplo, de la regla de arriba.
Lo que hemos hecho es utilizar la sustitución uniforme. A partir de la regla escrita
con metavariables, hemos hecho las siguientes sustituciones. Para el primero:
1.q & r = A&B
/∴q = A
Y para el segundo:
1.(p ⊃ s ) & (r ∨ t ) = A&B
/∴p⊃s = A
Ambas sustituciones son uniformes porque, una vez que sustituimos a «A» por una
fórmula—por «q » en la primera, y por «p ⊃ s » en la segunda—, lo seguimos haciendo
en la conclusión. Esto nos asegura que el argumento preserve la estructura de la regla.
Pero, ya habiendo realizado la inferencia, «descargamos» o «reiniciamos» esa sustitu-
ción: podemos volver a usar la regla, pero ahora sustituyéndola con otras fórmulas. Por
ejemplo, en este argumento:
161
1. r & t
2. (t & s ) & (q ∨ p)
∴t
3. r E&(1)
4. (t & s ) E&(2)
5. t E&(4),
hemos aplicado la misma regla: eliminación de la conjunción, sustituida uniformemente
tres veces, a diferentes líneas, que son lo que significan los números entre paréntesis a la
derecha de las líneas de abajo. Es decir: la línea 3 es la conclusión del argumento válido
que tiene como única premisa a la línea 1; la línea 4 también se sigue lógicamente de
la línea 2 y, a su vez, la línea 5 se sigue lógicamente de la línea 4. Todas, claro está,
mediante el mismo esquema válido: la eliminación de la conjunción. Hemos utilizado
ese esquema al sustituirlo uniformemente tres veces. Como la última línea es idéntica
a la conclusión, y llegamos a ella mediante las reglas (por ahora, la única que hemos
visto), esto constituye una demostración de la validez del argumento con las premisas
1 y 2 y con t como conclusión.
Una regla de inferencia nos da una inferencia válida —es decir: un argumento que, en
todo posible caso en que sus premisas sean verdaderas, también tendrá conclusión
verdadera.
Escribiremos a las reglas de inferencia así:
A1
..
.
An
C
Donde «A1 » y las demás «A»s son cada una de las premisas de la regla, y C es la
conclusión de la regla. Entre las reglas que veremos, encontraremos reglas que tienen
cero, una, dos, o hasta cuatro premisas (pero todas tienen una sola conclusión).
Mientras tanto, una regla de equivalencia nos da dos inferencias válidas. La primera
inferencia válida es «de abajo hacia arriba», y la segunda es «de arriba hacia abajo»,
leyendo a través de las líneas, por así decirlo. Las escribiremos así:
A
B
162
A
B
y:
B
A
¬(p ∨ r ) & (q ≡ s ),
B & (q ≡ s ),
transformando sólo el primer conyunto, dejando lo demás idéntico. Recuerda que esto
sólo se puede con reglas de equivalencia. Veremos ejemplos de esto abajo.
Voy a resumir esta primera clasificación de las reglas en el cuadro 8.1.
163
Veamos un par de reglas de equivalencia que formarán parte del sistema que usaremos
aquí, para usarlas en un ejemplo. Estas se conocen como las «Leyes de De Morgan»,1
la primera es la siguiente:
¬( A ∨ B)
¬A & ¬B
Esta regla nos dice que la negación de una disyunción es lógicamente equivalente con la
conjunción de las dos subfórmulas negadas. La segunda ley de De Morgan es su «dual»,
y es esta:
¬( A & B)
¬A ∨ ¬ B
Esta regla nos dice que la negación de una conjunción es lógicamente equivalente a la
disyunción de las dos subfórmulas negadas. Cuando usemos a cualquiera de estas en
una demostración, la abreviaremos como «DeM».
Como son reglas de equivalencia, podemos aplicarlas ya sea a toda la fórmula, o a
una subfórmula también, tanto «de abajo hacia arriba», como «de arriba hacia abajo».
164
(y la conectiva, obviamente) para quedarme con el otro.
En la línea 5, finalmente, usé la línea 4 para aplicarle una vez más las leyes de De
Morgan. Sólo que, en este caso, utilicé la segunda ley (y de arriba hacia abajo): de la
negación de una conjunción infiero la disyunción de las subfórmulas negadas. Esta
línea es idéntica a la conclusión del argumento, así que he demostrado la validez de
este.
Por supuesto, no en todos los casos las aplicaciones de las reglas van a ser «en
secuencia»: es decir, que la línea 2 resulte de transformar la 1, que la 3 resulte de
transformar la 2, y así. Puede ser que en la línea 25 utilice una fórmula de la línea 7,
por ejemplo.
La segunda clasificación de las reglas que vamos a ver es la que las divide en reglas de
introducción y reglas de eliminación.
Las reglas de introducción de una conectiva son esquemas de argumentos válidos en
los que las premisas no necesariamente tienen a la conectiva como conectiva principal,
pero en los que la que la conclusión sí la tiene. Por ejemplo: A / A ∨ B.
Las reglas de eliminación de una conectiva son esquemas de argumentos válidos en
los que al menos una de las premisas tiene a la conectiva como conectiva principal,
pero la conclusión ya no la tiene. Por ejemplo: A & B / A.
Esta clasificación no es exhaustiva: existen reglas que son de una categoría distin-
ta. Pero el primer conjunto de reglas que veremos contiene solamente a las reglas de
introducción y de eliminación para cada conectiva. Empezaremos con las reglas de
eliminación e introducción de la conjunción, que son las más sencillas.
La conjunción
165
Definición 44: Eliminación de la Conjunción
A&B A&B
E&
A B
Esta regla nos dicen que un argumento que tenga como premisa a una conjunción,
y como conclusión a cualquiera de los dos conyuntos (pero sólo uno por línea), es
un argumento lógicamente válido: en todo posible caso en que la premisa sea verdad,
también lo será la conclusión.
Es fácil comprobar la validez de esta regla mediante cualquiera de los dos métodos
semánticos del capítulo pasado, pero hagamos una demostración rápida. Supongamos
que una fórmula conjuntiva A & B es verdadera. Por la tabla de verdad de la conjun-
ción, ambos conyuntos, A y B, deben ser verdaderos. Por lo tanto, si la conjunción es
verdadera, necesariamente se sigue que A es verdadera, y necesariamente se sigue que
B es verdadera. Esto demuestra la validez de la regla: para cualesquiera dos fórmulas
(con «p»s y «q »s digamos) de la lógica, si su conjunción es verdadera, cada uno de los
conyuntos debe serlo también.
También hay una regla de introducción de la conjunción. Como la anterior, tiene dos
versiones: una en la que ponemos a la izquierda la primera fórmula que encontramos,
y la otra en la que esa primera fórmula va a la derecha. Esto sólo quiere decir que al
introducir una conjunción, no importa cuál de los conyuntos pongamos a la izquierda
y cuál a la derecha: de nuevo, a las conjunciones de LC0 «no les importa» el orden. A
ambas les llamaremos «I&» y, como con la anterior, las trataré como una sola regla.
Definición 45: Introducción de la Conjunción
A A
B I& B
A&B B&A
Falta ver algo importante que esta notación no deja claro, y que vale para todas
las reglas: las premisas de la regla (A y B) no necesitan estar una inmediatamente
después de la otra. Basta con que aparezcan en la demostración: ya sea en una de las
premisas del argumento que estamos demostrando, ya sea en las líneas después de la
conclusión, que se siguen de las premisas. Es decir: A y B pueden estar separadas por
una línea, o por veinte mil. No importa: mientras hayan aparecido antes, podemos usar
I& para inferir su conjunción. (Obviamente, no podemos usar a la conclusión, pues es
166
a lo que estamos intentando llegar.)
Ejercicio # 28
Utiliza las reglas de eliminación e introducción de la conjunción para demostrar los si-
guientes argumentos.
1. q
1. r & s
I II 2. r
∴s
∴q &r
1. s
1. (q & s ) & (r & t )
III 2. p & q IV
∴r &s
∴p &s
1. [t ⊃ (¬q ∨ r )] & [¬(r ∨ t ) ≡ (m ≡ ¬t )]
1. p & q
2. (q ⊃ t ) & (r ⊃ s )
2. (q ∨ ¬t ) & (¬t ≡ m)
V VI 3. m & ¬t
3. (s ∨ p) & u
4. (m ∨ q ) & ¬(q ⊃ t )
∴ [q & (¬t ≡ m)] & (p & u)
∴ m & {(q ⊃ t ) & [¬(r ∨ t ) ≡ (m ≡ ¬t )]}
La disyunción, 1
La primera regla para la disyunción que veremos es su regla de introducción. Esta es una
de las reglas más sencillas: nos dice que es válido adicionar una disyunción a cualquier
fórmula que ya teníamos. Es decir: si tenemos una fórmula como premisa, podemos
concluir que, o bien esa fórmula es verdadera, o bien cualquiera otra lo es. Esta otra
puede estar a la izquierda o a la derecha de la fórmula que teníamos como premisa. Por
ello, cada una de estas es una regla válida:
Definición 46: Introducción de la Disyunción
A A
I∨
A∨B B∨A
167
A ambas reglas las trataremos como una sola, y le llamaremos «I∨», o introducción
de la disyunción. Esta nos dice que a partir de una premisa (ya sea una premisa del
argumento o una fórmula que se siga de esas premisas mediante las reglas) podemos
inferir la disyunción con cualquier otra fórmula, a la izquierda o a la derecha.
Por ejemplo, el siguiente argumento es válido, pues la conclusión se sigue de la pre-
misa mediante I∨:
p &r
(p & r ) ∨ [¬¬(m ≡ ¬t ) ⊃ ¬(s ∨ t )]
El disyunto de la derecha no tiene nada que ver con la premisa. Pero la lógica que
estamos aprendiendo no captura relaciones de «tener que ver»: solamente relaciones
de inferencia válida. Este argumento es válido porque usa una regla válida: I∨. Y esta
regla es válida —como puedes comprobar con los métodos semánticos— porque, si
una fórmula es verdadera, la disyunción de esa fórmula con cualquier otra fórmula (a
la izquierda o a la derecha) también lo es. En todo caso lógicamente posible; de ahí la
validez de la regla.
También hay una regla de eliminación de la disyunción, pero es algo más complicada.
Veremos las reglas para el condicional antes —después de unos ejercicios.
Ejercicio # 29
Utiliza la regla de introducción de la disyunción para demostrar los siguientes argumen-
tos.
1. r 1. q
I II
∴ r ∨s ∴ ¬p ∨ q
1. ¬t
1. (p ⊃ ¬m) & (¬t ≡ m)
III 2. q IV
∴ [r ∨ (q & t )] ∨ [(p ⊃ ¬m) & (¬t ≡ m)]
∴ ¬t ∨ (r ⊃ ¬m)
La implicación material, 1
168
si el consecuente fuera falso, entonces el condicional tendría que ser falso: recorde-
mos que un condicional material sólo es falso cuando su antecedente es verdadero y su
consecuente es falso. Esto justifica la regla de eliminación del condicional:
Definición 47: Eliminación del Condicional Material
A⊃B
A E⊃
B
Además de «E⊃», esta regla se conoce por varios otros nombres; un par de ellas
tienen abreviaciones usuales, que pongo al lado:
Modus Ponens M.P.
Modus Ponendo Ponens M.P.P.
Separación
Ejercicio # 30
Utiliza la regla de eliminación de la implicación para demostrar los siguientes argumen-
tos.
1. s ⊃ t 1. (p & q ) ⊃ ¬r
I 2. s II 2. (p & q )
∴t ∴ ¬r
1. (m ≡ ¬r ) 1. [¬(q ∨ ¬t ) ⊃ (r ≡ p)] ⊃ (s ≡ t )
III 2. (m ≡ ¬r ) ⊃ ¬(m ∨ s ) IV 2. [¬(q ∨ ¬t ) ⊃ (r ≡ p)]
∴ ¬(m ∨ s ) ∴ (s ≡ t )
Ejercicio # 31
Para demostrar los siguientes argumentos, utiliza las siguientes reglas (en algunos ar-
gumentos no es necesario usar todas): E&, I&, E ⊃ , I∨.
1. p & q 1. (r ∨ s ) ⊃ q
I 2. q ⊃ s II 2. r
∴s ∴q
1. (q ∨ s ) ⊃ (t & r )
1. s & t
2. s
III 2. (t ∨ r ) ⊃ n IV
3. (s & r ) ⊃ p
∴n
∴p
169
La equivalencia material, 1
A⊃B A⊃B
B⊃A I≡ B⊃A
A≡B B≡A
Esta regla solamente dice que, si tienes dos fórmulas condicionales (no importa que
estén una inmediatamente después de la otra o no), donde el antecedente de una es el
consecuente de la otra, y el consecuente de la primera es el antecedente de la primera,
puedes inferir el bicondicional correspondiente —poniendo cualquiera de las dos fór-
mulas a la izquierda o a la derecha. En resumen: si una proposición implica a la otra,
y viceversa, entonces ambas son equivalentes, y en la equivalencia material no importa
cuál esté a la derecha o a la izquierda.
Ejercicio # 32
Utiliza la regla de introducción de la equivalencia material para demostrar los siguientes
argumentos.
La equivalencia material, 2
170
Definición 49: Eliminación de la Equivalencia Material
A≡B A≡B
Φ[A] E≡ Φ[ B]
Φ[ B] Φ[A]
171
La justificación de la línea 4 es que obtengo esa fórmula al eliminar el bicondicional
que está en la línea 1, sustituyendo a las fórmulas equivalentes en la línea 2. De
hecho, este mismo argumento tiene otra posible demostración, usando la misma
regla:
1. s ≡ t
2. t ⊃ r
3. s
∴r
4. t E≡(1,3)
5. r E ⊃ (2,4)
Esta otra demostración es igual de buena que la anterior, pues también utiliza las
reglas de manera adecuada. Sólo que ahora, en lugar de sustituir los equivalentes
que nos dice 1 en la fórmula 2, los sustituimos en la fórmula 3: sustituyo a t por su
equivalente en donde sea que aparezca; como en 3 aparece sola, puedo tener a t
sola. En este caso, se dice que el contexto de la fórmula es vacío (ella «aparece
sola»). Ya tenido a t es fácil inferir r eliminando el condicional de 2.
Consideremos este otro ejemplo.
1. (q ∨ r ) ≡ ¬(s & m)
2. ¬(s & m) ≡ t
3. q
∴t ∨p
4. (q ∨ r ) ≡ t E≡(1,2)
5. q ∨ r I∨(3)
6. t E≡(4,5)
7. t ∨ p I∨(6)
Quiero llegar a la disyunción t ∨ p . No la tengo en ninguna de las tres premisas,
pero sí tengo a t en la premisa 2. Así que seguramente la idea es sacar a t de ahí y
luego introducir lo demás con una I∨. Bueno, pero ¿cómo obtengo a t ? Veo que es
equivalente con ¬(s & m) , la cual, a su vez, es equivalente con (q ∨ r ) . Si tuviera
alguna de estas dos podría eliminar el bicondicional y quedarme con t . Pero no las
tengo.
Lo que sí tengo es a q en 3. Si uso una introducción de la disyunción, pudo obtener
(q ∨ r ) . Eso es lo que hice en 5. Con la equivalencia de 1 entre (q ∨ r ) y ¬(s & m) ,
puedo sustituir una por la otra en 2, que es lo que hice en 4. Con la equivalencia
que me queda en esa línea, y como ya tengo a una de esas dos fórmulas sola en 5,
puedo quedarme con la equivalente en 6. Sólo resta introducir lo demás mediante
una introducción de la disyunción y eso me da la conclusión del arugmento.
172
Ejercicio # 33
Utiliza la regla de eliminación de la equivalencia material para demostrar los siguientes
argumentos.
Demostraciones condicionales
En las demostraciones condicionales, suponiendo algo, demuestro que ello lleva a una
cierta consecuencia. Por supuesto, suponer algo significa lo contrario de «darlo por he-
cho»: significa considerarlo hipotéticamente, como si sucediera, aunque no pensemos que
de hecho sucede. En una demostración condicional, consideramos hipotéticamente cierta
premisa, y demostramos que una conclusión se sigue de ella.
Este tipo de razonamiento es muy común. Por ejemplo, si yo te digo un día:
Supongamos que ni Brasil, ni Italia, ni Argentina asistieran a la próxima copa mundial.
¿Quién tendría oportunidades de ganarla?
Lo que probablemente sucedería es que comenzarías a pensar en las consecuencias
de que los países que más han ganado copas mundiales no jueguen en la próxima
edición. Pero no es que aceptes o des por sentado que ellos no van a asistir: más bien,
lo consideras hipotéticamente, y piensas qué resultados tendría. Esos resultados van
a ser condicionales: se darían bajo la condición que estamos considerando. Piensas que
sucederían si es que ni Brasil, ni Italia, ni Argentina asistieran a la próxima copa mundial.
Vamos a introducir una notación especial para las inferencias condicionales. Usa-
remos «cajas» alrededor de una demostración condicional. Esta caja cubre desde la
fórmula que estoy suponiendo —la que estoy considerando hipotéticamente— hasta
cualquier fórmula que quiera demostrar a partir de ella. La forma general es esta:
A
..
.
B
Esto significa que:
• estoy suponiendo una fórmula A,
• los tres puntos representan las líneas en las que hago inferencias mediante las
reglas que ya tengo, usando las premisas del argumento, lo que he inferido de
ellas, o la suposición que hice, y
• B es una fórmula a la que llego, partiendo de A y de las líneas anteriores, y usando
las reglas.
Revisemos brevemente un ejemplo.
173
a. s & t (Sup.)
b. t (a, E&)
c. t ∨ r (b, I∨)
d. (t ∨ r ) ∨ q (c, I∨)
ejemplo 26
En este ejemplo, estoy suponiendo s & t . (Por eso lo justifico simplemente como
«Sup.», que abrevia el hecho de que lo estoy suponiendo.) Es como si dijera: «Su-
pongamos que s & t . ¿Qué se seguiría de ahí?» Bueno, pues de ahí se sigue t , por
la regla E&. Y de esta última, se sigue t ∨ r , por la regla I∨. Y, finalmente, de esta
última se sigue (t ∨ r ) ∨ q , por la misma regla.
Nota que no estoy poniendo la demostración entera. Este ejemplo sólo es sobre una
parte de una demostración: una sub-demostración bajo la suposición de la línea a.
Nota la convención que vamos a usar para numerar las líneas dentro de una caja:
usamos letras minúsculas (a partir de la «a»). Estrictamente hablando, una caja perte-
nece a una sola línea de la demostración que estemos haciendo: es una sub-demostración.
Como hemos estado numerando las líneas que se siguen de las premisas con números
arábigos a partir del 1, necesitamos otra numeración para las líneas que se siguen de
un supuesto, para no confundirnos. Resumiremos esto en la siguiente convención.
Convención 3 (Notación para las demostraciones condicionales). Una demostración condi-
cional pertenece a una única línea de la demostración principal. Pondremos una caja
alrededor de una demostración condicional, y numeraremos sus líneas de manera dis-
tinta a las líneas de la demostración principal, usando «a», «b», etc., para las líneas
de una demostración condicional dentro de la demostración principal. Si hacemos una
demostración condicional dentro de otra demostración condicional, usaremos todavía
otro sistema de numeración, como «i», «ii», etc. Y así sucesivamente.
¿Hasta donde debo llegar en una demostración condicional? Pues hasta donde lo re-
quiera en mi demostración. Eso va a depender de la conclusión del argumento que estoy
intentando demostrar: busco llegar a esa conclusión, o a una conclusión intermedia que
pueda usar, a su vez, para llegar a la conclusión del argumento. Una demostración con-
dicional no pone, por sí misma, ningún límite en el número de conclusiones que puedo
extraer de una suposición. Sólo se requiere que cada una de estas conclusiones se siga
ya sea solamente de la suposición, o de las premisas (y conclusiones intermedias) que
ya tenía antes, o de ambas.
Pero sí hay una restricción importante: cuando hago una demostración condicio-
nal, no puedo copiar fuera de la caja ninguna fórmula que esté dentro de la caja.
Hay más restricciones sobre esto, que vamos a ver en dos casos —al revisar la segunda
regla para el condicional y la segunda para la disyunción. Pero puedes ir memorizando
así a esta restricción: «lo que pasa en la caja se queda en la caja».
174
La implicación material, 2
A
..
.
I⊃ B
A⊃B
∴ r ⊃ ¬s
Como la conclusión no está en las premisas, y la conclusión es un condicional mate-
rial, es muy probable que tenga que utilizar la introducción del condicional material.
Como vemos en la regla, para utilizar esa regla voy a suponer el antecedente del
condicional que quiero inferir. En este caso, el antecedente es r . A partir de este
antecedente, y de las premisas que ya tengo, voy a utilizar las reglas para inferir el
consecuente. Si logro hacer eso, puedo inferir el condicional material por la regla I ⊃ .
Veamos:
175
1. r ⊃ (q & ¬s )
∴ r ⊃ ¬s
a. r Sup.
2. b. q & ¬s E ⊃ (1,2a)
c. ¬s E&(2b)
3. r ⊃ ¬s I ⊃ (2)
Lo que hice es suponer el antecedente del condicional que quiero demostrar, esto
es en la línea 2a. Lo justifico así: como una suposición. Como estoy iniciando una
demostración condicional, abro una caja, dentro de la cual escribiré todo lo que se
siga de esta hipótesis. Pues bien, como tengo r y como mi primera premisa me dice
que r ⊃ (q & ¬s ) , puedo usar mis reglas para inferir que q & ¬s en la línea 2b.
Pero esto sigue dentro de la caja, pues lo inferí solamente bajo la suposición de r .
Finalmente, elimino la conjunción de la última fórmula para poder inferir ¬s (línea
2c). Podría seguir haciendo inferencias si quisiera, pero he llegado a donde quería:
quería llegar a ¬s porque mi conclusión la tiene como consecuente. Ahora ya puedo
cerrar la caja e introducir el condicional en la siguiente línea: como antecedente,
lo que supuse; como consecuente, lo que pude inferir al suponer ese antecedente.
La justificación es la abreviación de la regla aplicada a la línea en la que hice la
demostración condicional: la línea 2.
Veamos otro ejemplo. Supongamos que formalizamos un argumento, y nos encon-
tramos que tiene la siguiente estructura:
1. (q ∨ t ) ⊃ m
2. (q ⊃ m) ⊃ r
∴r
Como antes, me fijo qué hay en la conclusión: r . Tengo esa letra en la línea 2, pero
para quedarme con ella tendré que quitar el antecedente del condicional. La regla
que me permite quitar condicionales es E ⊃ , así que parece que en algún momento
tendré que usarla en 2. Pero para aplicar esta regla, necesito tanto el condicional
(línea 2) como el antecedente, que es (q ⊃ m) .
Bueno, no tengo ese antecedente. Sí tengo algo parecido en la línea 1, al menos
tiene a q y a m . Tengo que hacer algo para unir esas dos letras en un condicional.
Es decir, necesito «meter» un condicional ahí. Así que probablemente tenga que
usar I ⊃ . ¿Cómo podría hacerlo?
Quizá si supongo q , pueda llegar a m . Y de hecho así es: suponiendo q , puedo
añadirle t en disyunción (por I∨) y con ello tener el antecedente para inferir m (por
E ⊃ ). Habiendo hecho eso, puedo cerrar mi suposición y tener el antecedente de 2,
con lo que ya podría llegar a mi conclusión.
Haciendo todo lo anterior, tenemos la siguiente demostración:
176
1. (q ∨ t ) ⊃ m
2. (q ⊃ m) ⊃ r
∴r
a. q Sup.
3. b. q ∨ t I∨(3a)
c. m E ⊃ (1,3b)
4. q ⊃ m I ⊃ (3)
5. r E ⊃ (2,4)
Esto demuestra la validez del argumento.
Ejercicio # 34
Utiliza la regla de introducción de la implicación para demostrar los siguientes argumen-
tos.
Ejercicio # 35
Para demostrar los siguientes argumentos, utiliza las siguientes reglas (en algunos ar-
gumentos no es necesario usar todas): I& y E&, I ⊃ y E ⊃ , I≡ y E≡, I∨.
1. r ≡ s
1. (p ∨ s ) ⊃ ¬q
2. (s & t ) ⊃ q
I 2. s II
3. t & r
∴ ¬q
∴q
1.
1.
2.
III 2. IV
3.
∴
∴
1.
1.
2.
IV 2. VI
3.
∴
∴
177
como una postura más débil de la que de hecho es estamos cometiendo una falacia de
hombre de paja. Así que vamos a usar la frase «reducción al absurdo» para el tipo de
demostraciones que veremos ahora.
El nombre viene de usar «absurdo» como algo repugnante a la razón. En matemáticas
puras, sin embargo, nada impide postular cualesquiera tipos de objetos, siempre que
se puedan definir rigurosamente y sin contradicción. Por ello, algo es matemáticamente
«absurdo» solamente cuando es contradictorio. Reducir al absurdo, por tanto, significa
mostrar que lo que reducimos implica una contradicción.
Para hacer una reducción al absurdo, primero suponemos aquello que queremos re-
chazar, y entonces usamos argumentos válidos para demostrar que esa suposición ne-
cesariamente implica una contradicción. Una contradicción afirma y también niega lo
mismo que afirma. Es decir, la forma lógica de una contradicción es: A & ¬A. Por lo
tanto, para reducir al absurdo a una fórmula, primero supongo esa fórmula, y luego
demuestro que implica una fórmula con la estructura: A & ¬A. Por esta razón, una
reducción al absurdo usa demostraciones condicionales.
La negación
A
..
.
I¬ B & ¬B
¬A
La justificación de esta regla se basa en una idea muy sencilla: que ninguna fórmula
verdadera puede implicar a una contradicción. Vayamos por pasos. Primero, una contra-
dicción es falsa en toda asignación —como se puede ver fácilmente con las tablas de
verdad:
A & ( ¬ A)
V F F V
F F V F
178
Además, sabemos por la tabla de verdad del condicional material que una fórmula
condicional (es decir, una de la forma A ⊃ B) es verdadera sólo en tres posibles casos:
A ⊃ B
V V V
F V V
F V F
Viendo la tabla, veo que el único caso en el que suceden dos cosas: (i) la fórmula
condicional es verdadera y (ii) el consecuente es falso, es este:
A ⊃ B
V V V
F V V
F V F
Es decir, la fórmula condicional es verdadera y el consecuente es falso sólo cuando
el antecedente también es falso.
Juntemos ambos hechos: (i) una contradicción es falsa bajo toda asignación, y (ii)
el único caso en el que la fórmula condicional es verdadera y el consecuente es falso
es cuando el antecedente también es falso. Con esto podemos justificar la regla de la
introducción de la negación. Pues si he demostrado que una fórmula A implica a una
contradicción, eso significa que el condicional A ⊃ ( B & ¬B) es verdadero. Pero sabemos
que la contradicción debe ser falsa, por lo que el consecuente del condicional anterior
debe ser falso. Por el hecho (ii) de arriba, el antecedente debe ser falso también. Esto
justifica la validez de nuestra regla.
Ejercicio # 36
Utiliza la regla de introducción de la negación, junto con las demás reglas que hemos
revisado hasta ahora, para demostrar los siguientes argumentos.
1. s ≡ (m & t )
1. r ⊃ (p & q )
2. q ⊃ s
I 2. q ⊃ ¬p II
3. q ≡ ¬t
∴ ¬r
∴ ¬q
179
Definición 52: Eliminación de la Negación
¬A
..
.
E¬ B & ¬B
180
Si Trump gana las elecciones en 2016, E.U.A. tendrá un conflicto diplomático con Corea del
Norte.
Juntando ambas afirmaciones, teníamos que:
E.U.A. tendrá un conflicto diplomático con Corea del Norte.
Es decir: como las únicas dos opciones eran que ganara Clinton o que ganara Trump,
y como, además, los dos tenían opiniones contrarias a Corea del Norte, de aquí se podía
inferir que, pasara lo que pasara, E.U.A. tendrá un conflicto diplomático con Corea del
Norte.
Así funciona la demostración por casos: cuando tenemos sólo un número limitado de
opciones, y además cada una de estas opciones implica el mismo resultado, entonces se debe seguir
que ese resultado va a pasar, suceda la opción que suceda.
En una demostración por casos, ni siquiera necesito saber cuál de las opciones sucede.
Sólo necesito saber que: si una sucede, llevará a un resultado, y si la otra sucede, llevará
al mismo resultado. Si sé ambas cosas—que cada una lleva al mismo resultado—y si sé
que son las únicas dos opciones, puedo inferir que llegaré a ese resultado.
Pero ¿cómo puedo saber que cada una lleva al mismo resultado, si no sé si suceden
o no? Fácil: supongo que suceden, y demuestro que llevan al resultado. Es decir: en las
demostraciones por casos, hago demostraciones condicionales.
La disyunción, 2
181
posibles casos en los que la implicación sea verdadera, también lo será C. Esto justifica
la regla de eliminación de la disyunción, «E∨»:
Definición 53: Eliminación de la Disyunción
E∨
A∨B
A B
.. ..
. .
C C
En resumen: si cada uno de los disyuntos implica a una misma fórmula C, entonces
la disyunción por sí misma implica a C. Pero hay que demostrar eso: que cada uno
de los disyuntos implica a una misma fórmula. Para esto hacemos dos demostraciones
condicionales.
Ejercicio # 38
Utiliza la regla de eliminación de la disyunción, junto con las demás que hemos visto,
para demostrar los siguientes argumentos.
1. (q ∨ r ) ≡ m
1. r ∨ s
2. m & t
2. s ⊃ t
I II 3. r ≡ p
3. r ≡ q
4. q ⊃ p
∴ t ∨q
∴p
1. s ⊃ r 1. n ⊃ (q ∨ m)
2. r ⊃ (q ∨ ¬m) 2. m ≡ (s ⊃ t )
III 3. s & (¬m ⊃ p) IV 3. q ⊃ t
4. p ≡ q 4. n & s
∴p ∴t
182
exhaustiva: no todas las reglas son de una u otra categoría: hay fórmulas que son de
otra categoría. Estas las revisaremos después.
Cuadro 8.10: Una clasificación de las reglas: de eliminación y de introducción. Esta clasificación
no es exhaustiva.
183
Introducción Eliminación
A A
A&B A&B
& B B
A B
A&B B&A
A∨B
A B
.. ..
A A . .
∨
A∨B B∨A C C
C
A
..
. A⊃B
⊃ B A
B
A⊃B
A ¬A
.. ..
. .
¬ B & ¬B B & ¬B
¬A A
Cuadro 8.11: Las reglas de eliminación y de introducción para cada una de las conectivas.
184
8.3.5. Reglas básicas y reglas derivadas
Las reglas básicas son las que, en conjunto, nos permiten demostrar la validez de todas
las demás reglas. Estas, cuya validez es demostrable partiendo de la validez de las
básicas, serán las reglas derivadas.
Como reglas básicas, tendremos a las reglas de eliminación e introducción de la
sección anterior, así como la regla de explosión, que ahora veremos, y que abreviaremos
«Expl»:
Definición 54: Explosión
A & ¬A
Expl
B
Esta regla también es conocida como «Ex contradictione quodlibet»: de una contradicción,
todo se sigue. ¿Por qué es válida? Lo podemos ver con las definiciones semánticas de las
conectivas y el concepto de validez (definición 10, p. 50). Por las primeras, sabemos que
una contradicción es falsa bajo toda asignación: es decir, que no existe ninguna situación
lógicamente posible en la que sea verdadera. Por la definición de validez, sabemos que:
un argumento es válido siempre y cuando, no existe ninguna situación lógicamente
posible en la que sus premisas sean todas verdaderas pero la conclusión falsa. Por lo
tanto, cualquier argumento que tenga una contradicción entre sus premisas va a ser
válido, pues no va a existir ninguna situación en la que todas sus premisas sean verdaderas.
Esto sin importar qué fórmula sea la conclusión: puede ser verdadera, pero también
falsa. Aún cuando la conclusión sea falsa, el argumento será válido —simplemente
porque, de nuevo, no va a existir ninguna situación en la que todas sus premisas sean
verdaderas pero la conclusión falsa, pues entre las premisas hay una contradicción y
esta no puede ser verdadera.
Todas las reglas restantes son reglas derivadas.
Cuadro 8.13: Una clasificación de las reglas: básicas y derivadas. Esta clasificación sí es
exhaustiva.
La ventaja de tener más reglas derivadas es que las demostraciones se pueden sim-
plificar bastante. La desventaja es que tenemos que memorizar más reglas. Podemos
185
quedarnos solamente con las reglas básicas. Pero algunas demostraciones resultarán
mucho más largas de lo que serían usando reglas derivadas. Esto sucede porque el usar
solamente reglas básicas sería como estar demostrando la validez de la regla derivada
en cada caso.
Recordemos que las conectivas de LC0 son operaciones con valores de verdad (como
explicamos en la sección 6.2). Como las operaciones aritméticas, las operaciones de
LC0 también tienen propiedades algebraicas.
Recuerda la multiplicación entre números. Una de las leyes que expresan las propie-
dades de esta operación es esta:
(x · y) = (y · x)
De acuerdo con esta ley, al multiplicar un número x con uno y tendremos exactamente
el mismo número que al multiplicar primero y con x. Esta propiedad, tan sencilla, se
llama conmutatividad. Decimos, entonces, que la multiplicación es conmutativa porque no
importa si cambiamos el orden de los números, el resultado es el mismo: «el orden de
los factores no altera el producto». De igual forma, la suma es conmutativa porque vale
la siguiente ley:
(x + y) = (y + x)
Las operaciones lógicas también obedecen leyes algebraicas como esta. Por ejem-
plo, la conjunción y la disyunción también son conmutativas: no importa el orden de
los conyuntos, el valor de verdad no cambia; de igual forma, no importa el orden de
los disyuntos, el valor de verdad no cambia. Ahora veremos estas y otras reglas que
describen estas propiedades.
Reglas de equivalencia
186
Definición 56: Propiedades de Idempotencia
A A
Idem& Idem∨
A&A A∨A
Se dice que la conjunción y la disyunción son asociativas porque nos permiten «mo-
ver los paréntesis». Es decir, cuando tenemos una fórmula cuyas conectivas son so-
lamente conjunciones, o solamente disyunciones, dónde pongamos los paréntesis es
irrelevante. Y es irrelevante porque una manera de acomodar los paréntesis va a ser
equivalente con la otra. Recuerda que hablamos de fórmulas (o subfórmulas) que úni-
camente tengan a la conjunción, o a la disyunción, como conectivas principales.
Definición 57: Propiedades de Asociatividad
A & ( B & C) A ∨ ( B ∨ C)
Asoc& Asoc∨
( A & B) & C ( A ∨ B) ∨ C
A
D.N.
¬¬A
Finalmente, tenemos dos reglas que no son muy usuales, pero que también represen-
tan propiedades algebraicas del condicional material.
187
Definición 59: Propiedad de Conmutación de Antecedentes
A ⊃ ( B ⊃ C)
CoAn ⊃
B ⊃ ( A ⊃ C)
A
Exp ⊃
( A ⊃ A) ⊃ A
Reglas de inferencia
A⊃B A≡B
B⊃C S.H. B≡C S.H.
A⊃C A≡C
188
Definición 62: Propiedad de Distributividad del Condicional
A ⊃ ( B ⊃ C)
Dist ⊃
( A ⊃ B) ⊃ ( A ⊃ C)
Las dos siguientes son las primeras reglas incondicionadas que veremos en este
libro. Esto quiere decir que estas reglas no necesitan premisas: podemos introducir su
conclusión en cualquier momento de una demostración.
Definición 63: Propiedades de Reflexividad
Refl ⊃ Refl≡
A⊃A A≡A
Las reglas de interacción son esquemas de argumentos válidos cuyas premisas contienen
distintas conectivas principales. Así, como su nombre lo dice, este tipo de reglas nos
van a decir cómo interactúan las conectivas, es decir, qué argumentos que las contengan
son válidos. Vamos a ver de dos tipos: de equivalencia y de inferencia.
Las primeras reglas de interacción son las propiedades algebraicas de dualidad: un tipo
de equivalencia entre dos conectivas bajo la negación. Decimos que la conjunción y la
disyunción son «duales» porque una es el «espejo» de la otra. Piensa en sus tablas de
verdad: la tabla de la conjunción es la inversa de la tabla de la disyunción. A esta pro-
piedad de dualidad le corresponde un par de reglas que se conocen, tradicionalmente,
como «teoremas de DeMorgan» (por el lógico inglés del siglo XIX), y es el nombre que
usaremos aquí.
Definición 64: Propiedades de Dualidad (Teoremas de DeMorgan)
¬( A ∨ B) ¬( A & B)
DeM. DeM.
¬A & ¬B ¬A ∨ ¬ B
189
es la distributividad de la conjunción sobre la disyunción, y la segunda la distributividad
de la disyunción sobre la conjunción.
Definición 65: Propiedades de Distributividad
A & ( B ∨ C) A ∨ ( B & C)
Dist&/∨ Dist∨/&
( A & B) ∨ ( A & C) ( A ∨ B) & ( A ∨ C)
Una propiedad importante del condicional material es que toda fórmula condicional
es equivalente a su transpuesta. Esta solamente es la misma fórmula condicional pero que
dice: si no se da el consecuente, no se da el antecedente. Esto justifica decir que el
consecuente de un condicional material es una condición necesaria para el anteceden-
te: es un sine qua non. A esta regla de equivalencia se le conoce como «transposición»,
y es el nombre que usaremos aquí.
Definición 66: Transposición
A⊃B
Transp.
¬B ⊃ ¬ A
Resulta que cada una de las conectivas &, ∨, ⊃, ≡, puede definirse en términos de la ne-
gación y de cada una de las demás conectivas. Estos se muestra mediante las siguientes
reglas de inferencia. Vamos a usar la convención de poner primero la conectiva definida
y después la conectiva con la que se define.
190
Definición 67: Definiciones de la Conjunción
A&B A&B
&/ ⊃ &/∨
¬( A ⊃ ¬B) ¬(¬A ∨ ¬B)
A∨B A∨B
∨/& ∨/ ⊃
¬(¬A & ¬B) (¬A ⊃ B)
A⊃B A⊃B
⊃/& ⊃/∨
¬( A & ¬B) (¬A ∨ B)
A≡B A≡B
≡/∨ ≡/&
( A & B) ∨ (¬A & ¬B) ( A ⊃ B) & ( B ⊃ A)
Vamos a definir varios esquemas de argumento válidos. Estos son reglas muy bien co-
nocidas y muy importantes por la amplitud de sus aplicaciones. En cada caso, usamos
los nombres tradicionales.
Definición 71: Reglas de interacción
A⊃B A∨B
M.T. S.D.
¬B ¬A
Modus Tollens Silogismo Disyuntivo
¬A B
191
A⊃B A⊃B
C⊃D D.C. C⊃D D.C.
A∨C Dilema Constructivo ¬B ∨ ¬D Dilema Destructivo
B∨D ¬A ∨ ¬ C
A ⊃ ( B ⊃ C) Exp. ( A & B) ⊃ C Abs.
( A & B) ⊃ C Exportación A ⊃ ( B ⊃ C) Absorción
A Cond.
B⊃A Condicionalización
Nota que, en condicionalización, «B» es cualquier fórmula. Es decir: una vez que
sabemos que una fórmula es verdadera, podemos ponerla como consecuente de un
condicional con cualquier cosa como antecedente. Es fácil ver la validez de esta regla:
para cualquier fórmula A, si ella es verdadera, entonces el condicional B ⊃ A también
va a ser verdadero, sin importar qué valor tenga la fórmula B. Por lo tanto, esta regla
siempre preserva la verdad de las premisas y por lo tanto, es válida.
Ejercicio # 39
Formaliza los siguientes argumentos. Después de ello, demuestra su validez utilizando
las reglas de deducción natural para LC0.
I Sufro. Si sufro, lloro. Si lloro, hago catarsis. Si hago catarsis, me pongo extático.
Por otro lado, si es el caso que: si sufro entonces me pongo extático, entonces: si sufro,
disfruto. Por lo tanto, disfruto.
II Estudio. Si no repruebo, me regalan un auto. Si me regalan un auto y paso, seré
una persona virtuosa. Por otra parte, si estudio, no repruebo. O paso o repruebo. Por lo
tanto, seré una persona virtuosa.
III Si me ruegas, tenemos un gran futuro. Pues basta que me ruegues para que te
perdone; pero te perdono siempre y cuando no lo vuelvas a hacer; y si no lo vuelves a
hacer, tenemos un gran futuro.
IV Pasaré el examen de idiomas y me graduaré. Me graduaré, lo que requiere que
termine los créditos. O dejo el trabajo o no termino los créditos. O sea que, en definitiva,
todo lo anterior conlleva que voy a pasar el examen y voy a dejar el trabajo.
V Si te quiere, te trata bien. Pero si te trata bien, esperará reciprocidad. De ahí que,
si te quiere, esperará reciprocidad y le importará tu bienestar. Pues no va a pasar que:
espere reciprocidad y no le importa tu bienestar.
VI Ganaré la carrera. Esto lo infiero de todo lo siguiente: en primera, he entrena-
do. Además: o perderé la carrera o ganaré la carrera, o empataré. Aparte, sé que: no
empataré. Aunque, si perderé la carrera, no he entrenado.
192
VII Si aportas al Seguro Social, te descuentan. Si te descuentan, entonces, o pierdes
dinero o ahorras para tu futuro. Pero como aportas al Seguro Social, y sin perder dinero,
debo concluir que: estás ahorrando para tu futuro.
VIII Me odias. Esto lo infiero de todo lo siguiente: en primera, me lastimas. Además:
o me amas o me odias, o te soy indiferente. Aparte, sé que: no te soy indiferente. Aunque,
si me amas, no me lastimas.
IX
X
....................................................................................
Demuestra la validez de los siguientes esquemas de argumento utilizando las reglas
de deducción natural.
193
I 1. r ≡ (q ∨ s )
1. ¬q ⊃ ¬p 2. ¬s & r
2. (p ⊃ q ) ⊃ ¬(q ∨ s ) / ∴ ¬s /∴q
II X
1. ¬q ⊃ ¬¬p 1. ¬q ⊃ ¬p
2. ¬q & (¬p ∨ s ) / ∴ s 2. (p ⊃ q ) ⊃ ¬(q ∨ s )
III / ∴ ¬s
1. (¬r & ¬s ) ≡ q XI
2. q 1. p ⊃ ¬q
3. p ⊃ ¬¬(r ∨ s ) 2. (q ⊃ ¬p) ⊃ ¬(r ∨ s )
/ ∴ ¬p 3. ¬¬¬r ⊃ m
IV /∴m
1. t & (r ∨ q ) XII
2. t ⊃ ¬r 1. ¬(m&o) ⊃ ¬(q ⊃ s )
/∴q 2. q ⊃ (r ∨ t )
V 3. (t ≡ s )&(r ⊃ s )
1. s ⊃ ¬¬p /∴o
2. s & (¬p ∨ t ) XIII
/∴ t 1. s ≡ (t ∨ m)
VI 2. ¬(¬t ∨ ¬m)
1. r & (s ∨ t ) 3. ¬q ⊃ ¬s
2. r ⊃ ¬s / ∴ ¬¬q
/∴t XIV
VII 1. ¬(r &s ) ≡ (q ⊃ t )
1. (¬q ∨ r ) & t 2. (¬t ⊃ ¬q ) ⊃ p
2. t ⊃ ¬¬q 3. ¬s
/∴r /∴p
VIII
XV
1. p ⊃ ¬q
1. (r & m) ⊃ (¬s & ¬q )
2. p & (q ∨ s )
2. ¬(q ∨ s ) ⊃ (m ⊃ t )
/∴s
3. (¬t ⊃ ¬m) ⊃ (r & m)
IX
/ ∴ (m ⊃ t ) ≡ ¬(¬r ∨ ¬m)
....................................................................................
Completa las premisas y los pasos usados en la siguiente demostración. Voy a indicar
con una estrella («⋆») los lugares faltantes en las premisas que hay que completar.
I
194
1. p & ¬s
2. (r ⊃ ⋆) & (¬r ⊃ t ) / ∴ ¬¬t
3. E&(1)
4. E&(2)
5. ¬r
6. E&(2)
7.
8. D.N.(7)
II
1. ¬p&¬q
2. ¬(⋆ ∨ q ) ≡ (r ≡ s )
3. (t ∨ n)&s /∴r
4. DeM.(1)
5. s
6. E≡(2, 4)
7. r
El concepto de implicación lógica nos sirve para entender cómo se relacionan las fórmu-
las. De forma aproximada, una fórmula implica lógicamente a la otra cuando, solamente
en virtud de su forma, si la primera es verdadera la segunda también tiene que serlo.
Ya vimos una definición exacta de este concepto, en la sección 6.8: de acuerdo con
la definición 40, una fórmula implica semánticamente a otra, siempre y cuando su
condicional material sea tautológico. Es decir: una fórmula implica lógicamente a la
otra cuando no haya ningún caso posible en el que la primera sea verdadera, pero la
implicada sea falsa.
Ahora veremos una versión demostrativa de este concepto.
Definición 72: Implicación lógica—versión demostrativa
Por otro lado, el concepto de equivalencia lógica nos sirve para clasificar a las fórmulas.
De forma aproximada, dos fórmulas son lógicamente equivalentes cuando, solamente en
virtud de su forma, ambas son verdaderas y falsas en exactamente las mismas circunstan-
cias. Podemos decir que la lógica no distingue entre fórmulas lógicamente equivalentes.
195
Ya vimos una definición exacta de este concepto, en la sección 6.8: de acuerdo con la
definición 39, dos fórmulas son semánticamente equivalentes siempre y cuando su
bicondicional sea tautológico. Es decir: dos fórmulas semánticamente equivalentes «no
se pueden distinguir» porque van a ser verdaderas en exactamente los mismos casos y
falsas en exactamente los mismos casos.
Ahora vamos a ver otra forma exacta de entender esta idea de que dos fórmulas
lógicamente equivalentes «no se pueden distinguir por pura lógica».
Definición 73: Equivalencia lógica—versión demostrativa
Introducimos la notación para las versiones demostrativas, junto con la que ya tenía-
mos para las versiones semánticas:
Implicación demostrativa Si A implica demostrativamente a B, escribimos: A ⊢ B.
Implicación semántica Si A implica semánticamente a B, escribimos: A ⊨ B.
Equivalencia demostrativa Si A y B son demostrativamente equivalentes, escribimos:
A ⊣⊢ B.
Equivalencia semántica Si A y B son semánticamente equivalentes, escribimos: A ⊨⊨
B.
Como dijimos antes, no usaremos mucho esta notación, pero es importante que sepas
a qué se refiere.
196
⋆ La interpretación de LC0
•
•
⋆
Antecedentes d A finales del siglo XIX e inicios del XX, ocurrió un debate alrededor
de los fundamentos de las matemáticas. Algunos, como Gottlob Frege, pensaban que
todas las matemáticas podían reducirse a algunos supuestos básicos de la lógica, aunque
partiendo de esa base las demostraciones fueran muy largas. Estos supuestos solamente
definían el uso de algunos símbolos básicos —incluyendo a los símbolos que hemos
definido para las conectivas lógicas de LC0— y mostraban cómo interactuaban entre sí.
Sin embargo, Frege no pensaba que estos supuestos fueran arbitrarios. Él era un realista
acerca de las matemáticas y de la lógica: pensaba que las fórmulas describen un reino
objetivo, real, independiente de nosotros. Pero si las matemáticas y la lógica constituyen
un reino objetivo, que no creamos nosotros, ¿cómo podemos saber si estos supuestos
básicos son verdaderos o falsos? Es decir, ¿cómo podemos saber si estos supuestos
básicos describen a ese reino?
En el lenguaje cotidiano, las palabras que usamos forman oraciones, y estas pueden
ser verdaderas si describen correctamente las circunstancias, o falsas si no lo hacen.
Esto requiere, a su vez, que las palabras tengan un significado, para que, cuando las
usemos juntas, puedan describir a los objetos en el mundo.
En la lógica, es usual pensar que el significado está dado por la semántica formal.
En el caso de LC0, esta está dada por las tablas de verdad. Pero una vez que tenemos las
reglas (de inferencia y equivalencia) y la semántica formal, surge la pregunta de cómo
se relacionan entre sí.
En este proyecto vamos a dar una respuesta parcial a esa pregunta. Comenzamos con
una definición: un sistema de reglas de deducción natural es correcto respecto a una
semántica, siempre y cuando cada una de sus reglas es un argumento semánticamente
válido en esa semántica.
197
Problema d Resulta que el sistema de reglas que hemos visto es correcto. Para de-
mostrarlo, basta demostrar la validez de las reglas básicas. Este proyecto consiste en
demostrar la corrección del sistema que hemos visto.
Para ello, vas a demostrar que el sistema de reglas que consiste en:
• Las reglas de Introducción de &, ∨, ¬, ⊃, y ≡,
• las reglas de Eliminación de &, ∨, ¬, ⊃, y ≡, y
• la regla de Explosión
es correcto (es decir, que cada una de las reglas es un argumento válido). Para ello,
puedes utilizar cualquiera de los dos métodos semánticos.
198
IIIa parte:
199
capítulo
9
Aspectos elementa-
les de la cuantificación
Objetivos de aprendizaje
1. Que entiendas por qué la lógica LC0 es insuficiente, al tener limitaciones
expresivas.
2. Que te familiarices con los conceptos de predicación y de referencia a objetos
individuales.
3. Que entiendas la noción de variable y variable individual.
4. Que conozcas los cuantificadores universal y existencial, y sepas distinguir
el alcance de un cuantificador.
5. Que comiences a familiarizarte con la noción de modelo de la lógica cuanti-
ficacional.
201
omo vimos en capítulos anteriores, los sistemas lógicos que estudiamos en los cur-
C sos de lógica son teorías matemáticas, como la geometría, el álgebra o el cálculo.
Igual que toda teoría matemática, la lógica matemática estudia cierto tipo de estruc-
turas. Aquí, la motivación principal para la estudiar esas estructuras es que podemos
aplicarlas: estas estructuras matemáticas particulares nos interesan debido a que modelan
ciertos aspectos de la argumentación que hacemos en nuestros lenguajes y pensamien-
tos.
En este capítulo vamos a ver dos cosas, principalmente: primera, que la lógica LC0
es insuficiente para modelar muchas inferencias en el lenguaje natural que son lógica-
mente válidas «intuitivamente» —es decir, incluso antes de tener una teoría de ello—;
segunda, que podemos extender el de LC0 para representar ciertas estructuras lógicas
que no podemos representar con LC0. En capítulos posteriores revisaremos el lenguaje
extendido de forma sistemática, definiendo a un nuevo sistema lógico: la lógica clási-
ca de primer orden, LC1, y también veremos cómo se define su semántica formal y su
teoría de la demostración.
La lógica clásica de orden cero (LC0) es conocida también como «lógica proposicio-
nal», porque su objetivo central es estudiar las propiedades lógicas de operaciones que
pueden usarse para modelar conectivas que conectan proposiciones. Pero, fuera de estas
conectivas, la lógica de orden cero no estudia la estructura interna de estas proposicio-
nes.
Suponemos que las conectivas veritativofuncionales de la lógica clásica se correspon-
den, si no exactamente, al menos sí de una manera suficientemente aproximada, con
partículas del lenguaje natural. Si hay esta correspondencia, podemos suponer que el
aparato matemático de la lógica formal nos sirve como idealización del lenguaje natu-
ral, lo cual nos permite entender las características lógicas de muchos argumentos del
lenguaje natural mediante la aplicación de las técnicas matemáticas que podemos usar
con este aparato.
El estudio de estas características se enfoca en comprender, de manera matemáti-
camente exacta, el concepto de validez lógica. Como vimos antes (definición 10), este
concepto se puede entender así:
Un argumento es válido siempre y cuando: no existe ninguna situación ló-
gicamente posible en la que sus premisas sean todas verdaderas, pero la
conclusión falsa.
Y es importante notar que esta definición implica que un argumento puede ser vá-
lido aún cuando tenga premisas falsas,4 y que la definición también implica que un
202
argumento válido puede tener una conclusión falsa.5 También que tenemos definicio-
nes equivalentes a esta;6 pero, sobre todo, recordemos que vimos tres métodos —dos
semánticos y uno con la teoría de la demostración— para demostrar validez en LC0.
Pues bien: resulta que muchos argumentos que pensaríamos que son válidos, de hecho
no lo son en LC0.
203
2. r
∴s
Para reafirmar la sensación de que el argumento anterior es válido, consideremos este
argumento:
1. Angela Merkel es un ser humano.
2. Todos los seres humanos son seres vivos.
∴ Angela Merkel es un ser vivo.
Parece que el argumento sobre Merkel y el anterior argumento sobre Hipatia com-
parten algo: una estructura lógica. Esto quiere decir, simplemente, que uno es válido
siempre y cuando el otro lo sea también. Y ambos parecen válidos. Pero esto, de nue-
vo, no puede ser entendido con el modelo de la LC0, que los clasifica a ambos como
inválidos.
Otro ejemplo de la insuficiencia de la lógica proposicional es el siguiente:
1. Hipatia de Alejandría es una mujer sabia.
∴ Hay alguien que es una mujer sabia.
Al formalizarlo, otra vez tendremos dos proposiciones atómicas distintas. Sin embargo,
otra vez parecemos estar frente a un caso de validez: parece imposible que haya una
situación en la que Hipatia sea una mujer sabia, pero que sea falso que alguna mujer es
sabia. ¡Si Hipatía es sabia, alguien lo es!
Así que, o bien estamos mal al juzgar los argumentos anteriores como válidos, o
bien algo anda mal con la LC0. Pero tenemos al menos tres casos y, de hecho, como
vimos con el par de argumentos sobre Hipatia y Merkel, estos argumentos parecen
tener estructuras que siempre podemos «rellenar» con otras premisas, de manera que
se preserve la sensación de que estamos frente a argumentos válidos. Así, suponiendo
que aceptamos la validez de estos argumentos, debemos encontrar dónde falla la lógica
proposicional.
La respuesta que muchos filósofos han aceptado es que la falla de la lógica proposicional
está en sus pocos recursos expresivos. Es decir, el problema es que este sistema no puede
expresar ciertas estructuras de nuestro lenguaje que son importantes para la validez de
cierta clase de argumentos.
Como vimos arriba, la lógica proposicional estudia las conectivas con las que se
construyen proposiciones cuyo valor de verdad será una función de las proposiciones
204
que «conectan». Pero no se interesa por la estructura interna de estas proposiciones, más
allá de las conectivas veritativofuncionales.
Las estructuras del lenguaje que debemos entender para poder modelar la validez de
los argumentos sobre Hipatia y sobre Merkel son la referencia a los objetos individuales, la
predicación y la cuantificación. Ahora vamos a ver las dos primeras.
9.3.3. Predicación
Otra estructura importante en nuestro lenguaje es la que nos permite predicar atributos
a los objetos individuales, o relaciones entre ellos. Por ejemplo, podemos decir de Mark
Zuckerberg que es muy adinerado, o de esta mesa que está hecha de madera y pesa 10 kilos,
o de ti que estás leyendo. Estamos atribuyendo propiedades (cualidades y magnitudes) a
objetos individuales.8 Pero también podemos decir que tú estás leyendo este texto, de
Zuckerberg que es el creador de Facebook, y de esta mesa que está entre mi computadora
y el piso. En estos casos, atribuimos relaciones entre los objetos.
Mientras que las cualidades se predican de un solo objeto, las relaciones se predican
de varios. Diferentes relaciones se predican de diferentes números de cosas.
Definición 74: Adicidad
La adicidad—o, también, la aridad, o el número de lugares o número de
argumentos— de una relación es el número de objetos que pueden estar
relacionados mediante tal relación.
Por ejemplo, una relación binaria (o diádica) es una que siempre relaciona a dos
objetos, por lo que tiene dos «lugares»; como:
_ es más alto que _
que se podría «rellenar» así para conseguir una proposición:
Platón es más alto que Sócrates.
205
Una relación ternaria (o triádica), a su vez, relaciona a tres objetos, como:
_ está entre _ y _
que nos da una proposición siempre que «rellenemos» estos tres lugares, como en:
La estación Bellas Artes está entre la estación Allende y la estación Hidalgo.
(No es claro cuántos lugares pueda llegar a tener un predicado del Español (no se
me ocurre uno ejemplo «no artificial» de un predicado con 10 lugares, por ejemplo),
pero, como solemos hacer en lógica, vamos a hacer una generalización matemática.
Consideraremos predicados de cualquier número finito de lugares como parte del lenguaje
lógico que construiremos.)
Nota que la predicación y la referencia cumplen funciones complementarias en nues-
tro lenguaje. Podemos predicar propiedades y relaciones de los objetos una vez que
los hemos individuado y nos referimos a ellos, y referirnos a objetos regularmente sirve
para hablar de ellos—es decir, decir de ellos que son de tal o cual manera: predicarles
propiedades y relaciones.
....................................................................................
206
Como podemos ver, la estructura que distinguía la silogística abstraía—por no decir
que ignoraba—aspectos modificadores de la cópula, como la temporalidad, el número y
el género.11 Otro tipo de juicios que incluía sólo de manera muy poco natural eran los
juicios singulares, como el expresado por: «Tomás es inteligente». Esto sucede porque
en la silogística no tenemos manera de referirnos a individuos. La manera estándar
de lidiar con esta problema era agrupar a los juicios singulares como casos de juicios
universales. Así, «Tomás es inteligente» se convertía en «Todo el que sea idéntico a
Tomás es inteligente».
Estos aspectos resultan, por decir lo menos, forzados; pero por sí mismos no parecen
un error inescapable de la silogística. Los verdaderos problemas eran otros.
Uno surge por el siguiente hecho. Los esquemas silogísticos A, E, I y O sólo consi-
deran predicados que—como diríamos hoy, de acuerdo con la definición 74—tienen un
único lugar de argumento. Pero, de hecho, podemos razonar válidamente con predica-
dos de mayor adicidad. Por ejemplo, consideremos el siguiente argumento:
1. Hipatia vivió antes que Marie Curie.
∴ Alguien vivió antes que Marie Curie.
Parece que este argumento es válido, pero en la silogística aristotélica es difícil de-
mostrarlo. Existen maneras de intentar salvar el problema, pero resultan no sólo poco
naturales, sino que, además, no se extienden a una lógica de las relaciones por sí mis-
ma.12
El otro gran problema es conocido como el problema de la generalidad múltiple. Este
surge del hecho de que la silogística aristotélica sólo lidia con un único cuantificador.
Pero, para entender esto, primero vamos a hablar de la propuesta de Frege.
Gottlob Frege, el padre de la lógica moderna, propuso una nueva forma de pensar
en todo esto. En lugar de la estructura sujeto-cópula-predicado, Frege propuso la estruc-
tura entrada-función. Frege era un matemático que inicialmente trabajaba en temas de
geometría, pero pronto se dedicó a la lógica.
Como mencionamos antes, la silogística aristotélica
no tenía una representación natural de juicios singu- Frege nació el 8 de noviembre
lares, como «Tomás es inteligente», pues no tenía re- de 1848 en Wismar, hoy par-
glas para los juicios singulares. Bajo la propuesta de te de la provincia alemana de
Frege en la que la estructura lógica no es sujeto-cópula- Mecklenburg-Schwerin.
predicado, sino entrada-función, es fácil recuperar a los
juicios singulares. Según la postura fregeana, la estructura de ese juicio es «I (t )». Aquí,
«I » es una función—una regla de asociación entre dos conjuntos de cosas. Esta función
toma un objeto como entrada y nos devuelve otro: devuelve al objeto V —el valor de ver-
dad verdadero— si la entrada de hecho tiene la propiedad representada por la función,
y devuelve al objeto F —el valor de verdad falso— si la entrada no tiene la propiedad
207
representada por la función.13 En el caso de «Tomás es inteligente», la función I toma
como entrada a Tomás, y nos devuelve V si es que Tomás sí es inteligente, o el valor
F, si no lo es.
La propuesta fregeana también lidia fácilmente con las relaciones. Para ver eso, no-
temos que las funciones de más de un argumento son usuales en matemáticas. Por
ejemplo, la suma de números naturales es una función de dos lugares. Cuando digo,
por ejemplo, que 5+7 = 12, lo que estoy haciendo es aplicar la función suma—que deno-
to con «+»—al par de números (5, 7), y esto me dará al 12 como resultado. Podríamos,
entonces, también escribir así: «+(5, 7) = 12».
Frege utilizó esto para simbolizar la estructura lógica de los juicios relacionales. Así,
en su lógica (utilizando la notación contemporánea), el juicio «Hipatia vivió antes que
Marie» se simbolizaría así: A(h,m), donde el predicado «A» tiene dos lugares y repre-
senta a la relación vivir antes de, h refiere a Hipatia, y m refiere a Marie.
Todavía más: es fácil extender esto a predicados de más lugares. Por ahora, conclu-
yamos con esto: la lógica contemporánea tiene sus fundamentos en los revolucionarios
avances de Frege. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Para formalizar una oración, lo primero es distinguir los objetos particulares —los
individuos— de los que habla, así como las cualidades y relaciones —las propiedades—
que les atribuye. Esta distinción no es la misma que la distinción gramatical entre sujeto
y predicado. Por ejemplo, en la oración:
Juan golpeó a Pepe,
el sujeto gramatical es Juan, y Pepe el objeto directo, por lo que el predicado completo
es «golpeó a Pepe». Pero, en esta otra oración:
Pepe fue golpeado por Juan,
el sujeto gramatical es Pepe, y Juan el objeto directo (el predicado es «fue golpeado por
Juan»). Sin embargo, ambas oraciones expresan exactamente el mismo hecho.
Como el mismo hecho puede ser descrito por oraciones distintas, y como las ora-
ciones se distinguen por su estructura gramatical, a la lógica no le importa tanto la
estructura gramatical de la oración, sino la estructura lógica. Para la lógica cuantifica-
cional que estamos viendo, las categorías de individuo y propiedad son categorías lógicas,
no gramaticales. Los individuos son los objetos particulares —personas, países, cosas
inanimadas, planetas, etc.— a los que se les atribuye una cualidad o se los pone en una
relación.
Ya habiendo distinguido individuos y propiedades, el primer paso para formalizar es
definir una interpretación. (Falta un segundo paso, pero ese lo veremos en la sección 9.5.)
208
Como su nombre lo dice, una interpretación es una manera de asignarle predicados del
lenguaje natural a letras del lenguaje lógico, y nombres del lenguaje natural a constantes
del lenguaje lógico.
Para definir interpretaciones, vamos a establecer tres convenciones que seguiremos
en el resto del libro.
Convención 4. Vamos a utilizar las primeras letras minúsculas del alfabeto (a, b, c , d ,
. . . ) como nombres para los individuos (las últimas las reservaremos para las variables,
que veremos más adelante). A estas les llamaremos constantes individuales.
Convención 5. Vamos a utilizar letras mayúsculas para los predicados y las relaciones. Es
usual usar las letras F,G ,H como letras para propiedades de una cosa, y letras como
R,S como letras para relaciones entre dos o más cosas, pero voy a ser flexible con ello.
A ambas les llamaremos letras de predicado.
Convención 6. Vamos a utilizar letras minúsculas griegas: «𝛼», «𝛽 », . . . para representar
cualquier nombre de individuo:14 a, b, c , . . . A estas letras les llamaremos metavariables
individuales (o simplemente «metavariables», para abreviar).
Usamos metavariables —minúsculas griegas: 𝛼, 𝛽 , . . . — para aclarar cuántos lugares,
y en qué orden, tiene un predicado bajo una interpretación. También usamos paréntesis
para indicar a qué cosas «afecta» una letras de predicado.
Así, escribir algo como:
P (𝛼, 𝛽 , 𝛾)
nos dice que «P » es un predicado de tres lugares —es decir, que relaciona a tres cosas
entre sí—, y nos dice también en qué orden van: primero lo que sustituyamos por «𝛼»,
luego lo que sustituyamos por «𝛽 », y luego lo que sustituyamos por «𝛾». Los paréntesis
nos ayudan a ver «hasta dónde llega» la letra «P »: cuántos lugares tiene, a qué cosas
«afecta».
Veamos ejemplos de estos conceptos.
F (𝛼) : 𝛼 es filósofo.
Con esta interpretación, la proposición de que Alberto es filósofo se formaliza con la
fórmula:
F (a)
...................................................................................
Veamos otro ejemplo. Considera la proposición expresada por la oración «Pedro
golpea a Juan». Esta proposición habla de dos individuos—Pedro y Juan—y les
209
atribuye una relación: 𝛼 golpea a 𝛽 . Para formalizar esta proposición, defino una
interpretación:
a : Pedro
b : Juan
G (𝛼, 𝛽 ) : 𝛼 golpea a 𝛽 .
Y simplemente escribo la fórmula. Los predicados siempre van hasta la izquierda, y
uso paréntesis y coma para distinguir a los individuos:
G (a,b)
Esta fórmula representa a la proposición expresada por «Pedro golpea a Juan».
...................................................................................
En la lógica de predicados que estamos viendo, una relación puede relacionar a dos,
tres, cuatro o más individuos. (Cualquier número finito de ellos, de hecho.) Por su-
puesto, es inusual encontrarnos relaciones de cuatro lugares, pero esta proposición
incluye una:
El coche de Alicia se parece más al coche de Beto de lo que la moto de Cristina se
parece a la moto de Diego
La formalizaríamos con esta interpretación:
a : El coche de Alicia
b : El coche de Beto
c : La moto de Cristina
d : La moto de Diego
H (𝛼, 𝛽 , 𝛿, 𝛾) : 𝛼 se parece más a 𝛽 de lo que 𝛿 se parece a 𝛾
Resultando en la fórmula:
H (a,b,c ,d )
...................................................................................
Las relaciones de tres lugares son más comunes. Por ejemplo, la fórmula:
E (a,b,c )
formaliza a la proposición:
México está entre Estados Unidos y Canadá
con la siguiente interpretación:
a : México
b : Estados Unidos
c : Canadá
E (𝛼, 𝛽 , 𝛿) : 𝛼 está entre 𝛽 y 𝛿 .
...................................................................................
Por supuesto, una misma fórmula puede formalizar proposiciones distintas, si cam-
biamos la interpretación. Por ejemplo, la fórmula de arriba cambia su significado con
esta interpretación:
210
a : Padre Juan
b : Miriam
c : Alicia
E (𝛼, 𝛽 , 𝛿) : 𝛼 casó a 𝛽 con 𝛾 .
Bajo esta nueva interpretación, la fórmula E (a,b,c ) ahora significa que el Padre Juan
casó a Miriam con Alicia. Con una nueva interpretación —cambiando el significado
del predicado o de los nombres, o de ambos— tendremos que la fórmula representa
a otra proposición.
Las fórmulas de la nueva lógica también tienen estructura proposicional —es decir, tam-
bién pueden conectarse mediante las conectivas veritativo-funcionales de LC0.
Por ejemplo, si «H (d ,a)» representa a una proposición, entonces «¬H (d ,a)» es su ne-
gación lógica. Supongamos que (dada una interpretación que dejo implícita) «H (d ,a)»
representa que Diego es hermano de Alicia. Entonces, la fórmula «¬H (d ,a)» nos dice
que: es falso que Diego sea hermano de Alicia, es decir: que Diego no es hermano de
Alicia.
Nota cómo la negación sigue poniéndose hasta «afuera» de la proposición: así como
antes escribíamos «¬p», ahora escribimos «¬H (d ,a)». Las conectivas nunca se ponen
al lado de los nombres para individuo.
También las otras conectivas siguen significando lo mismo. Por ejemplo, si (bajo una
211
interpretación) «F (d )» significa que Diego es filósofo, la fórmula:
F (d ) & ¬H (d ,a)
nos dice que Diego es filósofo pero no es hermano de Alicia. La estructura proposicional
de esta fórmula es: A & ¬B. Como decíamos, las conectivas siguen usándose para operar
sobre proposiciones enteras, nunca sobre constantes de individuo.
Ya que vemos que las fórmulas siguen teniendo estructura proposicional, podemos
seguir utilizando las reglas de la lógica proposicional LC0 como siempre. De hecho,
podemos utilizar todos los métodos semánticos. Veamos un ejemplo.
Supongamos que formalizo un cierto argumento, después de lo cual veo que tiene
la siguiente estructura lógica:
1. H (d ,a) ∨ G (a)
2. ¬H (d ,a)
∴ G (a)
ejemplo 29
Es fácil demostrar que este argumento es válido, usando ya sea los métodos semán-
ticos o la deducción natural de LC0. Vamos a usar la segunda.
1. H (d ,a) ∨ G (a)
2. ¬H (d ,a)
∴ G (a)
3. G (a) S.D.(1, 2)
Es decir: las demostraciones proceden igual que siempre. Sólo tengo que ver la
estructura proposicional del argumento.
Ejercicio # 41
Formaliza los siguientes argumentos y demuéstralos usando el sistema de deducción
natural para LC0. Recuerda definir una o más interpretaciones, de manera que siempre
quede claro qué constantes representan a qué individuos y qué predicados representan
a qué propiedades (de uno o más lugares).
1. Canadá está arriba de México y México está arriba de Guatemala. Si Canadá
está arriba de México, entonces Canadá está arriba de Guatemala. Se sigue que
Canadá está arriba de Guatemala.
2. Pepe no es amigo de Beto. Se sigue que Ricardo es amigo de Pepe. Pues, tam-
212
bién, o Ricardo es amigo de Pepe, o Pepe es amigo de Beto.
3. Mercedes Benz no comprará a Apple. Esto se sigue de varias tesis. Mercedes
Benz comprará a Apple siempre y cuando Mercedes Benz tenga dinero. Esto su-
cederá si y solamente si Mercedes Benz venderá a BMW. Pero Mercedes Benz
no venderá a BMW.
4. Marx tenía dinero siempre y cuando El Capital fuera un éxito. Kant tenía dinero
siempre y cuando Crítica de la Razón Pura fuera un éxito. Si El Capital tenía éxito,
Marx era capitalista, y si Kant era un santo, Crítica de la Razón Pura tenía éxito.
Se sigue de lo anterior que Marx no tenía dinero, pero Kant sí. Pues, además de
lo anterior, también sucede que Marx era socialista y es falso que Kant no fuera
un santo. Y finalmente, si Marx era socialista, no era capitalista.
5. Marx influyó en Pepe, y este no tenía dinero. Por otro lado, es falso que Kant viva
en Guatemala. Sin embargo, si Canadá está abajo de México, Kant vive en Gua-
temala. Pepe comprará a Apple siempre y cuando tenga dinero. Por ello, Canadá
no está abajo de México y Pepé no comprará a Apple.
6. Si Mercedes Benz está en Berlín, no tendrá dinero. Ello lo inferimos de varios
hechos. Que Mercedes Benz esté en Berlín implica que Mercedes Benz está en
Alemania. Si Mercedes Benz está en Alemania entonces pagará impuestos en
Alemania. Y si Mercedes Benz paga impuestos en Alemania, entonces no tendrá
dinero.
7. O bien Pepe es amigo de Beto, o bien Ricardo es amigo de Beto. Si Ricardo es
amigo de Beto, entonces Beto tendrá dinero. Pepe no es amigo de Beto y además,
si Beto tiene dinero, dejará de trabajar. En conclusión, Beto dejará de trabajar.
8. Canadá no está abajo de México. Ello se infiere de: que Canadá esté abajo de
México equivale a que México esté arriba de Canadá. Y si México está arriba
de Canadá entonces Canadá y México hacen un tratado. Pero ellos no harán un
tratado.
9. Kant influyó en Hegel y este influyó en Marx. Marx era socialista. Si Marx era
socialista, entonces influyó en Lenin. Tomando lo anterior, tenemos que: Marx
influyó en Lenin y era socialista.
10. Apple es socialista siempre y cuando Marx influyó en Apple. Pero Hegel influyó
en Apple, y Hegel no es socialista. Si Hegel influyó en Apple, esta es capitalista.
Y si Apple es capitalista, no es socialista. De lo anterior, sabemos que Marx no
influyó en Apple.
213
9.4. Cuantificación y variables
Los argumentos sobre Hipatia que revisamos en la sección 9.2 nos muestran que debe-
mos investigar las características lógicas de la referencia y la predicación, pero que esto
no es suficiente.
Tenemos que formalizar los argumentos sobre Hipatia de manera que podamos dar
cuenta de su validez. Uno de estos argumentos incluye la frase «todos», mientras que
otro incluye la frase «alguna». Cualquiera que sepa hablar Español sabrá que, si todas
las cosas de un grupo son de cierta manera, entonces es válido inferir que una cosa
particular de ese grupo es de esa manera. Y cualquiera que sepa hablar Español sabrá
que decir de algo específico que es de cierta manera, nos permite inferir que alguna cosa
es de esa manera. Esto debemos formalizarlo y encontrar su estructura lógica.
La siguiente estructura que necesitamos es la cuantificación, que representaremos me-
diante los cuantificadores lógicos. Por ejemplo, el siguiente argumento:
1. Todos los perros tienen alguna correa
2. Todas las correas están hechas de cuero
/∴ Todos los perros tienen alguna cosa hecha de cuero
parece válido. Pero ocurren varios cuantificadores en sus premisas: tiene generalidad
múltiple.
Frege también resolvió este problema con su lógica.
La silogística aristotélica inten- La lógica que veremos aquí —la lógica de primer or-
tó formalizar esto con las cua- den con identidad, LC1=— es una parte de la lógica
tro figuras. Pero se enfrentaba de Frege. Con ella, podemos entender mejor argumen-
con el problema de la genera- tos como el anterior: podemos ver su estructura lógica
lidad múltiple. Como sólo usa de manera que nos permita demostrar su validez. Pero
un único cuantificador –en los resulta que, para poder hablar de «todos» y de «algo»
juicios de tipo A, «Todos», en —de los cuantificadores, que están en la base de la ló-
los de tipo I, «Algunos», y así–, gica que heredamos de Frege—, es necesario primero
es incapaz de dar un tratamien-
hablar de las variables.
to sistemático a los argumentos
con más de un cuantificador.
9.4.1. Variables
214
Usamos variables desde la educación básica, por ejemplo, en ecuaciones como:
x2 + y2 = r 2
Ahora necesitamos especificar cómo vamos a usar a los cuantificadores. Estas son nuevas
constantes lógicas que no son veritativo-funcionales (es decir, que no se definen por
una tabla de verdad como función de los valores de las proposiciones que conectan).
Estas constantes lógicas ligan variables. Con las variables representamos objetos no
especificados del conjunto de cosas de las que hablamos. Con los cuantificadores deci-
mos cuántos objetos del dominio son de la manera en la que predicamos a las variables.
Decir que un cuantificador «liga» a una variable simplemente quiere decir que es el
cuantificador que nos dice cuántos objetos del dominio son representados por esa va-
riable. Si una variable no está ligada, no podremos tener una fórmula con significado.
Veamos esto paso a paso.
215
Por ejemplo, predicarle «ser perro» a la variable x no nos da una oración significativa;
sería: «x es perro». Pero ¿qué representa «x» ahí? En cambio, al ligar esa variable con
un cuantificador y predicarle «ser perro», sí tenemos una oración con significado.
En esta lógica, vamos a reconocer solamente dos cuantificadores: «todos» y «al menos
uno». Entonces, si decimos algo como «toda x es un perro», estaríamos diciendo que
cualquier objeto que le asignemos como valor a la x, es un perro. Si ligamos la variable
con el otro cuantificador, diciendo «al menos una x es un perro», también estamos
diciendo algo con significado: que al menos un objeto del dominio, que le podemos
asignar como valor a la «x», es un perro.
Ambas oraciones ya pueden ser verdaderas o falsas. Qué valor de verdad tengan,
dependerá del conjunto de objetos de los que estamos hablando. En el primer caso,
si estamos hablando solamente de perros, será verdadero que «toda x es un perro»;
si no, será falso (¿Suena obvio? ¡Está bien! Eso nos dice que es la definición correcta
del cuantificador). Algo análogo si usamos el cuantificador existencial: «alguna x es un
perro» nos dice que al menos una de las cosas que encontramos en nuestro dominio va
a ser un perro, y será verdadera siempre y cuando en el dominio de la variable x hay
al menos un perro.
Pero (por sí mismos) estos cuantificadores no nos dicen un número específico: sólo
nos dicen si (de las cosas de las que estamos hablando en cada circunstancia) hay al
menos una cosa que es así, o si todas las cosas son así. Como después veremos, usando la
negación podemos también expresar que no hay ninguna cosa que sea así, o que algunas
cosas no son así (es decir, que no todas las cosas son así).
El sistema lógico que estamos usando es un sistema de primer orden porque los cuan-
tificadores ligan variables de individuos. En sistemas de cuantificación de segundo orden,
hay cuantificadores también para variables de propiedades. En sistemas de tercer or-
den, hay cuantificadores también para variables de propiedades de propiedades; y así
sucesivamente. La lógica de orden cero es la que no posee cuantificadores.
El primer cuantificador básico que veremos es el universal, que simbolizamos como «∀».
(Después veremos cómo definir otros cuantificadores con los dos básicos y las demás
constantes lógicas.) Como dijimos, los cuantificadores van a ligar variables, es decir,
nos dirán, usando una variable (x, y, . . .) para hablar de objetos de manera no específica,
cuántos objetos cumplen con lo que predicamos de la variable. Esto se logra poniendo
el cuantificador al lado de la variable que está ligando: si pongo «∀x», el universal está
ligando a la variable «x».
La lectura de «∀» es «todo/as lo/as...», como cuando decimos que «todas las luciérna-
gas son coleópteros» o que «todos los perros son mamíferos». Hay que notar qué sí y
216
qué no significa esto:
Sí significa «cada uno». Es ir uno por uno de los objetos que estamos considerando
hasta agotarlos todos. Como cuando decimos, de los calcetines en un cajón: «Cada
uno tiene su par», estamos diciendo que todo calcetín en el cajón tiene su par.
No significa «todos juntos». Como cuando decimos «Entre todos pudimos mover el
coche» o «Todos los del equipo ganamos». En estos casos, no queremos decir
que cada uno pudo mover el coche, o que cada uno del equipo ganó. Más bien,
queremos decir que todos juntos pudimos mover el coche, y que todos los del equipo
juntos ganamos.17
Sí significa «cualquiera», cuando es posible tomar cualquier cosa de un grupo y ésta
va a tener cierta cualidad: estamos diciendo que todas las cosas de ese grupo
tienen esa cualidad. Como cuando decimos «Cualquier libro de este anaquel que
tomes, va a ser sobre Geografía»: es decir, todos los libros de este anaquel son
sobre Geografía.
No significa «cualquiera», cuando queremos decir «basta con uno». Como cuando de-
cimos «Trae cualquiera de estos documentos: credencial, acta, o licencia». Esto
es, más bien, un sentido que corresponde al cuantificador existencial.
217
9.4.5. Alcance de un cuantificador, variables libres y ligadas
Es importante notar que, en nuestro lenguaje, toda fórmula que contiene al menos
una variable (también puede contener constantes) debe necesariamente contener no
sólo variables, sino también los cuantificadores correspondientes. Es decir: cadenas de
símbolos del tipo: R (x,a) no significan nada. Son sinsentidos —es como si, intentando
usar el Español, dijera: «Siempre servilleta hola». No tiene sentido. Será una cadena de
signos hecha con componentes —palabras y símbolos— del Español, pero no significa
nada. De la misma manera, «R (x,a)» no significa nada en LC1. Y no significa nada
porque la «x» que aparece ahí no refiere a nada en particular: es una variable, un símbolo
que puede tomar cualquier valor del dominio (del cual hablaremos abajo).
Las fórmulas que tengan variables, entonces, deben tener cuantificadores. Pero esos
cuantificadores deben de alguna manera estar «conectados» con esas variables. Defina-
mos:
Definición 77: Alcance de un cuantificador
El alcance de un cuantificador (ya sea existencial o universal) son todos
los símbolos dentro de la fórmula en la que se encuentra el cuantificador,
que están dentro del paréntesis más inmediato a ese cuantificador.
En (i), pero no en (ii), «G x » está dentro del alcance del cuantificador universal: en
(i), pero no en (ii), el paréntesis inmediato al cuantificador sí incluye a «G x ».
Lo mismo pasa con el cuantificador existencial:
iii. ∃x (H x & T x)
iv. ∃x (H x) & T x
De manera análoga, en (iii), pero no en (iv), «T x » cae dentro del alcance del exis-
tencial.
Una variable está ligada en una fórmula siempre y cuando esa variable
esté dentro del alcance de un cuantificador (ya universal, ya existencial) al
que, además, le siga esa misma variable. Una variable está libre siempre
y cuando esa variable no esté ligada.
218
Veamos ejemplos.
v. ∃x (H x ⊃ T x)
vi. ∃x H x ⊃ T y
vii. ∃y (H x ⊃ T x)
viii. ∃y H y ⊃ T x
ejemplo 31
Comprueba que lo que digo es cierto y que entiendes por qué: en el ejemplo (v), la
variable x (en ambas apariciones: con H y con T ) está ligada por el existencial. Sin
embargo, en el ejemplo (vi), la variable y , aunque está en el alcance del existencial,
no está ligada—pues el existencial está ligando a x , y no hay otro cuantificador. En
el ejemplo (vii), las dos apariciones de la variable x están libres. Finalmente, en el
ejemplo (viii) la variable x (aunque está dentro del alcance del existencial) no está
ligada: está libre.
Como las fórmulas de nuestro lenguaje son análogas a las palabras y oraciones del
Español, al ser las unidades de significado, ninguna fómula de nuestro lenguaje pue-
de tener variables libres: todas las variables deben estar ligadas por un cuantificador.
¡Pero sólo por uno! El siguiente ejemplo:
ix. ∃x∀x (H x ⊃ T x)
tampoco es fórmula de nuestro lenguaje, pues la variable x en ambas apariciones está
«ligada» por dos cuantificadores. En este caso, no sabemos si hablamos de alguna o de
todas las cosas.
En el próximo capítulo vamos a definir rigurosamente el lenguaje de la lógica LC1.
Antes de ello, veamos ejemplos de cómo sería un proceso de formalización. (Esto no
es completamente riguroso, pues para ello necesitamos definir modelos, que es lo que
haremos abajo.) Vamos por pasos, empezando por el lenguaje natural y terminando en
el lenguaje completamente formal.
Ana es filósofa.
Fa
Ana no es golfista
ejemplo 32
¬G a
Todos somos filósofos y algunos son golfistas
Todos son F & algunos son G .
Todo x es F & algunos x son G .
Todo x : F x & algunos x : G x .
∀x (F x) & ∃x (G x) .
Todos los filósofos son amigos de Ana
219
Todos los F son amigos de a .
Todo x que sea F , será amigo de a .
Todo x , si es F , es amigo de a .
Todo x : F x ⊃ x es amigo de a .
Todo x : F x ⊃ A(x,a) .
∀x [F x ⊃ A(x,a)] .
Todos los filósofos son amigos de algún golfista
Todos los F son amigos de algún G .
Todo x que sea F es amigo de algún y que es G .
Todo x , si es F , entonces x es amigo de algún y : G y .
Todo x : F x ⊃ x es amigo de algún y : G y .
Todo x : F x ⊃ ∃y : x es amigo de y y G y .
Todo x : F x ⊃ ∃y : A(x, y) & G y .
∀x [F x ⊃ ∃y (A(x, y) & G y)] .
Ejercicio # 42
Di si las siguientes cadenas de símbolos son o no fórmulas. Si una no es fórmula,
explica por qué.
1. P a 2. H (m,b)
3. ∀x (P x) 4. ∃x (P x ∨ Dx)
5. ∃y (P y) 6. ¬R (m,b)
7. ¬T (a,e ,b) ∨ P a 8. ¬H (m,x)
9. ¬T (a,x, y) 10. ∃x [R (a,d )] ⊃ ¬¬A(c ,e )
9.5. Modelos
A las fórmulas que usamos en LC1 les asignamos un significado. Esto es como en el
Español: las letras significan algo. Les asignamos significado cuando formalizamos
argumentos: cuando pasamos del lenguaje natural al de la lógica. También cuando
interpretamos argumentos en el lenguaje formal, pasando del lenguaje de la lógica al
lenguaje natural.
La manera rigurosa de explicitar cómo es que les asignamos significado a los símbolos
es mediante los modelos:
Definición 79: Modelo
Un modelo es un par de una interpretación y un dominio:
• Un dominio es un conjunto de cosas: el conjunto de cosas de las
220
que estamos hablando en las oraciones que formalizamos.
• Una interpretación es un «diccionario» que nos dice a qué cosas
(individuales) del dominio refieren las constantes, mientras que los
predicados van a ser propiedades y relaciones de esas cosas del
dominio, y las variables van a significar cualquier cosa individual del
dominio.
Para que las reglas que veremos después (sección 11.4) funcionen con las menores
complicaciones posibles, vamos a poner las siguientes restricciones sobre las interpre-
taciones de todo modelo:
• Cada constante individual de las fórmulas que interpretaré con ese modelo debe
referir a un elemento del dominio: no puede haber una constante que no refiera
a nada, o que refiera a algo que no está en el dominio de mi modelo.
• Debemos poder ser capaces de introducir un nuevo nombre para cada elemento
del modelo que consideremos.19
El dominio de un modelo puede ser irrestricto20 o restringido. Vamos a definir estos
conceptos.
Definición 80: Dominios restringidos e irrestrictos
Una tercera posibilidad sería usar el conjunto vacío: el conjunto que no contiene a
absolutamente nada. Sin embargo, por razones de las que hablaremos después, los
dominios de nuestros modelos nunca son vacíos: deben ser siempre conjuntos que
contengan a al menos una cosa. Vamos a establecer esto como una convención que
observaremos en el resto del libro.
Convención 7. Para todo modelo, su dominio es un conjunto no vacío.
Cuando en un modelo usamos el dominio irrestricto, vamos a necesitar restringir los
cuantificadores de las fórmulas que interpretemos con ese modelo. Hablaremos de esto
abajo, en la sección 10.3.
Los dominios restringidos, como no incluyen a todas las cosas, pueden servirnos para
interpretar o formalizar oraciones que hablen de cosas específicas. Por ejemplo, para
formalizar «Todos los hombres son mortales», puedo usar un modelo cuyo dominio consista
en el conjunto de todos los hombres, de manera que al formalizarlo, el cuantificador
221
universal «∀x» —que siempre significa «todo lo del modelo»— signifique «todos los
hombres».
Es muy importante recordar que, dado un modelo para una fórmula (o conjunto
de fórmulas) todas las variables de las fórmulas que interpreto con ese modelo corren
sobre el dominio de ese modelo (es decir, toman sus valores en ese dominio). Esto es
importante, porque significa que no se puede definir dominios para cada una de las
variables que tengo en la fórmula que estoy interpretando.
Esto no tendría sentido, porque las variables corren por todo el dominio, y porque
no hay nada que me impida escribir la fórmula anterior («∀x∃y R (x, y) ») de la
siguiente forma:
∀y∃x R (y,x) ,
que dice exactamente lo mismo (nota que he cambiado el orden de las variables
también dentro del predicado). De igual manera, ambas fórmulas dicen exactamente
lo mismo que:
∀w∃z [R (w, z )]
Es indistinto qué variables use, siempre que mi uso sea uniforme. Una variable no tie-
ne un significado por sí misma: sólo significa algo cuando está ligada. Y no se refiere
a un tipo de cosa particular: sólo cuando restringimos los cuantificadores podemos
hablar de tipos de cosas, como veremos abajo, en la sección 10.3.
En resumen: usamos siempre un dominio para cada modelo porque qué variables use
es irrelevante—siempre que todas estén ligadas, y que me fije en la importancia del
orden, de lo cual hablaremos después.
222
Considera este ejemplo:
Modelo 1
Dominio: El conjunto de los alumnos en el salón 113.
Interpretación: a : Ana. b : Beto. c : Clara. Q (𝛼, 𝛽 , 𝛾) : 𝛼 quiere más a 𝛽 que a 𝛾 .
M (𝛼, 𝛽 ) : 𝛼 es amigo/a de 𝛽 .
ejemplo 34
223
Resumen del capítulo
⋆ Debemos distinguir la estructura de predicación y referencia en las propo-
siciones. Esto lo hace la lógica de primer orden, LC1.
⋆ Las fórmulas de LC1 también pueden tener estructura proposicional.
⋆ La lógica LC1 también agrega variables y cuantificadores al lenguaje lógico.
⋆ El cuantificador existencial, «∃», significa «al menos una cosa del conjunto
de cosas de las que hablamos».
⋆ El cuantificador universal, «∀», significa «todas las cosas del conjunto de
cosas de las que hablamos».
⋆ Los cuantificadores tienen alcances, de manera que ligan todas las variables
en su alcance.
⋆ Una variable libre no está ligada por ningún cuantificador; una variable
ligada, sí.
⋆ Las fórmulas de nuestro lenguaje nunca pueden tener variables libres.
Notas
2. Recuerda que las conectivas lógicas son operaciones; ahora bien, toda operación es una función y, a su
vez, toda función es una relación.
4. Un argumento que es válido y además tiene sólo premisas verdaderas se conoce como un argumento
sólido (definición 11). Es claro que la conclusión de un argumento sólido tiene que ser verdadera.
5. Como también hemos notado anteriormente, Sólo que en ese caso, debe suceder que al menos una de
sus premisas también sea falsa.
Como hemos venido haciendo, tomaremos ambas definiciones como una sola, dada su equivalencia.
7. En metafísica, hay un debate sobre si los individuos existen o son una proyección de nuestro sistema
cognitivo o nuestro lenguaje; y en caso de existir, también es controvertida la cuestión de cómo son
exactamente. Ver: Díaz Herrera, 2014, y Dasgupta 2016. Pero aquí nos enfocaremos en los aspectos
224
lógicos de la referencia a los individuos, suponiendo que estos existen (fundamental o derivativamente),
o, al menos, que podemos conceptualizar al mundo—de una manera coherente—como si estos existieran.
9. Un texto básico y amigable para comprender el paso de la silogística a la lógica moderna, de la cual me
serviré extensamente en esta nota, es Moro Simpson 1975, capítulo 1. También es importante recalcar
que me enfocaré en los silogismos categóricos, mientras que Aristóteles distinguió otros tipos.
10. De hecho, Aristóteles distinguió tres: Universal, particular e indeterminado (Segundos Analíticos, 24a17-
24a20).
11. Pero no la modalidad, como los adverbios «necesariamente» o «posiblemente», pues existía la teoría de
los silogismos modales.
13. De hecho, la ontología de Frege no es exactamente esta. Frege pensaba que las propiedades son funciones,
pero yo solamente estoy asumiendo que las funciones representan propiedades. Ver Frege, «Función y
concepto» y «Concepto y objeto» en Estudios Sobre Semántica; ver también Valdivia 1989.
14. También cualquier variable individual, concepto que revisaremos en la sección 9.4.1.
15. La historia del concepto de variable es muy interesante, pues es la médula de la historia del Álgebra.
Probablemente los padres del concepto sean el griego Diofanto, el hindú Brahmagupta, y el árabe al-
Juarismi. Ver Tabak 2004.
17. Este tipo de cuantificación se conoce como cuantificación plural. Se ha argumentado que podemos
diseñar una lógica de la cuantificación plural, que serviría para muchos propósitos lógico-filosóficos;
pero la cuantificación plural cae fuera de los poderes expresivos de la lógica clásica de primer orden con
identidad. El artículo clásico sobre el tema es de George Boolos (1984). Uno de los pocos artículos en
español que introduce este tema es Jané (1995), pp. 122-123.
18. Esto probablemente es por principios pragmáticos que gobiernan a la comunicación mediante lenguajes
naturales, y que la hacen más «práctica» para los agentes involucrados en una conversación. Por ejemplo,
suponer que «algunos» implica que «no todos» quizá esté motivado por la Máxima de cantidad de Grice:
«Haga su contribución tan informativa como se requiera (de acuerdo con el propósito de la comunica-
ción)». (Ver Grice 2005.)
19. Esto es para que no suceda que, mientras en nuestro modelo alguna cosa a es F , como no podemos
nombrar a a, no podremos construir la fórmula que diga que a es F . Si además, a fuera la única cosa
F , no podríamos inferir la oración verdadera en ese dominio: ∃x (F x). (Nota técnica: esto se pone difícil
225
cuando hablamos de modelos con dominios que tienen cierto tamaño infinito (≥ ℵ1 ), pues claramente
hay muchas menos constantes que elementos de tales dominios. Pero lo único que estamos requiriendo
aquí es que: para cada objeto del que hablemos (que esté en el dominio de algún modelo de una fórmula
que interpretemos) podamos nombrarlo con este lenguaje.)
20. Si de hecho podemos cuantificar sobre absolutamente todo (e incluso suponiendo que podemos, si al
hacerlo el dominio es un conjunto) es debatido en metafísica, filosofía de la lógica y de las matemáticas,
pero aquí pondremos entre paréntesis al problema. Ver los artículos en Rayo y Uzquiano 2007.
226
capítulo
10
El lenguaje de LC1
Objetivos de aprendizaje
1.
2.
227
10.1. La gramática de LC1
10.1.1. El alfabeto
228
10.1.2. Las fórmulas
Vamos a definir las fórmulas del lenguaje de nuestra lógica cuantificacional LC1 median-
te una definición recursiva. Estas reglas son un poco «técnicas»;2 pero lo verdaramente
importante es, más que aprendérselas al pie de la letra, saber reconocer qué es y qué
no es una fórmula del sistema.
Como en algunos casos necesitaremos referirnos a partes de fórmulas en las que hay
variables libres, a esas les llamaremos «matrices». Por ejemplo, «F x» es una matriz, pues
tiene a x libre. Otra matriz es «∃x (F x ∨ G y)», pues tiene a y libre. Una matriz no es
una fórmula de nuestro lenguaje, pero sí puede ser una parte de una fórmula.
Definición 82: Lenguaje de LC1
229
10.1.3. Notaciones alternativas
Aunque el uso de los simbolos «∀» y «∃» ya es muy común, en algunos textos todavía
se usan símbolos distintos para los cuantificadores universales y existenciales. Veamos
con ejemplos que son fácilmente generalizables.
Para cuantificaciones universales como «∀x (F x)»:
Û
(x)(F x) x (F x) Πx (F x)
Aquí usaremos la notación estándar, pero es bueno tener en cuenta que otros textos
podrían decir lo mismo con distintos símbolos.
230
Es obvio que son cosas muy distintas: mientras que la primera dice que Beto es muy
querido en su grupo, la segunda dice que Beto tiene «corazón de condominio».
Sigamos con el caso de una sola variable, pero ahora ligada por un existencial (y
usando a Ana en vez de a Beto). Aquí también tenemos solo dos opciones:
231
Podemos ver rápidamente que estas cuatro fórmulas son distintas entre sí—ninguna
es lógicamente equivalente con otra: ninguna implica-y-es-implicada por otra.
Sin embargo, algunas sí implican a (pero no son implicadas por) otras, a saber: (3.8)
implica a (3.6), y (3.7) implica a (3.5), pero no viceversa. Esto es porque, si (como dice
3.8) al menos una persona ama a todas, entonces es necesario que (como dice 3.6) toda
persona tiene al menos alguien que la ame (a saber: ¡esa que ama a todas!) También,
si (como dice 3.7) alguien es amado por todos, entonces es necesario que (como dice
3.5) todos amen a al menos alguien (a saber: ¡ese que es amado por todos!)
Esto, de hecho, es general: cuando Φ es cualquier predicado (en el que no aparecen
ningunas otras variables libres), la fórmula:
∃y∀x Φ(y,x)
implica lógicamente a:
∀x∃y Φ(y,x) .
Pero la conversa no vale: no es cierto que: ∀x∃y Φ(y,x) implique lógicamente a:
∃y∀x Φ(y,x) . El contraejemplo podemos tomarlo de los casos que ya vimos: que ca-
da persona tenga al menos otra que la ame no implica que haya alguna persona que
ame a todos. De igual manera, la fórmula:
∃y∀x Φ(x, y)
implica lógicamente a:
∀x∃y Φ(x, y) ,
pero no viceversa (y el contrajemplo también es sencillo: que todos amen a alguna
persona, no implica que haya una persona específica a la que todos amen).
232
10.3. Restringiendo los cuantificadores
Muchas veces, cuando decimos «todos» no queremos decir realmente todos. Por ejemplo,
suponte que fuimos a la tiendita a comprar botanas. Después, me preguntas: ¿En dónde
están las papas que compramos? y yo te digo:
Obviamente, eso no significa que todo lo que existe en el universo esté en la mesa: hablo
de «todo» en un sentido restringido: de todo lo que compramos.
Supongamos que definimos un modelo para formalizar lo que dije. Si no uso un mo-
delo cuyo dominio esté ya restringido a las cosas que compramos (ver arriba: sección
9.5), debo restringir los cuantificadores. Usemos un modelo irrestricto y como interpre-
tación, definamos: E es la relación de estar en y usamos m para nombrar a mi mesa.
Entonces, la formalización más perspicua (es decir, la que mejor refleja la forma lógica)
de la oración 10.9 no es:
∀x [E (x,m)], (10.10)
que significaría «Todo —absolutamente todo— está en mi mesa», sino que debo introdu-
cir un predicado (de un solo lugar) para las cosas que compramos. Usando «C » para
ello, la formalización más adecuada es:
∀x [C x ⊃ E (x,m)] , (10.11)
233
Supongamos que, en lugar de 10.11, usara:
∀x [C x & E (x,m)] (10.14)
Eso dice algo distinto de lo que dice 10.9. Esto dice que todo es algo que compramos y
que, además, está en mi mesa. Pero es falso que todo sea algo que compramos, y es falso
que todo esté en mi mesa. Y si en lugar de la conjunción en 10.14 hubiera usado una
disyunción, estaría diciendo que, todas las cosas, o las compramos o están en mi mesa.
Pero eso, de nuevo, es falso (yo ni soy algo que compramos ni estoy en mi mesa).
Si hubiera usado un bicondicional (para tener «∀x [C x ≡ E (x,m)]»), diría también
algo distinto: cualquier cosa es algo que compramos siempre y cuando esté en mi mesa:
si está en mi mesa, es algo que compramos; si es algo que compramos, está en mi mesa.
Pero esto tampoco es lo que dice 10.9: en particular, no dice que todo lo que esté en mi
mesa es algo que haya comprado.
En resumen: decir «Todos los A son B» debería significar que cada cosa del dominio
que sea A, va a ser B. Es decir: que cada cosa que encuentres que sea A, esa va a ser
un B: toda cosa, si es A, entonces será B. Y en la lógica clásica esta relación —la de un
«si. . . entonces. . . »— es el condicional material.
Podemos ir por las demás conectivas diádicas clásicas que hemos definido y notar
que no podrían funcionar porque no dicen lo que queríamos decir. Veamos:
• Una disyunción con el universal nos diría: «Toda cosa (en el dominio), o bien es
A, o bien es B (o ambas)».
• Una conjunción nos diría: «Todo es A y además es B».
• Un bicondicional nos diría: «Todo lo que está en el dominio, si es A, también es
B, y si es B, también es A».
Ninguna de estas tres nos dice lo mismo que «Todo (en el dominio) lo que es A, es B», lo
cual nos deja solamente al condicional material, que sí nos da el significado adecuado.
Por supuesto, la restricción puede ser más específica. Supongamos que en la tienda
compramos bolsas de papas y carbón para el asador, pero que quiero decir específica-
mente que las bolsas de papas que compramos (pero no todo lo que compramos: el carbón
no) están en la mesa:
Las papas que compramos están en la mesa. (10.15)
Como antes, para formalizar esto, debo restringir los cuantificadores de mi fórmula.
Entonces, para formalizar 10.15, definamos el predicado «B» para la propiedad de ser
una bolsa de papas. Ahora tenemos:
∀x [(Bx & C x) ⊃ E (x,m)] , (10.16)
que, leída literalmente, diría:
Toda cosa, si es una bolsa de papas y la compramos, está en mi refri. (10.17)
234
y que simplemente es una manera «sofisticada» de decir:
Así, ahora restrinjo el cuantificador para hablar de cosas que cumplen la restricción
«doble» de que la hayamos comprado y sea una bolsa de papas, y digo de esas cosas
que están en mi mesa.
Pero, ¡cuidado!: No siempre que haga una restricción «compuesta», está será
formalizable usando una conjunción en el antecedente. En algunos casos específicos
es más adecuado usar una disyunción. Por ejemplo:
¿Qué tan buena idea sería formalizarlo así? (usando, obviamente, «T » para denotar a
la propiedad de ser algo que trajiste):
Respuesta: no es buena idea. Pues 10.20 dice, literalmente, que toda cosa que hayamos
comprado y que, además, hayas traído, está en mi mesa. Pero eso no era lo que yo quería
decir. Quería decir que: todo lo que compramos, además de todo lo que trajiste, está en
mi mesa. La primera oración habla de aquéllo que satisface la condición «doble» de
que lo hayamos comprado y lo hayas traído; la segunda habla de aquéllo que, o bien
satisface la condición de que lo hayamos comprado, o bien satisface la condición de que
lo hayas traído. Esta es la lectura correcta de 10.19, aunque la aparición de «y» puede
ser inicialmente confundente. Y se formaliza:
que, ahora sí, dice de toda cosa que o hayamos comprado o hayas traído (o ambas) que
está en mi mesa.
La diferencia entre este caso y el anterior (el de las papas que compramos, 10.18) es
esta: en el primer caso, me restrinjo a hablar de cosas de un tipo (las que compramos)
que además son de un sub-tipo (dentro de las cosas que compramos, las que sean
bolsas de papas). En el segundo caso (el de lo que compramos y lo que trajiste: 10.19),
hablo de, por un lado, todo lo que cumple una condición, y por otro lado, de lo
que cumple otra condición —pero no presupongo que haya cosas que cumplen ambas
condiciones (que las hayas comprado y que las trajiste).
Otra manera de ver estas diferencias es que el caso de lo que compramos y lo que
trajiste sí puede formalizarse con una conjunción, pero no dentro de la restricción del
cuantificador, sino una conjunción de dos oraciones cuantificadas:
235
Aquí es más claro que, por un lado, hablamos de todo lo que compramos, y por el otro,
hablamos de todo lo que trajiste.
Sin embargo, es claro que esto no funciona en el caso de las restricciones «dobles» (o
«triples», o etc.), como en el caso de las bolsas de papas que compramos. En ese caso,
la siguiente fórmula:
∀x [C x ⊃ E (x,m)] & ∀x [Bx ⊃ E (x,m)] (10.23)
dice:
Todas las papas están en la mesa, y todo lo que compramos está en la mesa, (10.24)
que no es lo que quería decir con 10.19: Ni todas las papas están en el refri (no están
las papas que se están comiendo en un bar en China, por ejemplo), ni todo lo que
compramos está en la mesa (no están el carbón). Hablamos en un sentido restringido.
Cosas parecidas suceden con el cuantificador existencial. Si digo:
Alguien se tomó mi cóctel, (10.25)
claramente no pienso en que alguien en el universo se tomó mi cóctel. Regularmente al
hacer este tipo de afirmaciones, tengo un dominio restringido en mente: quizá, por
ejemplo, me refiero a alguien de los que están en mi casa. Entonces (usando N para la
propiedad de estar en mi casa, T para la relación de tomar a, y h como constante para
mi cóctel), la formalización correcta de 10.25 sería:
∃x (N x & T (x,h)) (10.26)
¿Por qué, a diferencia de lo que sucede con el cuantificador universal, aquí usé la con-
junción?
Porque, a diferencia de lo que pasa con el universal, poner un condicional para res-
tringir un existencial en realidad no crea ninguna restricción. Veamos. Tomemos
10.26 y cambiemos:
∃x (N x ⊃ T (x,h)) (10.27)
Esta fórmula dice que hay al menos una cosa que, si está en mi casa, se tomó mi cóctel. Sin
embargo, ese enunciado es verdadero incluso debido a cosas que no están en mi casa:
Leo Messi no está en mi casa, pero es verdad decir que: Si Leo Messi está en mi casa, se tomó
mi cóctel. Esto es así porque estoy usando un condicional material, y este condicional es
verdadero si su antecedente es falso. Por esa razón, usar un condicional para restringir
un existencial en realidad no crea una restricción, pues la fórmula existencial (como
10.27) puede ser verdadera incluso por cosas que no cumplan con esa restricción.
Para finalizar, las restricciones para los cuantificadores en las fórmulas también pue-
den ocurrir cuando tengo más de un cuantificador. La idea básica es simplemente res-
tringir cada cuantificador con su conectiva apropiada (los universales con «⊃» y
los existenciales con «&»).
236
Supongamos que en una reunión, compramos una pizza que, afortunadamente, al-
canzó para todos. Me preguntas si las rebanadas de pizza alcanzaron para todos, y
te respondo que:
Todos comieron al menos una.
Obviamente, al decir «una», quiero decir una rebanada de la pizza que compramos.
ejemplo 35
Y también, no estoy hablando de toda persona del universo: hablo de todas las que
estuvieron en la reunión. Entonces podemos definir un modelo, con un dominio irres-
tricto, usando estos predicados:
• E (𝛼) : 𝛼 es una persona que estuvo en la reunión.
• R (𝛼) : 𝛼 es una rebanada de la pizza que compramos en la reunión.
• C (𝛼, 𝛽 ) : 𝛼 se comió a 𝛽 .
Con lo que la oración se formalizaría así:
∀x Ex ⊃ ∃y Ry & C (x, y)
Ejercicio # 44
En la siguiente imagen, cada cuadro representa una situación (modelo) distinta. En cada
situación, una flecha a → b representa que A(a,b) . Debes imaginar que en Situación
↷
2 cada gato tiene una flecha que parte desde sí mismo y llega a sí mismo, como en: a
(de manera que A(a,a) ).
En cada situación (modelo) interpretaremos las fórmulas tomando como Dominio =
{perro 1, gato 1, gato 2, gato 3, gato 4}, y con Interpretación: P er r o (𝛼) : 𝛼 es un pe-
rro. G ato (𝛼) : 𝛼 es un gato. A(𝛼, 𝛽 ) : 𝛼 es amigo de 𝛽 , esta relación cambia en cada
situación.
237
I Relaciona cada fórmula con la situación que describe, de manera que a cada
fórmula le corresponda una y sólo una situación:
(a) ∃x∃y [P er r o (x) & (G ato (y) & A(x, y))] Situación 1
(b) ∃x∃y [P er r o (x) & (G ato (y) & A(y,x) & ¬A(x, y))] Situación 2
(c) ∃x [P er r o (x) & ∀y (G ato (y) ⊃ A(x, y))] Situación 3
(d) ∀x∀y [(G ato (x) & G ato (y)) ⊃ A(x, y)] Situación 4
II En Situación 1, «voltea» todas las flechas: donde hay un a → b , ve un a ← b .
¿Cómo formalizarías esa situación?
III Si en Situación 4 agregáramos una flecha sobre perro 1 de manera que se viera
↷
así: perro 1, ¿Qué fórmula la describiría? Escríbela.
238
10.4. Generalidad múltiple
Parece que este argumento es válido. Para comprobarlo, tenemos que demostrarlo
mediante los métodos lógicos que veremos después. Pero ello requiere que podamos
formalizar oraciones con más de un cuantificador, que es lo que aprenderemos en esta
sección.
En otros casos, dentro del alcance del mismo cuantificador ocurren otros cuantificado-
res.
239
Algunos filósofos han escrito al menos un libro
Es importante notar que esta proposición tiene la misma forma que otras proposiciones
existenciales que hemos visto antes. Al final de las cuentas, nos dice que hay algunas
cosas que cumplen con dos propiedades. Entonces, su forma va a ser muy parecida a la
de otras proposiciones que, aunque son más simples, también predican dos propiedades
de algunas cosas, como:
Algunos filósofos son irreverentes: ∃x (F x & I x)
o como:
Algunos filósofos son tranquilos: ∃x (F x & T x)
Por ello, «Algunos filósofos han escrito al menos un libro» va a seguir la misma forma:
∃x (F x & . . .),
donde los tres puntitos van a contener el predicado «haber escrito al menos un libro». Re-
sulta que este predicado consiste en una relación: «haber escrito», que es una relación
entre dos objetos: alguien que escribe y aquello que escribió. Y vemos que lo que rela-
ciona, en este caso, es a alguien con al menos un libro. A su vez, esta última expresión
es una cuantificación: «al menos un» es un cuantificador existencial.
Poniendo todo lo anterior junto, resulta que el predicado «haber escrito al menos un
libro» debería formalizarse más o menos así: «∃y (E (x, y) & Ly)», es decir: hay al menos
una cosa, tal que x la escribió, y esa cosa es un libro. ¿Quién es ese x? Pues la cosa que
era un filósofo. Es decir, usando un modelo que dejamos implícito, la fórmula completa
quedaría así:
Algunos filósofos han escrito al menos un libro: ∃x F x & ∃y [E (x, y) & Ly]
Fíjate que el segundo cuantificador debe estar en el alcance del primero, pues
el predicado incluye una relación con x, y variable esta no puede estar libre. Debe,
entonces, estar ligada, y por ello debe estar en el alcance del cuantificador.
Vamos a leer a la fórmula por partes:
∃x [F x & ∃y (E (x, y) & Ly )]
| {z } | {z } |{z}
Algunos son filósofos y además son tales que hay cosas que escribieron y estas son libros
Entonces, la lectura literal de la fórmula es: «Algunos son filósofos y además son tales
que hay cosas que escribieron y estas son libros». Aunque no es la misma oración que
«Algunos filósofos han escrito al menos un libro», es claro que ambas son verdaderas
en todos los mismos casos y falsas en todos los mismos casos, por lo que expresan la
misma proposición. Esto nos permite decir que la fórmula de arriba es una formalización
perspicua. Podemos ver la razón de ello al ver que:
• «Algunos filósofos . . . » = «Algunas personas que sean filósofas . . . » = «Al menos
una cosa que es filósofo . . . »
240
• «han escrito al menos un libro» = «hay al menos un libro que han escrito» = «hay
al menos algo que escribieron, y que es un libro»
Parecería que esto agrega muchas complicaciones, y no es claro con qué finalidad.
Ahora lo voy a explicar.
Hay algo que podría ser «tentador» o «natural» hacer, pero que está mal, porque no
cumple con las reglas del lenguaje de la lógica LC1. Es mejor dejar en claro por qué está
mal, para que nunca lo hagas al formalizar un argumento.
Uno podría pensar que, para una proposición como Algunos filósofos han escrito al
menos un libro, podemos formalizar, primero, la expresión «Algunos filósofos. . . », como
siempre: ∃x F x . . . y luego formalizar «han escrito al menos un libro» en el mismo
orden en el que aparece en la oración, de manera que se leyera: «algunos filósofos son
tales que han escrito al menos un libro», quedando así:
∃x F x & E [x, ∃y (Ly)]
El error, que he puesto en rojo, es un error porque los predicados nunca contienen
fórmulas, sólo pueden tener constantes o variables. Pero «∃y (Ly)» es una fórmula.
Para no caer en este error es que tenemos que usar una lectura un poco más com-
plicada, como en la subsección pasada. Es decir: como los predicados nunca tienen
fórmulas, sino que sólo pueden tener constantes o variables, a las proposiciones como
«Algunos filósofos han escrito al menos un libro» las tenemos que formalizar poniendo el
segundo cuantificador antes de decir que estamos hablando de los libros que han escrito.
Esto mismo va a pasar en otras formas de proposiciones que también incluyen cuan-
tificadores en el alcance de otros.
Cosas no muy distintas van a suceder cuando tenemos un cuantificador universal como
la conectiva principal. Por ejemplo:
Todos los filósofos han escrito al menos un libro.
Nota que esto afirma de todas las cosas que cumplen con una propiedad —ser filósofo—,
que también cumplen con otra: haber escrito al menos un libro. Es decir, al final de las
cuentas, tienen la misma forma que muchas otras proposiciones que también dicen, de
todas las cosas que cumplen con una propiedad, que también cumplen con otra, como
«Todos los hombres son mortales». Y así como esta la formalizamos usando la conectiva
que restringe al universal —el condicional material—, es decir (usando un modelo que
241
dejamos implícito):
∀x (H x ⊃ M x),
así vamos a usar al cuantificador universal y la conectiva que lo restringe para formalizar
«Todos los filósofos han escrito al menos un libro»:
∀x F x ⊃ ∃y [E (x, y) & Ly]
∀x [F x ⊃ ∃y (E (x, y) & Ly )]
| {z } | {z } |{z}
Toda cosa, si es filósofo entonces habrá al menos una cosa que escribió y esta es un libro
Y de nuevo, aunque «Toda cosa, si es filósofo, entonces habrá al menos una cosa que
escribió, y esta es un libro» no es la misma oración que «Todos los filósofos han escrito
al menos un libro», estas sí expresan la misma proposición, como podemos ver:
• «Todos los filósofos . . . » = «Todo el que sea filósofo . . . » = «Toda cosa, si es filósofo
...»
• «han escrito al menos un libro» = «hay al menos un libro que ha escrito» = «hay
al menos algo que escribió, y que es un libro»
Como antes, sería un error pensar que «Todos los filósofos han escrito al menos un
libro» puede formalizarse así:
∀x F x ⊃ E [x, ∃y (Ly)]
El error, como en el caso anterior, es que los predicados nunca relacionan a cosas con
fórmulas: sólo relacionan a cosas con otras cosas (constantes o variables).
Las mismas ideas se aplican para cuando tenemos diferentes combinaciones de cuanti-
ficadores: universal con universal, existencial con universal, y negaciones de estos.
Por ejemplo, para el caso de existencial con universal, consideremos esta proposición:
Algunos libros han sido leídos por todos
En este caso, es claro que tenemos un cuantificador existencial: «algunos», y de las cosas
cuantificadas se predican dos atributos: ser libros y haber sido leídos por todos. Entonces, es
claro que la formalización va a ser algo como: ∃x (Lx & . . .), donde, en lugar de los tres
puntitos, vamos a tener que algo que simbolice «haber sido leídos por todos». Esto va a ser
algo como: «∀y D (y,x) », donde la «x» libre es la variable ligada por el existencial, y la
relación «D» se interpreta (en el modelo que dejamos implícito), así: «D (𝛼, 𝛽 )» significa
que 𝛼 ha leído a 𝛽 .
242
Con todo lo anterior, quedaría esta fórmula:
∃x Lx & ∀y D (y,x) ,
∀x [ Q x ⊃ ∀y [A(x, y)]]
243
(f) Todo libro contiene hay algún error.
(g) Algún libro contiene todos los errores.
(h) Todos los amigos de algún escritor, leen algún libro.
(i) Si todos han ganado alguna carrera, entonces, algunos han ganado toda ca-
rrera.
(j) Si algunos libros han sido leídos por todos, entonces todos han leído algún libro.
2 Formaliza los siguientes argumentos. Recuerda tener en cuenta en dónde están los
indicadores de premisa o de conclusión:
(a) Todo el que tenga algún yate, es rico. Esto se sigue de que: todo el que pague
mucho dinero, es rico, y de que todo el que tenga algún yate, paga mucho dinero.
(b) Cualquiera que sea amigo de al menos un superhéroe, es un superhéroe. Juan
es un superhéroe. Pues, además, Juan es amigo de Batman.
(c) Algunos millonarios tienen algunos yates. Por lo tanto, no todos los millonarios no
tienen alguna cosa. [donde «cosa» no es un predicado, sino solo la variable correspon-
diente]
Las proposiciones que podemos formalizar en la lógica clásica de primer orden pueden
llegar a ser muy complejas, aunque la estructura «en general» sea la misma.
Como un caso de esto, consideremos a la oración: «Todo corredor profesional tiene al
menos un coche veloz». La idea, como antes, es aplicar el mismo análisis. Al final del
día, la proposición anterior, como los casos más simples que vimos antes, también
afirma que todas las cosas que tienen una cualidad, también tienen otra. Pero, en este
caso, la primera cualidad es compleja: tiene componentes. Esta es: ser un corredor que
es profesional. Y la cualidad que tengan todos los que tengan esta primera cualidad,
también es compleja: tener al menos un coche que es veloz.
Vamos por partes. Empezamos con lo obvio: que es una cuantificación universal, que
afirma que todas las cosas que tienen una cualidad, también tienen otra:
∀x [. . . ⊃ . . .] ,
donde los tres puntitos de cada lado van a sustituirse por las cualidades en cuestión.
La primera es ser un corredor profesional, que consiste, a su vez, de dos cualidades:
ser un corredor, por un lado, y ser profesional, por otro. Usando un modelo con dominio
irrestricto, y con una interpretación obvia, tendríamos:
∀x [(C x & P x) ⊃ . . .] ,
que dice, hasta ahora, que todo corredor profesional es tal que . . .
244
La cualidad que la proposición atribuye a todos los corredores profesionales es que
tienen al menos un coche veloz. Esta cualidad, a su vez, consiste en una relación: tener,
entre un tipo de cosas —los corredores veloces—- y al menos una de otro tipo de cosas.
Así que tenemos una cuantificación existencial: «hay al menos. . . » y esta cuantifica sobre
cosas que, a su vez, tienen dos cualidades: ser coches y ser veloces. Es decir, la segunda
parte debe decir que para todos y cada uno de esos corredores profesionales de los que
hablamos, hay al menos un coche veloz que tienen. Debemos «voltear» así a la oración
original, pues no podemos formalizar «tiene al menos un coche veloz» poniendo la
relación entre la cosa que es corredor profesional y la fórmula «al menos un coche es
veloz»: esto sería el mismo error que señalamos antes.
Entonces, tendríamos que «. . . tienen al menos un coche veloz» debería quedar así (usan-
do la «o» mayúscula para el predicado de ser coche, pues ya usamos a «C » para ser un
corredor): «∃y [(O y & V y) & T (x, y)]», donde la «x» libre es la que está ligada por el
cuantificador universal.
Con todo ello, formalizaríamos «Todo corredor profesional tiene al menos un coche veloz»
así:
∀x (C x & P x) ⊃ ∃y [(O y & V y) & T (x, y)]
Nota que, como la proposición original tiene la forma «Todos los A son B», también
la fórmula correspondiente tiene esa forma: ∀x [A ⊃ B], solamente que «A» es una
propiedad compleja: ser un corredor profesional, y «B» también: tener al menos un
coche veloz.
Ejercicio # 46
1 Usando el modelo de abajo, formaliza las siguientes oraciones:
(a) Sólo los que han ganado alguna competencia justa son los mejores.
(b) Toda competencia justa tiene al menos un ganador justo.
(c) Algunas competencias justas son las mejores, pero no todas las mejores com-
petencias son justas.
Este es el Modelo,
con dominio irrestricto:
G (𝛼, 𝛽 ) : 𝛼 gana en 𝛽 M (𝛼) : 𝛼 es el mejor
Interpretación:
C (𝛼) : 𝛼 es una competencia J (𝛼) : 𝛼 es justa
2 Usando el mismo modelo, formaliza el siguiente argumento:
Ganar la competencia no te hace ser el mejor, si es que esta no es justa
(Cualquier competencia, si es injusta, no todo el que la gane es el mejor).
Sin embargo: toda competencia, si es justa, entonces sólo la ganan los
mejores. Por lo tanto, para toda competencia injusta, hay quienes la ganan
pero que no son los mejores, y para toda competencia justa, todos los que
la ganan son los mejores.
3 Formaliza las siguientes oraciones:
245
(d) Algunos justos han hecho algunas acciones correctas.
(e) Sólo los justos hacen sólo acciones correctas.
(f) Las acciones bellas son justas, y viceversa; y si alguien (cualquiera) hace al-
guna acción bella, hace alguna acción justa.
Para formalizarlas, usa el siguiente Modelo con dominio irrestricto:
H (𝛼, 𝛽 ) : 𝛼 hace 𝛽 J (𝛼) : 𝛼 es justo/a
C (𝛼) : 𝛼 es correcta A(𝛼) : 𝛼 es una acción
Interpretación:
B (𝛼) : 𝛼 es bello/a U (𝛼) : 𝛼 es útil
j : Juan
4 Con el mismo modelo, formaliza el siguiente argumento:
Todo el que sólo hace acciones correctas (todo el que toda acción que haga
sea correcta) es justo. Quien sea justo, hará algunas acciones que son be-
llas y útiles. Por lo tanto, quien sólo hace acciones correctas, hará algunas
acciones bellas.
246
Resumen del capítulo
⋆
Notas
1. Más adelante (en la sección 11.4) veremos que es necesario agregar dos nuevos «tipos» de constantes.
2. De hecho, me estoy saltando varios detalles técnicos que harían las definiciones más rigurosas, pero tam-
bién más engorrosas. Por ejemplo, cada fórmula deberíamos encerrarla entre las «esquinas» o «comillas
de Quine», que nos permiten evitar problemas de uso y mención preservando generalidad. Así, por ejem-
plo, la expresión ⌜A ∨ B ⌝ significa: «el resultado de concatenar la fórmula referida por A, la disyunción,
y la fórmula referida por B». Otra manera en que podríamos ser completamente exactos es usando lo
que se conoce como Notación de Backus-Naur, y que tampoco veremos aquí.
247
248
capítulo
11
Objetivos de aprendizaje
1.
2.
249
enemos la definición de validez usual: Un argumento es válido siempre y cuando no
T exista ni un caso lógicamente posible en el que todas las premisas sean verdaderas pero la
conclusión sea falsa. En el contexto de LC1, esta definición se convierte en esta:
Definición 83: Validez de argumentos en LC1
¿Cómo podemos usar las reglas de inferencia y de equivalencia para demostrar la validez
de un argumento?
La idea básica es trabajar de atrás hacia delante (en el espíritu de lo que se conoce
como «ingeniería inversa»). Empezamos analizando el resultado (es decir, la conclusión),
y razonamos cómo es que a partir de los puntos de partida (de las premisas), pudimos
haber llegado al resultado.
Esto usualmente significa fijarnos qué tenemos en la conclusión y buscar lo más pa-
recido a ella en las premisas. Una vez que lo encontramos, debemos intentar aislar eso
que es más parecido, eliminando todo lo que tiene a su alrededor. (Cuando lo logremos,
tendremos la conclusión, o quizá sólo será necesario utilizar una regla de equivalencia
para tener la conclusión.) Para producir tal aislamiento, debemos pensar cómo usar las
otras premisas y las reglas que ya conozco para eliminar el material que me sobra.
250
Supongamos que tengo el siguiente argumento:
1. G a ⊃ ¬H a
2. G a
/ ∴ ¬H a
Aplicando la heurística, puedo ver que mi conclusión—es decir, «¬H a » está en la
ejemplo 36
premisa 1. Sólo tengo que aislarla. Eso significa buscar en las demás premisas para
ver qué regla puedo usar para eliminar el material que me sobra.
Veo que tengo la fórmula «G a ⊃ ¬H a » en la premisa 1, que contiene a mi con-
clusión. Y en mi premisa 2, tengo a la fórmula «G a ». Usando una eliminación del
condicional, puedo eliminar el material sobrante para quedarme con la conclusión:
1. G a ⊃ ¬H a
2. G a
/ ∴ ¬H a
3. ¬H a E ⊃ (1, 2)
Veamos un ejemplo un poco más complicado. [??]
Como vimos en la subsección 9.3.5, las fórmulas en las que hay predicación a objetos
particulares también tienen estructura proposicional. Ahora que ya conocemos todo el
lenguaje de LC1, podemos ver que lo mismo aplica para fórmulas cuantificadas.
Como las fórmulas de LC1 pueden tener estructura proposicional, las reglas propo-
sicionales nos permiten usar esa estructura para hacer inferencias válidas. Para ello,
necesitaremos el concepto de sustitución uniforme en una regla de LC0.
Definición 84: Sustitución Uniforme
Dada una regla de inferencia de la lógica proposicional (LC0), y una fór-
mula de la lógica cuantificacional (LC1): sustituir la fórmula en esa regla
significa reemplazarla por la metavariable correspondiente en todos los
lugares de la regla.
estructura:
1. ∀x (F x) ∨ ∃x (G x ∨ H x)
2. ¬∃x (G x ∨ H x) ∴ ∀x (F x)
Después de revisar su forma, es fácil darse cuenta que tiene la estructura de un silo-
gismo disyuntivo. Es decir: tiene una premisa que es una disyunción, otra premisa
251
que niega uno de los disyuntos, y concluye el disyunto que no está negado.
Voy a usar colores para resaltar la estructura. Esta es la regla del silogismo disyun-
tivo:
A∨B
¬B
A
Entonces, puedo usar la regla proposicional para demostrar la validez del argumento:
1. ∀x (F x) ∨ ∃x (G x ∨ H x)
2. ¬∃x (G x ∨ H x) ∴ ∀x (F x)
3. ∀x (F x) SD(1, 2)
Obviamente, puedo usar cualquier regla de proposicional, siempre que tengan la
misma estructura.
Veamos otro ejemplo.
Supongamos que formalizo un argumento y me encuentro con que tiene la siguiente
estructura (de nuevo, he usado colores para enfatizarla):
1. A(b,e ) ⊃ ∃x (T d )
2. ¬ ∃x (T d ) ∴ ¬A(b,e )
Como la estructura ya se ve bien clara, es fácil ver que esto tiene la estructura de un
modus tollens—es decir, de esta regla:
A⊃B
¬B
¬A
Y así puedo demostrar el argumento con un solo paso:
1. A(b,e ) ⊃ ∃x (T d )
2. ¬∃x (T d ) ∴ ¬A(b,e )
3. ¬A(b,e ) MT(1, 2)
Vamos a usar tres pasos para distinguir la forma proposicional de cada fórmula y revisar
si podemos usar una regla proposicional. Ejemplificaré cada uno.
Primero Veo si hay una conectiva proposicional (condicional, negación, bicondicio-
nal, disyunción o conjunción) que sea la conectiva principal de la fórmula. Si
una conectiva principal está dentro de un cuantificador (es decir, en su alcan-
ce), entonces no es la conectiva principal. Por ejemplo, considera estas cuatro
fórmulas:
a. P b ⊃ ∃x (T x) b. ∀y (P y ⊃ ∃x (T x))
c. ¬∃x (C d ) d. ∃x¬(C x)
• La primera (a) tiene al condicional, «⊃», como conectiva principal.
252
• Pero la b no: su conectiva principal no es una conectiva proposicional, sino
el cuantificador universal.
• En la c, la conectiva principal sí es proposicional: es la negación.
• Pero en la d, no: es el existencial.
Segundo Si la conectiva principal es una conectiva proposicional, eso significa que hay
subfórmulas de la fórmula, que son las fórmulas conectadas por la conectiva pro-
posicional. Con cada una de ellas, repito el mismo paso: veo si hay una conectiva
proposicional que sea la conectiva principal de la forma. Si la hay, me fijo en
sus sub-fórmulas y repito el mismo procedimiento. Si no, paso al siguiente paso.
Por ejemplo:
a. P b ⊃ ∃x (S x & T x) b. ∀y [P y ⊃ ∃x (R (x, y))]
c. ¬[∀x (C x) ⊃ ∃y (H y & T y)] d. ¬∃x¬(C x)
• En la a, la conectiva principal es proposicional: el condicional. Sus dos sub-
fórmulas son: «P b» y «∃x (S x & T x)». De estas dos, ninguna tiene una co-
nectiva principal que sea proposicional: la primera ya no tiene conectivas, y
la segunda tiene al existencial como conectiva principal.
• En la b, no hay subfórmulas, pues la conectiva principal es el universal, y ni
«P y» ni «∃x (R (x, y))» son fórmulas, pues tienen una variable –la «x»– libre.
• En la c la conectiva principal sí es proposicional: la negación, y tiene una
subfórmula: ∀x (C x) ⊃ ∃y (H y & T y), a su vez, esta tiene una conectiva
proposicional como conectiva principal, que une dos subfórmulas: «∀x (C x)»
y «∃y (H y & T y))». Ninguna de estas tiene conectivas proposicionales como
conectiva principal, así que no tiene subfórmulas.
• En la d, hay una conectiva proposicional y su única subfórmula es: ∃x¬(C x);
esta ya no tiene subfórmulas, pues su conectiva principal es un cuantificador,
y «¬(C x)» no es fórmula, pues tiene una variable libre.
Tercero Ya que vi cuál es la forma proposicional de cada fórmula, solo resta identificar
si hay alguna regla proposicional que pueda usar. Por ejemplo:
1. ∃y (¬H y ∨ S y) & ∀x (T x ⊃ ¬G x)
2. ∀x (T x ⊃ ¬G x) ⊃ ∀x (¬G x) ∴ ∀x (¬G x)
Puedo ver cuáles son las conectivas principales de cada fórmula:
• En la 1, la conectiva principal es la conjunción, y tiene dos subfórmulas:
«∃y (¬H y ∨ S y)» y «∀x (T x ⊃ ¬G x)».
• En la 2, la conectiva principal es el condicional, con las dos subfórmulas:
«∀x (T x ⊃ ¬G x)» y «∀x (¬G x)».
• En la conclusión no hay subfórmulas.
253
Habiendo distinguido la estructura proposicional de cada premisa y de la conclu-
sión, podemos ver que tiene estructuras proposicionales que podemos usar para
llegar a la conclusión. La conclusión es: «∀x (¬G x)». Así que debo usar lo que
tengo en la premisa 2 para quedarme con esa parte. Si puedo eliminar el antece-
dente, puedo quedarme con la conclusión. Para eliminar el antecedente, necesito
tenerlo por separado para poder usar la eliminación del condicional. Esa fórmula
la tengo en la línea 1, pero en conjunción. Así que primero debo eliminar esa
conjunción. Por lo que utilizo la regla proposicional, que pondré en color para
resaltar su estructura:
1. ∃y (¬H y ∨ S y) & ∀x (T x ⊃ ¬G x) A&B
2. ∀x (T x ⊃ ¬G x) ⊃ ∀x (¬G x) ∴ ∀x (¬G x)
3. ∀x (T x ⊃ ¬G x) E & (1) B
Pero todavía no he llegado a la conclusión. Todavía necesito eliminar el condicio-
nal, y con colores he remarcado en dónde está la estructura necesaria:
1. ∃y (¬H y ∨ S y) & ∀x (T x ⊃ ¬G x)
2. ∀x (T x ⊃ ¬G x) ⊃ ∀x (¬G x) ∴ ∀x (¬G x) A⊃B
3. ∀x (T x ⊃ ¬G x) E & (1)
4. ∀x (¬G x) E⊃(2,3) B
Ejercicio # 47
Demuestra la validez de los siguientes argumentos usando las reglas de LC0.
I
1. ∀x (F x) & G a / ∴ ∀x (F x)
II
1. ∀x (F x) & G a
2. G a ⊃ T b / ∴ T b
III
1. ∀x (H x) ≡ ∃y (T y)
2. ¬∃y (T y) / ∴ ¬∀x (H x)
IV
1. Q b ∨ ¬P a
2. ¬Q b / ∴ ¬P a
V
1. R (s ,t ) ∨ ¬T b
2. ¬R (s ,t ) / ∴ ¬¬¬T b
VI
1. ∀x (Q x) ∨ ∃y (T y ∨ Q y)
2. ∀x (Q x) ⊃ ¬T a
3. ∃y (T y ∨ Q y) ⊃ ∃x (M x) / ∴ ∃x (M x) ∨ ¬T a
254
Nota que, hasta ahora, no hemos visto reglas que nos digan cómo «intervenir» con
con los cuantificadores. Eso es lo que haremos en el resto del capítulo.
Los cuadrados de oposición reflejan, entre otras cosas, la relación de dualidad entre
los cuantificadores universal y existencial. La dualidad de los cuantificadores solamente
significa lo siguiente.
Definición 85: Dualidad de los cuantificadores
Que los cuantificadores sean duales significa que podemos definir uno en
términos del otro cuantificador más la negación lógica.
Esto es claro a partir del lenguaje natural. Como hemos visto, «∀» significa «todos» y
«∃» significa «al menos uno». Entonces, «¬∃¬» debe significar «no existe al menos uno que
no».
Supongamos que tomamos un modelo en el que el dominio es el conjunto de personas
del salón de clases, e interpretamos a «E» como la propiedad de ser estudiante. Enton-
ces, interpretada en ese modelo, la fórmula «¬∃x¬(Ex)» significará: «no existe al menos
una persona en este salón que no sea estudiante». Pero si no hay ni siquiera una persona en el
salón que no sea estudiante, eso debe ser porque toda persona en el salón es estudiante.
Es decir, «¬∃x¬(Ex)» implica que «∀x (Ex)».
Ahora consideremos la fórmula «∀x (Ex)» interpretada en el mismo modelo. Pregunté-
monos: si, como dice la fórmula, todas las personas en el salón son estudiantes, ¿podría
haber alguna que no fuera estudiante? Obviamente, no: si todas son estudiantes, no hay
ninguna que no lo sea. Es decir: no existe ni una sola que no lo sea. Es decir: «¬∃x¬(Ex)».
Por lo que ésta implica a la universal, y tenemos la siguiente equivalencia:
∀x (Ex) ≡ ¬∃x¬(Ex)
De hecho, esta equivalencia es verdad en todo modelo: no importa qué dominio tenga-
mos, ni cómo interpretemos el predicado «E», esta equivalencia va a ser verdad: nada
en el dominio es E, si y solamente si, no haya ni una sola cosa que no es E. Como
veremos después (sección 15.4.4), las fórmulas que son verdaderas en todo modelo, son
lógicamente verdaderas. Es decir, esta equivalencia es una verdad lógica de la lógica LC1.
Como no hay nada especial con el predicado E (pues, como vimos, no importa cómo
y en qué dominio lo interpretemos, la equivalencia seguirá siendo verdad), esto significa
que los argumentos de la forma:
255
∀x (Φ[x]) /∴ ¬∃x¬(Φ[x]),
¬∃x¬(Φ[x]) /∴ ∀x (Φ[x]),
también.
En general, cada cuantificador se puede definir en términos del otro y las negaciones.
Básicamente, el truco mnemotécnico es el siguiente: un cuantificador es equivalente
al otro cuando le ponemos una negación a cada lado. Voy a hacer esto oficial con una
definición. Pero primero, hagamos una convención notacional.
Convención 8. Usaremos «A ⊨⊨ B» para decir que A y B son lógicamente equivalentes.
Esta notación significa lo mismo que usar las dos rayas:
A
B
256
las siguientes equivalencias:
Definición 87: Mnemotecnia de los cuantificadores, 2
¬∀ ⊨⊨ ∃¬ y ¬∃ ⊨⊨ ∀¬ (mnemotecnia 2)
257
Definición 88: Cuadrado Clásico de Oposición
A Contrarias E
∀𝛼(Φ[𝛼]) ∀𝛼¬(Φ[𝛼])
Subalternas
Subalternas
Contradictorias
I Subcontrarias O
∃𝛼(Φ[𝛼]) ∃𝛼¬(Φ[𝛼])
Contrariedad
258
sas. Las reglas de la contrariedad son:
A ∴ ¬E (Contr)
E ∴ ¬A (Contr)
Por ejemplo, las proposiciones expresadas por «La mesa es cuadrangular» y «La mesa
es circular», son contrarias: no puede suceder que ambas sean verdaderas (suponiendo
que nada puede tener dos formas geométricas al mismo tiempo), pero sí que ambas
sean falsas (por ejemplo, si la mesa es triangular).
El ejemplo de las mesas no es un ejemplo de contrariedad debida a la forma lógica, que
es lo que nos interesa aquí. La contrariedad lógica se da entre las fórmulas de la forma:
∀ y ∀¬. Esto es porque no puede suceder al mismo tiempo que todas las cosas de un
dominio sean de alguna manera, y también que ninguna sea de esa misma manera. (Si
todos los objetos de un dominio son perros, ¡debe ser falso que ninguno es un perro!)
La contrariedad lógica está expresada por las reglas de la definición 89.
Subalternancia
259
Por lo tanto, en dominios vacíos, para cualquier predicado F , es verdad decir que
todo es F , pero falso decir que existe al menos un F . Esto muestra que la relación de
subalternación no se da en esos dominios. Razonando de manera conversa, si la rela-
ción de subalternación es lógicamente necesaria, es porque no estamos considerando
dominios vacíos.3
Vamos a definir así a esta relación, junto con las reglas correspondientes:
Definición 90: Subalternancia
Que una proposición de la forma ∃𝛼(Φ[𝛼]) sea subalterna de otra, de la
forma ∀𝛼(Φ[𝛼]) , significa que la universal implica a la segunda, la exis-
tencial. Las reglas de la subalternancia son:
A∴I (Subalt)
E∴O (Subalt)
Subcontrariedad
¬I ∴ O (Subcontr)
¬O ∴ I (Subcontr)
Como ejemplo, supongamos un modelo cuyo dominio son las personas en un salón
de clase de posgrado. Las proposiciones expresadas por «algunos estudiamos filosofía»
y «algunos no estudiamos filosofía», son subcontrarias. Ambas pueden ser verdaderas:
algunos sí y algunos no. Pero no pueden ser ambas falsas. Esto es fácil de demostrar,
basándonos en las equivalencias de los cuantificadores y en la relación de contrariedad
que vimos arriba.4
Entonces, si sabemos que una proposición con el cuantificador «∃» es falsa, sabemos
que su subcontraria debe ser verdadera. (Pero aunque sepamos que una es verdadera,
esto no nos permite inferir que la otra no lo es.)
260
Contradictoriedad
A ⊨⊨ ¬O (Contradict)
E ⊨⊨ ¬I (Contradict)
Equivalencias
En cada una de las cuatro esquinas del cuadrado de oposición nos encontraremos
con una regla de equivalencia (a las que llamaremos simplemente «Equiv», utilizando el
nombre de la esquina correspondiente).
Es fácil ver porqué: gracias a que la negación es exhaustiva y exclusiva—es decir: a
que tenemos dos valores de verdad, a que cada proposición tiene uno y sólo uno de
estos, y a que la negación toma uno de estos valores y resulta en el otro—, la negación de
la contradictoria de una proposición resulta en una proposición lógicamente equivalente.5
Entonces, como cada esquina es contradictoria con la otra, una esquina es equivalente
con la negación de la otra.
Te recomiendo que leas las dos fórmulas en cada equivalencia, para confirmar que
dicen lo mismo. (Es decir, que son verdaderas en exactamente las mismas circunstan-
cias: que una implica a la otra y viceversa.) Voy a poner el nombre de la equivalencia
en cada esquina.
261
Definición 93: Reglas de equivalencia del Cuadrado Clásico
1. ∀x (T x)
2. ∃x (T x) ⊃ H a / ∴ Ha
3. ∃x (T x) Subalter(1)
4. H a E ⊃ (2, 3)
Veamos otro ejemplo. Supongamos que tengo un argumento de la siguiente forma:
1. ¬∃x [R (x,a)]
2. ∀x (F x) ∨ ∃x [R (x,a)] / ∴ ∃x (F x)
También puedo demostrarlo con las reglas proposicionales y del cuadrado:
262
1. ¬∃x [R (x,a)]
2. ∀x (F x) ∨ ∃x [R (x,a)] / ∴ ¬∃x¬(F x)
3. ∀x (F x) SD(1, 2)
4. ¬∃x¬(F x) EquivA(3)
Ejercicio # 48
Utilizando las reglas proposicionales (sección 11.2) y las reglas y equivalencias del
cuadrado clásico de oposición de esta sección, demuestra la validez de los siguientes
argumentos.
I 1. ∀y (F y) / ∴ ∃y (F y) II 1. ∃x (H x) / ∴ ¬∀x¬(H x) ∨ G a
Cuando están restringidos, los cuantificadores dicen «toda cosa del modelo que es de
tal forma, es de esta otra», «nada del modelo que es de tal forma, es de esta otra»,
«alguna cosa lo del modelo que es de tal forma, es de esta otra», y «alguna cosa del
modelo que es de tal forma, no es de esta otra».
Si tomamos en cuenta las restricciones de los cuantificadores, aparecen algunas rela-
ciones lógicas entre fórmulas con esa forma. Podemos resumir esas relaciones de manera
muy conveniente en otro cuadrado de oposición. A este le vamos a llamar «cuadrado
moderno», para diferenciarlo del clásico, en el que ignoramos la restricción de los cuan-
tificadores.
Como con el cuadrado clásico, vamos a usar algunas convenciones. Seguiremos usan-
do la convención 6, según la cual «𝛼» es una metavariable: representa cualquiera de las
variables del lenguaje lógico (x, y, z , . . . ). Y, extendiendo un poco la convención 9 usare-
mos «Φ[𝛼]» y «Ψ[𝛼]» para denotar a partes de fórmulas que tienen libre a esa variable.6
Por ejemplo, «∀x (F x ⊃ G x)» es un caso del esquema ∀𝛼 (Φ[𝛼] ⊃ Ψ[𝛼]), sustituyendo
la variable «x» por 𝛼. Otro caso de ese esquema es ∀z [(H x ∨ ¬T z ) ⊃ (F z & ¬G z ),
pues sustuimos «z » por 𝛼, «(H x ∨ ¬T z )» por Φ[𝛼], y «(F z & ¬G z )» por Ψ[𝛼].
Habiendo hecho estas convenciones para denotar esquemas, ahora definimos el cua-
263
drado moderno.
Definición 94: Cuadrado Moderno de Oposición
A E
∀𝛼(Φ[𝛼] ⊃ Ψ[𝛼]) ∀𝛼(Φ[𝛼] ⊃ ¬Ψ[𝛼])
Contradictorias
I O
∃𝛼(Φ[𝛼] & Ψ[𝛼]) ∃𝛼(Φ[𝛼] & ¬Ψ[𝛼])
En este caso, se pierden casi todas las relaciones lógicas: sólo se preservan las rela-
ciones de contradictoriedad:
• A y E ya no son contrarias: ambas pueden ser verdaderas, si no hay Φs en el
dominio (en ese caso, será verdad que todo Φ es Ψ, y también que todo Φ es
no-Ψ); y ambas pueden ser falsas, haya o no Φs en el dominio.
• I y O ya no son subcontrarias: ambas pueden ser falsas si no hay Ψs en el dominio,
o si no hay Φs (o si no hay ni Ψs ni Φs). Ambas pueden ser verdaderas también
(si hay algunos Φs que son Ψ’s y otros Φs que no son Ψs).
• Ya no hay subalternancia de I con A ni de O con E: de que A (o en su caso, E) sea
verdadera, no se sigue que I (o, en su caso, O) lo sea; esto falla cuando no hay
Φ’s en el dominio.
• A y O por un lado, y E y I por el otro, sí siguen siendo contradictorias: si una
es verdadera, la otra es falsa; si una es falsa, la otra es verdadera; una de las dos
tiene que ser verdadera.
Considera la proposición de que todos los círculos cuadrados son rojos. Usando un
modelo y una interpretación obvias, la formalizaríamos como: ∀x (C x ⊃ Rx) .
ejemplo 39
Ahora bien, es claro que no existen los círculos cuadrados (¡son auto-
contradictorios!). Eso implica que, si vamos revisando cada uno de los objetos del
dominio de nuestro modelo, nunca vamos a encontrar uno que sea círculo cuadrado:
nunca vamos a encontrar un objeto que cumpla con la propiedad de ser C .
Antes de seguir, recordemos la tabla de verdad del condicional material:
264
A ⊃ B
V V V
V F F
F V V
F V F
Como vemos en las últimas dos filas (que he remarcado con azul), cuando el ante-
cedente de un condicional material es falso, el condicional material es falso también.
¡No importa qué pase con el consecuente! Ya sea que el consecuente sea falso o
verdadero, el condicional material es verdadero cuando su antecedente es falso.
Pongamos todo junto. La fórmula «∀x (C x ⊃ Rx) » me dice que todos los círculos
cuadrados son rojos. Pero sé que nada es un círculo cuadrado: que nada es C .
Entonces, sé que si voy revisando cada cosa del dominio, va a ser verdad que: si
esa cosa es C entonces esa cosa es R . Esto es verdad por la tabla de verdad del
condicional: como nada es C , el antecedente siempre es falso. Pero como sucede
que, para cada cosa del dominio es verdad que: si esa cosa es C entonces esa cosa
es R , entonces, es verdad que ∀x (C x ⊃ Rx) . Esto se conoce como verdad por
vacuidad.
Pero resulta que también es verdadero decir que todo círculo cuadrado no es rojo.
Es decir, también es verdad que ∀x (C x ⊃ ¬Rx) . Y la razón de esto es muy parecida
a la anterior: como sé que nada es un círculo cuadrado (que nada es C ), entonces sé
que si voy revisando cada cosa del dominio, va a ser verdad que: si esa cosa es C
entonces esa cosa es ¬R . Esto es verdad por la tabla de verdad del condicional:
como nada es C , el antecedente siempre es falso, y por lo tanto, el condicional
siempre es verdadero. Como esto sucede para todo objeto del dominio, entonces,
es verdad que ∀x (C x ⊃ ¬Rx) . Otra verdad por vacuidad.
«Verdad por vacuidad», como vimos, significa que una oración es verdadera debido a
que no existen las cosas de las que habla. Como no hay círculos cuadrados, no hay cosas
que sean círculos cuadrados y no sean rojas. Por lo tanto, no va a haber contraejemplos
(casos contrarios) a la oración universal. Por la misma razón, no hay cosas que sean
círculos cuadrados y que sean rojas. Esto significa que nada va a hacer falso que todo
lo que sea círculo cuadrado no es rojo. Estos son los dos casos de verdad por vacuidad.
Pero la verdad por vacuidad se puede dar también en casos en los que tenemos
dominios restringidos. Veamos un ejemplo de esto.
ejemplo 40
Consideremos un modelo cuyo dominio es el conjunto que sólo contiene a los últimos
tres presidentes de México (hasta 2019). Es decir, el conjunto va a contener a AMLO,
a EPN, y a FCH, pero sólo a estos tres objetos. Podemos usar el siguiente diagrama:
265
AMLO EPN FCH
Ahora consideremos la oración «todo volcán está activo». Para formalizarla, vamos
a suponer que, en la interpretación de nuestro modelo, tenemos:
• V 𝛼 : 𝛼 es un volcán
• A𝛼 : 𝛼 está activo
Muy bien. Si ahora revisamos cada objeto en el dominio para ver si es un volcán de
manera que, si no lo es, ponemos un tache, «×», a su lado, y si lo es, ponemos una
palomita, « ✓ », a su lado, vamos a encontrar que:
¡Ninguna de las tres cosas en nuestro dominio es un volcán! Eso significa que la
oración «∀x (V x ⊃ Ax) », que bajo la interpretación en este modelo nos dice que
todos los volcanes son activos, va a ser verdadera por vacuidad: como nada en
nuestro dominio es un volcán, entonces, nada va a ser un volcán que no esté activo.
Un razonamiento parecido muestra que la oración «∀x (V x ⊃ ¬Ax) » también es
verdadera por vacuidad.
Por supuesto, ¡hay volcanes! Lo que sucede en este ejemplo es que estamos toman-
do un modeo cuyo dominio está muy restringido: se restringe a tres objetos, ninguno
de los cuales es un volcán. Este es un ejemplo de cómo la verdad por vacuidad tam-
bién puede suceder cuando hablamos cosas que sí existen, pero que no existen en
el dominio del modelo.
Aunque se pierden casi todas las relaciones lógicas —sólo se preserva la contradictoriedad—
en el cuadrado moderno también existen equivalencias de las fórmulas cuantificaciona-
les.
266
Definición 95: Equivalencias del cuadrado moderno de oposición
EquivA EquivE
EquivI EquivO
El cuadrado moderno de oposición nos muestra, entonces, las siguientes reglas váli-
das:
4 reglas de equivalencia Que son las que están en cada una de las cuatro esquinas en
la definición 95.
4 reglas de inferencia Que son las que dan las esquinas contradictorias:
A ∴ ¬O; O ∴ ¬A
y:
E ∴ ¬I; I ∴ ¬E
Ejercicio # 49
1. Asumiendo cualquier modelo que tenga como dominio al conjunto de las perso-
nas, da fórmulas de LC1 que correspondan a (es decir, que se interpreten como)
las afirmaciones que se te piden.
a) Supongamos que te digo que no todos somos marxistas. Da una afirmación
equivalente.
b) Si te digo que algunos no somos platónicos, una de las afirmaciones que se
sigue de esto es que . . .
c) Supongamos que te dijera: «No hay un solo ingeniero». Otra manera de decir
esto es que: todos . . .
d) Todos somos aristotélicos. Es decir . . .
2. Usando las reglas proposicionales y las de los cuadrados de oposición, demuestra
la validez de los siguientes argumentos.
a) 1) ∀x (F x) ⊃ ∃x (H xa)
267
2) ¬∃x¬(¬¬F x) / ∴ ∃x (H xa)
b) 1) ¬∃x (H x ∨ G x)
2) ¬∃x (M x) ⊃ ¬∀x¬(H x ∨ G x) / ∴ ¬∀x¬(M x)
c) 1) R (a,b) & H a
2) ∀x¬(F x) ≡ ¬H a / ∴ ∃x (F x)
d) 1) ∃x (F x) ∨ ∀x (G x)
2) ¬∃x¬(G x) ⊃ ¬¬∃x (F x) / ∴ ¬∀x¬(F x)
Los dos tipos de reglas para los cuantificadores que veremos ahora son las reglas de
introducción y las de eliminación. Vamos a recordar estos conceptos, que aprendimos
con LC0.
Regla de introducción de una conectiva Un esquema de argumento válido en el que
las premisas no necesariamente tienen a la conectiva como conectiva principal,
pero en la que la conclusión sí la tiene. (Como ejemplo, considera a la regla de
introducción de la disyunción: A ∴ A ∨ B.)
Regla de eliminación de una conectiva Un esquema de argumento válido en el que
al menos una de las premisas tiene a la conectiva como conectiva principal, pero
la conclusión ya no necesariamente la tiene. (Un ejemplo es la eliminación de la
conjunción: A & B ∴ A.)
Para enunciar las reglas, necesitaremos algunas convenciones:
Convención 10. Usaremos 𝛼, 𝛽 y 𝛾 como variables de variables o metavariables. (Es decir,
𝛼 puede ser x, y, z u otras; lo mismo para 𝛽 y 𝛾.)
Convención 11. Usaremos 𝜅 como una variable para constantes (de manera que puede
representar a a, b, c , d , etc.)
Convención 12. Usaremos Φ[𝛼] como una matriz en la que la única variable libre es 𝛼
(por ejemplo, si 𝛼 es «x», tendríamos como ejemplos a: F x, R (c ,b,x), R (c ,b, y); si 𝛼 es
«y», un ejemplo es: R (c ,b, y), otro ejemplo es: ∀x [G (x, y)]).
Convención 13. Usaremos Φ[𝜅] como una fórmula o matriz en la que aparece la constante
𝜅. (Si 𝜅 es «a», por ejemplo, un caso de Φ[𝜅] podría ser: H a∨G (b,c ), o también, G (x,a)).
Veamos ahora la primera regla.
268
Introducción del existencial: «I∃»
La primera regla es la eliminación del cuantificador existencial. Nos dice que lo siguiente
es una inferencia válida: si una afirmación es verdadera para una cosa particular, 𝜅, del
dominio, entonces es verdad para alguna cosa del dominio. Veamos un ejemplo.
F
•a
Este diagrama representa al dominio como el círculo que contiene a lo demás; repre-
senta, también, que tenemos una interpretación bajo la cual el predicado «F » es la
elipse debajo de la letra «F », que hay al menos un objeto (el puntito) dentro de la in-
terpretación de «F », y que ese objeto se llama «a » (es decir, bajo esa interpretación,
ejemplo 41
∃x (F x)
F • •
• •
Lo mismo vale para relaciones: en todo modelo, el que haya una cosa particular que
esté en una relación con otra(s) cosa(s), basta para que sea verdad que algo está en esa
269
relación con esas cosas.
∃xH (x,b)
Por la misma regla, si sé que Ana es hermana de Beto, sé que Ana es hermana de
alguien. Por lo tanto,
H (a,b)
también implica lógicamente a la fórmula:
∃xH (a,x)
Φ[𝜅]
I∃
∃𝛼(Φ[𝛼])
Notemos que la introducción del existencial vale para cualquier tipo de constante que
tengamos: normal, y las que veremos abajo: «con gorrito» y «ficticia» o con asterisco.
En los ejemplos anteriores, nota algo importante: al introducir el existencial, siempre
lo introduzco ligando a la variable que introduzco para sustituir a la constante que estoy
generalizando. Voy a explicar esto ahora.
Sustitución uniforme
En I∃ y en todas las reglas, es importante tener en mente que debemos utilizar una
sustitución uniforme. Esto significa que (en el caso de I∃), debo siempre sustituir
todas las apariciones de la constante que estoy generalizando con la variable ligada con
el cuantificador; pero no se vale usar las demás constantes de la fórmula (si es que las
hay). Esto es más claro con los ejemplos que ahora explicaré.
A partir de la fórmula R (a,b), puedo utilizar I∃ para inferir:
270
∃x (R (x,b)) (SU1)
∃x (R (x,x)). (SU2)
∃x (R (a,x)) (SU4)
Y, como antes, podría dejarlo aquí o aplicar de nuevo I∃ para generalizar a. De nuevo:
lo que no se vale es generalizar dos constantes (¡o más!) al mismo tiempo.
A partir de una fórmula molecular como F a∨F b, puedo también aplicar I∃ y obtener:
∃x (F a ∨ F x) (SU5)
o también:
∃x (F x ∨ F b) (SU6)
∃x (F x ∨ F x) (SU7)
pues empecé con dos constantes distintas. Claro, una vez teniendo SU5, puedo aplicar
I∃ de nuevo y terminar con:
∃y∃x (F y ∨ F x) (SU8)
∃y∃x (F x ∨ F y) (SU9)
Entonces, hay que notar que el orden en que aplique la regla puede influir en si
termino con una fórmula como SU8 o como SU9, ¡que ciertamente son fórmulas muy
distintas!
271
Ejercicio # 50
1. Usando la regla I∃ y las reglas proposicionales, demuestra la validez de los si-
guientes argumentos.
a) 1) N a / ∴ ∃y (N y)
b) 1) P a ∨ Q d
2) ∃x (P x ∨ Q d ) ⊃ Q a / ∴ Q a
c) 1) ∃y (¬M y) ≡ S b
2) ¬M a / ∴ S b
d) 1) Q a / ∴ ∃x (Q x) & Q a
e) 1) T b ⊃ ¬[∃x (P x) & ∃y (P y)]
2) P a / ∴ ¬T b
2. Usando la regla I∃ además de las reglas proposicionales y de los cuadrados de
oposición clásico y moderno, demuestra la validez de los siguientes argumentos.
a) 1) Q a
2) U (d ,e ,a) ∨ ¬∃x (Q x) / ∴ U (d ,e ,a)
b) 1) ∃x [U (d ,x,a)] ⊃ ¬∀x (Q x)
2) U (d ,c ,a) / ∴ ∃x¬(Q x)
c) 1) ¬∀x¬[T (x,d ,x)] ≡ R (a,d )
2) T (g ,d , g ) / ∴ R (a,d )
d) 1) T (g ,d , g ) & R (a,b)
2) ∃y∃x [T (x, y,x)] ≡ ¬∃x¬(F x) / ∴ ∀x (F x)
e) 1) ¬(P a & Q a)
2) [¬∀x (P x & Q x)] ⊃ R (a,c ) / ∴ ∃x [R (a,x)]
Esta regla nos dice que, de una afirmación universal, podemos inferir válidamente que
esa afirmación es verdadera para cualquier cosa particular. La idea es que si algo es
verdad de cada cosa en el dominio, va a ser verdad de una cosa particular del dominio.
Voy a poner la regla y después explicaré su significado formal.
Definición 97: Eliminación del Cuantificador Universal
∀𝛼(Φ[𝛼])
E∀
Φ[𝜅]
∀𝛼(Φ[𝛼])
E∀
Φ[ 𝜅]
ˆ
272
Como vimos en las convenciones antes de introducir las reglas, 𝜅 representa a cual-
quier constante. Por lo que la regla E∀ me dice que si Φ es verdad para cada cosa 𝛼 del
dominio, lo será también para una cosa particular 𝜅.
Pero en la definición también usé otro tipo de constante: «𝜅».
ˆ Llamaremos «constante
con gorrito» a este tipo de constantes que ahora estoy introduciendo al lenguaje.7 La
regla me dice que, de una afirmación universal, también puedo inferir que la afirmación
es verdad para una constante con gorrito.
Las constantes «normales» –las que hemos venido usando, del tipo de a, b, c , etcétera–
se refieren (suponiendo una interpretación) cada una a una cosa particular del dominio:
funcionan como nombres propios. Así, en un modelo, «a» puede referirse a Stan Lee;
sería el «nombre propio» de Stan Lee en ese modelo. En otro modelo (cambiando la
interpretación), «a» podría referirse al planeta Tierra. Pero siempre se refiere a alguna
cosa particular.
Pero las constantes con gorrito se refieren a una cosa particular y a todas las demás.
Entonces, podemos leer una constante con gorrito, â, así: «a y todas las demás cosas». Por
lo que leeríamos la fórmula «F â» como: «Efe de a y de todas las demás cosas».
Puede parecer un truco extraño—¡y lo es! Pero (1) no rompe ninguna regla y (2)
necesitamos hacer algo así para poder definir una regla razonable de introducción del
cuantificador universal (como veremos después de unos ejercicios). La idea es que voy a
eliminar un cuantificador universal con una constante con gorrito siempre que necesite
volver a un universal.
Vamos a hacer unos ejercicios y después veremos más sobre la importancia de este
nuevo tipo de constantes.
Ejercicio # 51
1. Usando la regla E∀ y las de la lógica proposicional, demuestra la validez de los
siguientes argumentos.
a) 1) ∀y (H y) / ∴ H b
b) 1) ∀x (H x)
2) T a ∨ ¬H b / ∴ T a
c) 1) G a ≡ R (a,c )
2) ∀x [R (a,x)] / ∴ G a
d) 1) Q d ⊃ (T d ∨ H d )
2) ∀x (Q x)
3) ¬H d / ∴ T d
e) 1) F a
2) (F a ∨ M a) ⊃ ∀x (G x) / ∴ G â
2. Usando las reglas E∀, I∃, y las de lógica proposicional, demuestra las siguientes
tres inferencias:
273
a) 1) ∀x¬(Q x)
2) ¬Q a ⊃ ∀x (Rax) / ∴ ¬¬∀x (Rax)
b) 1) F b & S a
2) ∃x (F x) ⊃ ∀x (Q x) / ∴ Q b
c) 1) ∃x (¬Q x & W x) ≡ ∀x (G x)
2) ¬Q a & W a / ∴ G a
3. Usando las reglas E∀, I∃, las de los cuadrados de oposición, y las de lógica pro-
posicional, demuestra las siguientes cinco inferencias:
a) 1) ¬∃x¬(Q x)
2) Q a ⊃ T a / ∴ T a
b) 1) ¬∃y (P y & H y)
2) ∀y (¬H y ∨ ¬P y) ≡ ∀x (Q x) / ∴ Q a
c) 1) ∃y (P y & ¬Q y)
2) T a ⊃ ∀y (P y ⊃ Q y) / ∴ ¬T a
d) 1) Q a
2) ∀x [R (x,b) ≡ Q x] / ∴ R (a,b)
e) 1) [∀x (Ax ⊃ ¬Bx)] ≡ [∀y (Q y)]
2) ¬∃y¬(Q y) / ∴ ¬∃x (Ax & Bx)
Evidentemente, inferir que todos son F a partir de que Juanito es F, es inválido: hay
muchos modelos en los que Juanito es F sin que todos lo sean. Entonces, sería desastroso
proponer algo así como regla I∀:
Φ(𝜅) ∴ ∀𝛼(Φ𝛼)
Y sería desastroso porque, como en el caso de Juanito, de que alguna cosa particular
tenga una cualidad, no se sigue que toda cosa del dominio también tenga esa cualidad.
Así que necesitamos una manera de «codificar» a todas las cosas del dominio en
una constante. Ese es precisamente el papel de las constantes con gorrito, que vienen a
salvarnos el día.
Como vimos arriba (sec. 11.4), una constante con gorrito es una constante como
las que hemos usado: a,b,c . . ., pero con su correspondiente gorrito: â, b̂, cˆ . . . Estas
significan, respectivamente: «a y todas las demás cosas del dominio», «b y todas las
demás cosas del dominio», «c y todas las demás cosas del dominio», y así sucesivamente.
Pero por esa misma razón—porque las constantes con gorrito «codifican» a todas las
cosas del dominio—las fórmulas que tienen constantes con gorrito sólo pueden infe-
rirse de fórmulas que tienen cuantificadores universales. No podemos introducir
274
constantes con gorrito de otra forma, más que sacándolas de cuantificadores universa-
les. Y como las constantes con gorrito vienen de cuantificadores universales, eso nos
permite trabajar con ellas y volver a introducir cuantificadores universales de manera
lógicamente válida.
Esta es la regla:
Definición 98: Introducción del Cuantificador Universal
Φ[ 𝜅]
ˆ
I∀
∀𝛼(Φ[𝛼])
donde 𝜅ˆ es una constante «con gorrito» que se obtiene de una previa
aplicación de la regla 97.
Nuestra regla es válida: es válido inferir que toda cosa del dominio es F , a partir de que
a y todas las demás cosas del dominio son F .
Ahora vamos a ver un par de ejemplos de cómo usar esta regla.
Si tengo como premisa que todos los seres humanos somos mortales, y que, ade-
más, todos los filósofos somos seres humanos, eso debería implicar que todos los
filósofos somos seres humanos. (Este es un caso de la figura BARBARA de la silo-
gística aristotélica.) Usando un modelo que dejaremos implícito, la formalización de
este argumento es:
1. ∀x (S x ⊃ M x)
ejemplo 43
2. ∀x (F x ⊃ S x) / ∴ ∀x (F x ⊃ M x)
Y podemos demostrar su validez usando la regla de silogismo hipotético de LC0 y
las reglas de eliminación e introducción del cuantificador universal:
1. ∀x (S x ⊃ M x)
2. ∀x (F x ⊃ S x) / ∴ ∀x (F x ⊃ M x)
3. (S â ⊃ M â) E∀(1)
4. (F â ⊃ S â) E∀(2)
5. (F â ⊃ M â) S.D.(3,4)
6. ∀x (F x ⊃ M x) I∀(5)
En el ejemplo anterior, fíjate qué importante es usar la misma constante con gorrito
para poder aplicar las reglas: si hubiera utilizado una constante distinta para eliminar
el universal en las líneas 3 y 4, no podría haber hecho el silogismo disyuntivo de la línea
5.
En otros casos, es importante utilizar distintas constantes con gorrito, para poder
introducir cuantificadores universales ligando distintas variables. Veamos un ejemplo
275
de esto.
En este ejemplo, nota que fue importante sustituir los cuantificadores universales
en 1 y 2 por distintas constantes con gorrito, porque así pude volver a introducir
cuantificadores ligando a distintas variables en los pasos 8 y 9. Sin ello, no podría
haber llegado a la conclcusión.
En resumen:
Si quiero introducir el cuantificador universal para la misma variable, debo usar la misma
constante con gorrito.
En cambio,
Si quiero introducir el cuantificador universal con distintas variables, debo usar distintas
constantes con gorrito.
Ahora vamos a ejercitar el uso de esta regla.
276
Ejercicio # 52
1. Usando las reglas I∀, E∀ y las de la lógica proposicional, demuestra la validez de
los siguientes argumentos.
a) 1) ∀x (Q x & P x) / ∴ ∀x (P x)
b) 1) ∀z (Q z ∨ P z )
2) ∀x (¬Q x) / ∴ ∀x (P x)
c) 1) ∀x∀z [R (x, z ) & T (z ,x)]
2) ∀x∀z [R (x, z )] ⊃ ∀y (Q y) / ∴ Q b
277
La idea básica es expandir el lenguaje para introducir un tercer y último tipo de
constantes: las «constantes ficticias» o «constantes con asterisco». Una constante con
asterisco, como a ∗ ,b ∗ ,c ∗ , . . . y que representaremos con la metavariable para constantes
𝜅 ∗ , significa algo como «quien sea que haga verdad la fórmula existencial», o, digamos,
«quien lo haya hecho». Entonces, una fórmula como «F c ∗ » significa: «quien lo haya
hecho, es F ».
Por supuesto, cuando hablamos de «la fórmula existencial» o cuando decimos «lo
haya hecho», nos referimos a una fórmula específica en cada demostración. Es por eso
que la E∃ requiere de una demostración bajo un supuesto: comenzamos con una
fórmula existencial, como ∃x (G x), y suponemos que alguien, a quien no conocemos pero
que es uno de los que hace verdad a la fórmula existencial, es G . A ese alguien es a
quien llamamos «a ∗ ».
(Para repetir: «a ∗ » no es el mismo nombre que «a». La primera es sólo una manera
de decir «alguien que haga lo que dice la fórmula existencial». La segunda es el nombre
de algún objeto específico del dominio.)
Entonces, al abrir la demostración bajo un supuesto, estamos diciendo: «Supongamos
que llamamos ‘a ∗ ’ a quien haga verdad el existencial. Entonces. . . » y los tres puntitos
representan pasos en una demostración que hacemos usando las reglas que ya tenemos.
Si usando las reglas podemos demostrar una fórmula específica, eso significa que esa
fórmula se sigue de que alguien hace verdad el existencial, sin necesidad de saber quién
es específicamente. (Por ello, a ese alguien lo hemos llamado «a ∗ », pero en realidad sólo
sabemos que es quien hace verdad al existencial.)
Pero hay que recordar que la fórmula a la que lleguemos no puede contener a
la constante ficticia que introducimos en la sub-prueba de E∃. Queremos demostrar
que esa fórmula se sigue sólo de la suposición de que alguien hace verdad la fórmula
existencial, por lo que la demostración no puede requerir usar un nombre ficticio
particular. De ahí la restricción.
En resumidas cuentas, definamos la regla.
Definición 99: Eliminación del Cuantificador Existencial
∃𝛼(Φ[𝛼])
Φ[𝜅 ∗ ]
..
.
E∃ donde A no contiene a 𝜅 ∗
A
Los tres puntos verticales representan el uso de las reglas válidas (tanto las que ya
hemos visto como las que veremos después). Es decir: empezamos con una fórmula
278
existencial, y para eliminar el existencial, introducimos un supuesto (representado por
la línea vertical). Bajo este supuesto, quitamos el existencial y sustituimos la variable
(¡en todas sus apariciones!) por una constante ficticia. Después, utilizamos las reglas
válidas para llegar a la fórmula que nos interese en esa demostración. Esa fórmula no
puede contener a la constante ficticia, porque la vamos a sacar del supuesto, y será la
conclusión de la eliminación del existencial.
La constante ficticia es, por así decir, un mero instrumento para poder quitar el
existencial. Es por eso que no debe referir a nadie específico: como no sabemos quién
hace verdad al existencial, mi inferencia sólo puede depender de que yo sepa que alguien
lo hace verdad. Es por eso que la constante ficticia sólo sirve para nombrar a una de
las cosas, la que sea, que haga verdad al existencial.
1. ∃x (Rx & T x) / ∴ ∃x (T x)
a. Ra ∗ & T a∗ Sup.
2. b. T a ∗ E&(2a)
c. ∃x (T x) I∃(2b)
3. ∃x (T x) E∃(1,2)
279
2) ∃x (S x) ⊃ ∀y∃z [R (y, z ) & Q z ] / ∴ ∃x (Q x)
2. .
Vamos a cerrar esta sección listando las cuatro reglas que hemos visto hasta ahora.
Definición: Reglas de los cuantificadores
I∃ I∀
E∃
∃𝛼(Φ[𝛼])
E∀
Φ[𝜅 ∗ ]
..
. ∀𝛼(Φ[𝛼])
A
ˆ o bien, Φ[𝜅 ∗ ]
Φ[𝜅] o bien, Φ[ 𝜅]
A
donde A no contiene a 𝜅 ∗
Ejercicio # 54
1. Formaliza y demuestra los siguientes argumentos, usando las reglas de introduc-
ción y eliminación de los cuantificadores, además de las proposicionales. Puedes
usar el mismo modelo, o distintos.
a) Todo el que haya hecho trampa, será castigado. Si alguien copió en el
examen, entonces, alguien hizo trampa. Pepe copió en el examen. Por lo
tanto, alguien será castigado.
b) Nadie es perfecto. Si todos son imperfectos (no-perfectos), entonces algu-
nos son imperfectos y humanos. Por lo tanto, algunos son humanos.
c) Algunos humanos no serán castigados. Todo el que no sea castigado, es
puro. Por lo tanto, algunos humanos son puros.
280
d)
e)
f)
g)
h)
i)
j)
2. Demuestra los siguientes argumentos, usando las reglas de los cuadrados de
oposición, las de introducción y eliminación de los cuantificadores, y las proposi-
cionales.
a) 1) ∀x (P x ⊃ Q x)
2) P a / ∴ Qa
b) 1) ∃x (P x & Q x)
2) ∀x (Q x ≡ S x) / ∴ ∃x (P x & S x)
d) 1) T a
2) [¬∀y¬(T y)] ⊃ ∀y¬(T y & ¬M y) / ∴ Ma
e) 1) ¬∃x (P x & Q x)
2) ¬∃x¬(H x) ≡ ∀x (P x ⊃ ¬Q x) / ∴ Ha
f) 1) (¬F a & ¬P a) ⊃ ¬Q a
2) S a & Q a
3) ¬∃x (¬F x & ¬F x) / ∴ Pa
g) 1) ∀x (Q x ∨ S x) ⊃ ∀z [P z ≡ R (a, z )]
2) ∀x (S x) / ∴ ¬∃z ¬(P z ≡ R (a, z ))
h) 1) ∃x (F x & G x)
2) ¬∀x (H x & I x) ⊃ ¬∃x (F x)
3) ¬∀x¬(H x) ≡ ∀x (M x & J x) / ∴ ∀x ( J x)
i) 1) ∀x (P x) ⊃ ∃x ( J x & H x)
2) ¬[∀x (M x) & ¬∃x (Q x & I x)]
3) ¬∀x¬(H x) ⊃ ∀x (M x & S x) / ∴ ∀x (P x) ⊃ ¬∀x¬(I x)
281
j) 1) ¬[∀x (M x & T x) & ¬∃x¬(Q x ⊃ I x)]
2) ∀x (Q x & M x)
3) [¬∃x¬(T x)] ∨ [¬∃x (Q x)] / ∴ ∃x¬(I x)
Además de las reglas de eliminación e introducción para los cuantificadores, así como
de equivalencia entre ellos, y de las reglas para la identidad que revisaremos en el
siguiente capítulo (12), nos falta revisar cómo es que los cuantificadores «interactúan»
con las conectivas proposicionales. Claro está que ya las reglas de equivalencia del
cuadrado de proposición moderno (11.3.2) nos dicen cómo es que los cuantificadores
restringidos por «su conectiva natural» («⊃» para «∀» y « & » para «∃») equivalen entre
sí y cómo estas equivalencias se comportan con estas conectivas; pero falta revisar cómo
se comportan los cuantificadores—es decir, qué inferencias son válidas—cuando tenemos
conectivas, sin enfocarnos en las equivalencias con otros cuantificadores.
Resulta que podemos demostrar a partir de las reglas que ya tenemos—o, de manera
alternativa, de las características de los modelos—que otras inferencias son válidas.
Estas reglas derivadas de interacción son de las que hablaremos ahora.
Dado que son derivadas —es decir, que su validez se sigue de las reglas básicas—,
estas reglas no son estrictamente necesarias. Pero tenerlas en el repertorio de reglas
tiene una ventaja: hace a las demostraciones más cortas. En general, siempre nos en-
frentaremos con un dilema:
Entre más reglas tengamos, más hay que memorizar. Pero entre menos reglas tengamos, las
demostraciones pueden ser más largas y complicadas.
Así que tú puedes elegir si memorizar o no las siguientes reglas. Sólo considera que
podrían ser útiles después.
Como siempre, que una regla sea válida significa aquí que, para cada sustitución uni-
forme de los esquemas de premisa y conclusión, en todo modelo en el que la premisa sea
verdadera, también lo será la conclusión. Si la regla es, además, de equivalencia—si
nos dice que dos tipos de fórmulas son lógicamente equivalentes—entonces toda susti-
tución uniforme de los esquemas de premisa y conclusión son verdaderos en exactamente
los mismos modelos.
Usando esta definición semántica, podemos demostrar las siguientes reglas. Estas
también, como hemos dicho, son demostrables a partir de las reglas de introducción y
282
eliminación de los cuantificadores, así como las reglas de los cuadrados de oposición.
Para demostrarlas, lo único que tenemos que hacer es tomar a sus premisas como pre-
misas de un argumento, y la conclusión como la conclusión de un argumento; usando
las reglas que hemos visto, podríamos inferir la conclusión a partir de las premisas.
(Por supuesto, dado que son reglas, ellas no nos hablan de fórmulas particulares —
como «F a» o «H (b,c ) ⊃ ¬F d »— sino de esquemas —tipos, formas— de fórmulas. Para
hacer la demostración de la que estoy hablando, tendremos que suponer que las reglas
que hemos visto —como E∀— valen no sólo con las fórmulas, sino con los esquemas
mismos: es decir (usando el ejemplo de E∀), que si tenemos un esquema ∀𝛼(Φ[𝛼]), de
ahí podemos inferir un esquema Φ[𝜅]. Esto requiere suponer que la lógica de la «meta-
lógica» es la misma; que es lo que haremos para hacer las demostraciones pertinentes.)
Empecemos.
El primer par de reglas significa que la variable que usemos en una fórmula cuantifi-
cada no es importante: sólo se requiere que esté ligada adecuadamente. Por eso es que
una fórmula con una variable particular implica a la misma fórmula cuando le susti-
tuimos esa variable por cualquier otra, siempre que esa variable no esté ya siendo
ligada por otro cuantificador dentro de la misma fórmula.
Definición 100: Cambios de variable
∀𝛼(Φ[𝛼])
CambioVar∀
∀𝛽 (Φ[𝛽 ])
∃𝛼(Φ[𝛼])
CambioVar∃
∃𝛽 (Φ[𝛽 ])
En ambos casos, la variable por la que cambio la original no puede estar
ya ligada por otro cuantificador dentro de la misma fórmula.
Entonces, estas reglas reflejan lo que habíamos dicho en la sección sobre modelos
(9.5): es irrelevante qué variable usemos para expresar una afirmación universal o exis-
tencial. Mientras no haya confusión acerca de qué variable está siendo ligada por cuál
cuantificador, ni acerca de cuál es el orden (secc. 10.2), nada nos obliga a usar «x» en
lugar de «z », por ejemplo.
283
11.6.2. Distribuciones y contracciones
Las siguientes reglas son importantes, pues nos reflejan el comportamiento de los cuan-
tificadores en distintos de dominio.
Vamos a llamarle «reglas de distribución» a las reglas que nos aseguran la validez de
una inferencia en la que se empieza con un cuantificador en cuyo alcance está una conec-
tiva proposicional, y se concluye una fórmula cuya conectiva principal es esa conectiva,
donde cada lado de la conectiva tiene el cuantificador. Es decir: en estas inferencias, el
cuantificador se «distribuye» entre las diferentes partes de la conectiva. Por ejemplo:
Distribución ∃/&
∃𝛼(Φ[𝛼] & Ψ[𝛼])
∃𝛼(Φ[𝛼]) & ∃𝛼(Ψ[𝛼])
Indicamos que la regla es de equivalencia usando las dos rayas, «//», e indicamos que
es de inferencia si sólo usamos una: «/».
Por otro lado, y de manera «inversa» o «dual», le llamaremos «reglas de contracción»
a las reglas en las que empezamos con una conectiva proposicional que tiene un cuanti-
ficador (ya ambos universales, ya ambos existenciales) en cada lado, y concluimos con
una fórmula que tiene un solo cuantificador que tiene en su alcance a esta conectiva.
En estas inferencias, los cuantificadores se «contraen» en uno solo. Por ejemplo:
Contracción ∀/∨
∀𝛼(Φ[𝛼]) ∨ ∀𝛼(Ψ[𝛼])
∀𝛼(Φ[𝛼] ∨ Ψ[𝛼])
Muy bien. Vamos a empezar con la conjunción.
Definición 101: Distribución en &
Es muy útil ver por qué son válidas estas inferencias, y por qué la primera es de
equivalencia, pero no la segunda.
Considera Dist∀//&. La fórmula de arriba dice que todo lo del dominio es: tanto Φ
como Ψ. La de abajo dice que, por un lado, todo es Ψ, y por el otro, todo es Ψ. Es
decir: la de arriba le atribuye a cada objeto del dominio la propiedad compuesta ser-Φ-
y-Ψ. La de abajo dice que suceden dos hechos: que todo es Ψ y que todo es Ψ. ¿Cómo
284
demostramos esta equivalencia?
Una manera es demostrando una fórmula a partir de la otra, usando las reglas que
ya tenemos. Otra es mediante un método semántico: demostrar que todo modelo en el
que la primera es verdadera, la segunda también, y viceversa.
Empecemos con el método semántico. La primera fórmula dice que cada objeto del
dominio es Φ-y-Ψ. ¿Cómo modelamos eso?
Bueno, consideremos el dominio de cualquier modelo. Para que sea verdad que todo
en el dominio es Φ-y-Ψ, el dominio del modelo se tiene que ver así:
Dominio
Φ Ψ
Figura 11.1: Un dominio en el que todas las cosas son tanto Φ como Ψ.
Ahora bien, la segunda fórmula dice que suceden dos hechos: que todo es Ψ y que
todo es Ψ. ¿Qué tiene que pasar para que sea verdad que suceden ambos hechos?
Por principio de cuentas, esto es una conjunción, así que sólo es verdadera si ambos
conyuntos lo son. Vamos por partes. Para que sea verdad el primer conyunto —que
todo es Φ—, el dominio del modelo se tiene que ver así:
Dominio Φ
Dominio Ψ
285
Pues así:
Dominio ΦΨ
En este caso, todas las cosas del Dominio son Φ y también son Ψ. Pero entonces,
el dominio va a ser un conjunto de cosas, todas las cuales son tanto Φ como Ψ. Esto
significa que hemos demostrado que: en todo modelo en el que sea verdad que todo es
Φ y que todo es Ψ, será verdad que todo es Φ-y-Ψ.
Esto da una de las implicaciones lógicas de la regla Dist∀//&. Falta la otra: que en
todo modelo en el que sea verdad que todo es Φ-y-Ψ, será verdad que todo es Φ y
también que todo es Ψ.
Demostrar esto segundo es fácil. Si todo es Φ-y-Ψ, el dominio se verá como el dia-
grama 11.1. Pero entonces, eso significa que el toda cosa en el dominio es Φ, y que
toda cosa en el dominio es Ψ. Esto demuestra la implicación de arriba hacia abajo en
Dist∀//&.
También podríamos haber usado las reglas que ya tenemos y mostrar ambas impli-
caciones. Podemos usar ese método para las siguientes reglas.
Las siguientes son las reglas de distribución y contracción con la disyunción.
Definición 102: Distribución y contracción en ∨
∀𝛼(Φ[𝛼]) ∨ ∀𝛼(Ψ[𝛼])
Contr∀/∨
∀𝛼(Φ[𝛼] ∨ Ψ[𝛼])
∃𝛼(Φ[𝛼] ∨ Ψ[𝛼])
Distr∃//∨
∃𝛼(Φ[𝛼]) ∨ ∃𝛼(Ψ[𝛼])
Las siguientes son reglas para la interacción entre los cuantificadores y el condicional
material.
Definición 103: Distribución y contracción en ⊃
∀𝛼(Φ[𝛼] ⊃ Ψ[𝛼])
Distr∀/ ⊃
∀𝛼(Φ[𝛼]) ⊃ ∀𝛼(Ψ[𝛼])
286
∃𝛼(Φ[𝛼]) ⊃ ∃𝛼(Ψ[𝛼])
Contr∃/ ⊃
∃𝛼(Φ[𝛼] ⊃ Ψ[𝛼])
∃𝛼(Φ[𝛼] ⊃ Ψ[𝛼])
Distr∃// ⊃
∀𝛼(Φ[𝛼]) ⊃ ∃𝛼(Ψ[𝛼])
Nota. Hay una «regla», que podría parecerse a la última, pero que, de hecho, es invá-
lida:
∃𝛼(Φ[𝛼] ⊃ Ψ[𝛼])
∃𝛼(Φ[𝛼]) ⊃ ∃𝛼(Ψ[𝛼])
Finalmente,
Definición 104: Distribución en ≡
∀𝛼(Φ[𝛼] ≡ Ψ[𝛼])
Distr∀/≡
∀𝛼(Φ[𝛼]) ≡ ∀𝛼(Ψ[𝛼])
Donde la variable 𝛼 ligada por el cuantificador no está libre en A, valen las siguientes
reglas:
Definición 105: Distribuciones condicionadas de cuantificadores
A & ∀𝛼(Φ[𝛼])
DistrCond∀//&
∀𝛼( A & Φ[𝛼])
A & ∃𝛼(Φ[𝛼])
DistrCond∃//&
∃𝛼( A & Φ[𝛼])
DistrCond∀//∨
DistrCond∃//∨
DistrCond∀// ⊃
DistrCond∀, ∃// ⊃
DistrCond∃,∀// ⊃
287
11.6.4. Permutaciones
∀𝛼∀𝛽 (Φ[𝛼, 𝛽 ])
Perm∀//∀
∀𝛽∀𝛼(Φ[𝛼, 𝛽 ])
∃𝛼∃𝛽 (Φ[𝛼, 𝛽 ])
Perm∃//∃
∃𝛽 ∃𝛼(Φ[𝛼, 𝛽 ])
∃𝛼∀𝛽 (Φ[𝛼, 𝛽 ])
Perm∃∀/∀∃
∀𝛽 ∃𝛼(Φ[𝛼, 𝛽 ])
Es fácil ver por qué la conversa de la última regla, que llamaríamos «Permutación∀∃/∃∀»
no es una regla válida, si recuerdas la sección sobre la importancia del orden (10.2).
Ejercicio # 55
1. Usando las reglas que ya vimos, demuestra que estas también son válidas (Tip:
recuerda la regla de introducción del condicional: si, suponiendo A y usando las
reglas (proposicionales y cuantificacionales), llego a B , se sigue que A ⊃ B ):
a) 1. ∀x (P x)
∴ ∃x (P x)
b) 1. ∃x (P x ⊃ Q x)
∴ ∀x (P x) ⊃ ∃x (Q x)
c) 1. ∀x (P x ↔ Q x)
∴ ∀x (P x) ↔ ∀x (Q x)
2. Recuerda que esto: «A ⊨⊨ B » significa que A y B son lógicamente equivalen-
tes: una se puede demostrar a partir de la otra, y viceversa. (Es un bicondicional
lógicamente necesario). Cuando esto pasa, tenemos una regla de equivalencia.
Para demostrarla, sólo demuestra un lado a partir del otro (usando las reglas), y
viceversa.
a) 1. ∃x∃y [P (x, y)] ⊨⊨ ∃y∃x [P (x, y)]
b) 1. ∃x∀y [P (x, y)]
∴ ∀y∃x [P (x, y)]
c) Da una explicación informal de por qué (2b) sólo es de inferencia, y no de
equivalencia.
Como ejercicio opcional, demuestra que la inferencia de la página 287 de hecho es
inválida. Para ello, construye un contramodelo: un modelo en el que un caso —es decir,
una sustición de 𝛼 por una variable, y de Φ y Ψ por matrices que contienen a la variable
288
que sustuiste por 𝛼 — de la premisa sea verdadera, pero la conclusión sea falsa. (Nota
que la premisa tienen a «∃» como conectiva principal, pero la conclusión tiene a « ⊃ ».)
289
Proyecto del capítulo:
Antecedentes d [Este proyecto podría ser sobre lenguajes formales en general.
Podría ser diseñar un lenguaje formal. O también podría ser sobre reglas de trans-
formación en general: reglas para pasar de una cadena de símbolos a otra. O dise-
ñar un lenguaje formal arbitrario, diseñar reglas de transformación, y demostrar
unos teoremas en ese lenguaje.
Un segundo proyecto podría ser revisar un probador de teoremas y aprender
a usarlo.
Un tercer proyecto podría ser una exposición oral y/o audiovisual sobre cual-
quiera de estos temas. Podría usar Prezi.
Un cuarto proyecto podría ser relacionar los cuadrados de oposición con la
historia: Revisar a Aristóteles. Exponer sobre esto o diseñar un mapa mental.
Un quinto proyecto sería diseñar un diagrama de flujo para usar algunas reglas
seleccionadas y exponer el diagrama en clase.]
Problema d [Aquí describiré este proyecto.]
Notas
1. Esto es fácil de demostrar con la semántica de nuestra lógica, aunque requiere conceptos más avanzados
que no veremos hasta el capítulo 15.
2. Pero hay que notar que la lógica LC1 y la silogística aristotélicas son sistemas distintos: Refs.
4. Pues, si «algunos estudiamos filosofía» es falsa, esto implica que es verdad su contradictoria: «no existe
alguno que estudió filosofía», que es equivalente a: «todos no estudiamos filosofía». Y, si «algunos no
estudiamos filosofía» también es falsa, esto implica que es verdad su contradictoria: «no existe alguno que
no estudió filosofía», que es equivalente a: «todos estudiamos filosofía». Pero entonces tendríamos que es
verdad tanto que «todos no estudiamos filosofía» como que «todos estudiamos filosofía», lo cual no puede
ser, pues estas son contrarias.
290
capítulo
12
La identidad
Objetivos de aprendizaje
1.
2.
291
n este capítulo vamos a extender la lógica clásica de primer orden, LC1, a la lógica
E clásica de primer orden con identidad, LC1=. Recordemos que LC1 tiene un lenguaje,
una semántica formal (teoría de modelos) y un aparato deductivo (deducción natural).
Extender LC1 a LC1= significa extender cada uno de los tres aspectos mencionados.
La razón para ello es que existen ciertos enunciados que no son formalizables en LC1
de manera completamente perspicua. Por ejemplo, el enunciado:
Sólo Andrés Manuel López Obrador es el presidente de México en 2019,
no se puede formalizar de manera perspicua en LC1. Podemos, por ejemplo, escribir
(dando un modelo por sentado):
P (a,m),
donde «P » sea el predicado de dos lugares «_ es el presidente de _ en 2019», y donde,
obviamente, «a» y «m» denotan, respectivamente, a AMLO y a México. Pero en este
modelo, la fórmula significa que «AMLO es presidente de México en 2019», pero no
recuperamos el «sólo», que nos dice que únicamente AMLO es el presidente.
Podríamos intentar utilizar los cuantificadores, pero esto no sería adecuado. Si usa-
mos el existencial, esto no recupera el sentido original:
∃x [P (x,m)]
Esta fórmula nos dice que al menos una cosa del dominio del modelo es presidente de
México en 2019. Ni siquiera si ponemos una conjunción:
pues esta nos dice que AMLO es presidente y que al menos una cosa lo es. Usar el
universal sería desastroso:
∀x [P (x,m)],
pues nos diría que todos en el modelo son presidentes (de México en 2019). Y no hay otra
manera —no, al menos, una obvia— de formalizar en LC1 que nos permita recuperar
el significado original.
Esto no sería tan importante de no ser porque parece que la validez de algunos
argumentos depende de que formalicemos bien la proposición expresada por «Sólo
AMLO es el presidente de México en 2019». Por ejemplo, el siguiente argumento parece
válido:
1. Sólo AMLO es el presidente de México en 2019.
2. Sólo quien sea presidente de México en 2019, es comandante en jefe.
∴ AMLO es comandante en jefe.
292
Como veremos en este capítulo, introducir la constante lógica de identidad nos permi-
te confirmar la apariencia de que este argumento es válido, pues las reglas de deducción
natural para la identidad nos permiten demostrar su validez.
La lógica clásica de primer orden con identidad (LC1=) incluye tres tipos de constantes
lógicas:
• Las conectivas proposicionales, una monádica y cuatro diádicas: ¬, ∨, &, ⊃, ≡.
• Los cuantificadores universal y existencial: ∀ y ∃.
• La relación de identidad: =.
Como se explicita en las reglas de deducción natural, algunas de estas constantes son
definibles en términos de otras:
• La conjunción (A & B) se puede definir en términos de la disyunción y la negación
(¬(¬A∨ ¬B)) o del condicional y la negación (¬(A ⊃ ¬B)).
• En general, toda conectiva proposicional diádica se puede definir en términos de
la negación y la disyunción, o la negación y la conjunción, o la negación y el
condicional.1
• Los cuantificadores son definibles entre sí: ∀ es lógicamente equivalente a ¬∃¬, y
viceversa: ∃ es ¬∀¬.
Sin embargo, esto no pasa con todas las conectivas proposicionales. La negación no se
puede definir en términos de las demás conectivas diádicas que hemos visto (aunque sí
en términos de otras que no hemos visto2 ).
Otra constante que tampoco es definible es la identidad, =, que no se puede definir
con las que hemos visto. Esta es una relación lógica primitiva, lo cual sólo significa
que no se define en términos de ninguna otra constante lógica de LC1=.
293
12.1.2. El símbolo de identidad
Este símbolo es una relación de dos lugares cuya interpretación es constante, es decir:
su interpretación nunca cambia a través de los modelos: siempre se interpreta de la
misma manera: como la relación de identidad.
Usando la notación que hemos estado usando para relaciones, en la que escribimos
el símbolo relacional fuera del paréntesis y los términos dentro del paréntesis (tantos
términos como lugares tenga la relación), escribiríamos así: = (𝛼, 𝛽 ). Sin embargo, usa-
remos la notación usual en matemáticas: 𝛼 = 𝛽 (a esto se le conoce como notación
de infijo). De igual manera, usando la notación que hemos usado hasta ahora, escribi-
ríamos la negación de la identidad así: ¬ (𝛼 = 𝛽 ). Siguiendo la práctica usual, también
podemos escribir: 𝛼 ≠ 𝛽 . Ambas notaciones para la negación de identidad son correctas
en nuestro sistema.
Que 𝛼 = 𝛽 significa que 𝛼 es 𝛽 , que son una y la misma cosa —en fin, que son idénticas.
Cuando «dos» cosas «son» idénticas, en realidad no son dos: es una. Esto significa que
si 𝛼 = 𝛽 , entonces 𝛼 va a tener exactamente las mismas propiedades que 𝛽 (¡pues son
la misma!), y viceversa.
Ahora bien, en el lenguaje común, a veces oímos decir cosas como: «¡a y b son
idénticos!» o que «son igualitos» como hipérboles para decir que a y b son muy parecidos.
Pero en este libro sólo usaremos «idénticos» e «iguales» en el sentido lógico estricto: la
identidad.
En el Español, «es» puede significar varias cosas: puede significar predicación (como
en «La rosa es roja») o puede significar identidad (como en «Superman es Clark Kent»).3
De igual manera, usando negación podemos tener la negación de una predicación («La
rosa no es azul»), o la negación de una identidad («Clark Kent no es Lois Lane»).
Usar la relación de identidad nos permite formalizar oraciones que sin ella no podríamos
formalizar. Ahora veremos varios ejemplos.
Usando las interpretaciones obvias y un dominio que dejamos implícito, voy a poner
ejemplo 46
294
volar.
• Nadie, excepto Superman, vuela: V s & ¬∃x (V x & x ≠ s ) , o de manera
equivalente (por el cuadrado moderno de oposición): V s & ∀x (V x ⊃ x = s ) :
Sólo Superman vuela: V s & ∀x (x ≠ s ⊃ ¬V x) (por transposición).
• Sólo Superman y Batman son superhéroes: H s & H b & ∀x [H x ⊃ (x =
s ∨ x = b)] .
• Superman y Batman son justos: J s & J b , o, de manera equivalente: ∀x [(x =
s ∨ x = b) ⊃ J x] .
• Superman no existe: ¬∃x (x = s ) . O, de manera equivalente: ∀x (x ≠ s ) . [Esto
significa que Superman no existe en el dominio; si el dominio es irrestricto,
entonces esto sí significa que Superman no existe en absoluto.]
Ejercicio # 56
1. Interpreta las siguientes fórmulas en el lenguaje natural. Define un modelo para
cada una (puede ser uno distinto para cada una, o el mismo para varias o todas
las fórmulas).
a) ∃x (F x & G x) ⊃ ∀y (P y ⊃ y ≠ b) .
b) F a ≡ ¬∃x (F x & x = a) .
c) ¬∀x (P x ⊃ x ≠ b) .
d) ∃x¬(F x ∨ H x) & ∀y (H y ⊃ a = x) .
e) ∀x∃y [x ≠ y ⊃ (H x & G x)] .
2. Formaliza usando el modelo que se ofrece después de las oraciones:
a) No todos vamos a la Cineteca.
b) Algunos vemos algunas películas, pero nadie ve todas las películas.
c) Algunos vemos alguna película de Del Toro.
d) Memo es Guillermo del Toro.
e) Algunos, que no son del Toro, no ven The Shape of Water.
f ) Quien aprecie The Shape of Water no ve todas las películas de Del Toro.
g) Memo aprecia toda película de Del Toro que no sea The Shape of Water.
h) Si Memo va al cine, ese cine al que va es la Cineteca; también aprecia algu-
nas películas, pero sólo si no son The Shape of Water.
i) Todos, excepto Memo, aprecian todas las películas de Del Toro que no sean
The Shape of Water; pero Memo aprecia todas las películas de Del Toro
(incluyendo The Shape of Water).
j) Cualquiera que vea alguna película de Del Toro que no sea The Shape of
Water, aprecia The Shape of Water.
295
Modelo
Dominio: Irrestricto (el conjunto de todas las cosas).
V (𝛼, 𝛽 ) : 𝛼 va a 𝛽 . E (𝛼, 𝛽 ) : 𝛼 ve 𝛽 .
A(𝛼, 𝛽 ) : 𝛼 es el autor de 𝛽 . R (𝛼, 𝛽 ) : 𝛼 aprecia a 𝛽 .
Interpretación: P (𝛼) : 𝛼 es una película.
c : La Cineteca Nacional. g : Guillermo del Toro.
m : Memo. s : The Shape of Water.
La identidad posee algunas propiedades, que deberían ser obvias si realmente compren-
demos lo que significa «=». Por ejemplo:
1. Todo es idéntico a sí.
2. Nada es distinto de sí.
3. Dadas cualesquiera dos cosas, o son distintas, o en realidad son la misma.
4. Si algo es idéntico a «otra» cosa, esta «otra» es idéntica a la primera.
5. Cosas idénticas tienen exactamente las mismas propiedades.
6. Si dos cosas difieren en alguna propiedad, entonces no son la misma cosa.
Resulta que estas propiedades se pueden inferir a partir de las siguientes reglas de
inferencia. Recordemos que, cuando aparece una línea en blanco y debajo de ella un
esquema de fórmula, esto significa que cualquier fórmula con esa forma se puede intro-
ducir en cualquier momento de la demostración; o, lo que es lo mismo, que tal fórmula
es una verdad lógica del sistema.
La primera regla es la reflexividad de la identidad.
Definición 107: Reflexividad de =
Refl=
∀𝛼(𝛼 = 𝛼)
296
3 de arriba.
Definición 108: Simetría de =
Sim=
∀𝛼∀𝛽 [(𝛼 = 𝛽 ) ⊃ (𝛽 = 𝛼)]
Trans=
∀𝛼∀𝛽∀𝛿[(𝛼 = 𝛽 & 𝛽 = 𝛿) ⊃ 𝛼 = 𝛿]
La validez de esta regla nos permite inferir la afirmación 4 de arriba. Es fácil ver
que es una verdad lógica. Los ejemplos son infinitos: si Andrés es el mismo que Manuel,
y Manuel es el mismo que El Peje, entonces Andrés es el mismo que El Peje. O: si f (x) = y,
y además y = z 2 , se debe seguir que f (x) = z 2 . Para verlo por transposición: si Peter
Parker es Spiderman, y Spiderman es el mejor reportero de El Clarín, entonces, si Peter
Parker no fuera el mejor reportero de El Clarín, como él es Spiderman, Spiderman no
podría ser tampoco el mejor reportero de El Clarín.
Finalmente, tenemos:
Definición 110: Sustitución de idénticos
SustId
∀𝛼∀𝛽 [((𝛼 = 𝛽 ) & Φ[𝛼]) ⊃ Φ[𝛽 ]]
Esta última regla simplemente nos dice que lo siguiente es una verdad lógica: los
objetos idénticos tienen las mismas propiedades, lo cual corresponde a la afirmación 5.
Usando estas cuatro reglas, podemos inferir todas las afirmaciones 1-6 de arriba.
Ejercicio # 57
Formaliza las oraciones 1-5 y utiliza las cuatro reglas que hemos visto (y las ante-
riores) para demostrarlas. Como no parten de ninguna premisa, sólo vas a poner cada
afirmación como la conclusión de un argumento sin premisas, y utilizarás las cuatro re-
glas anteriores para introducir cualquier fórmula que tenga esa forma.
297
ción, porque no contienen ninguna premisa, sí se relacionan con inferencias que pueden
usarse para introducir o eliminar la conectiva. Estas inferencias serán reglas derivadas
de la identidad, pues su validez se puede demostrar a partir de las que acabamos de
ver. Y como son válidas, las podemos utilizar en cualquier demostración.
La regla SustId nos permite, suponiendo que tengamos una afirmación de identidad y
una predicación a uno de los objetos, «eliminar» la identidad predicando lo mismo al
«otro» objeto. No importa si no tengo cuantificadores. Por ejemplo, si tengo que:
a =b
y que:
F c ∨ ¬H a,
entonces puedo inferir:
F c ∨ ¬H b,
al introducir la fórmula en SustId, sustituyendo la matriz «Φ» que aparece en ella por
«F c ∨ ¬H _», y después usar eliminación de los cuantificadores universales y del condi-
cional. Esto es válido porque la regla SustId contiene esquemas de matrices Φ en la que
las únicas variables libres están ligadas por los cuantificadores al inicio. Ejemplificando
sobre el caso de arriba, y usando las variables x y y tendríamos:
𝜅1 = 𝜅2
SustId Φ[𝜅 1 ]
Φ[𝜅 2 ]
Veamos un ejemplo de una inferencia que podemos justificar con esta SustId.
298
ejemplo 47
1. a = b
2. H (a,c ) / ∴ H (b,c )
3. H (b,c ) SustId(1,2)
Algo parecido sucede con las demás reglas. Usándolas y con aplicaciones de E∀, po-
demos justificar que las siguientes son inferencias válidas para todas las constantes (con
gorrito, ficticias, y normales). En primera, Refl= significa que siempre puedo introducir
a = a, para cualquier constante. Eso justifica la siguiente regla derivada.
Definición 112: Reflexividad de = (derivada)
Refl=
𝜅1 = 𝜅2
𝜅1 = 𝜅2
Sim=
𝜅2 = 𝜅1
𝜅1 = 𝜅2
Trans= 𝜅2 = 𝜅3
𝜅1 = 𝜅3
Para cerrar, vamos a poner todas las reglas que introdujimos este capítulo, básicas y
derivadas, en el mismo lugar.
Definición: Reglas de la identidad
Refl= (básica)
∀𝛼(𝛼 = 𝛼)
299
Sim= (básica)
∀𝛼∀𝛽 [(𝛼 = 𝛽 ) ⊃ (𝛽 = 𝛼)]
Trans= (básica)
∀𝛼∀𝛽∀𝛿[(𝛼 = 𝛽 & 𝛽 = 𝛿) ⊃ (𝛼 = 𝛿)]
SustId (básica)
∀𝛼∀𝛽 [((𝛼 = 𝛽 ) & Φ[𝛼]) ⊃ Φ[𝛽 ]]
Refl= (derivada)
𝜅1 = 𝜅2
𝜅1 = 𝜅2
Sim= (derivada)
𝜅2 = 𝜅1
𝜅1 = 𝜅2
Trans= (derivada) 𝜅2 = 𝜅3
𝜅1 = 𝜅3
𝜅1 = 𝜅2
SustId (derivada) Φ[𝜅 1 ]
Φ[𝜅 2 ]
Ejercicio # 58
1. Formaliza y demuestra (puedes usar el mismo modelo para todos, o distintos):
a) Todas las orcas son mamíferos. Keiko es Willy. Willy es una orca. Por lo
tanto, Keiko es un mamífero.
b) Todas las orcas son cetáceos, y todos los cetáceos son mamíferos. Willy es
una orca. Por lo tanto, algunos mamíferos son cetáceos.
c) No todos los mamíferos son cetáceos. Si algunos mamíferos no son cetá-
ceos, entonces, o Willy es un cetáceo o Willy es un mamífero. Si Willy es un
cetáceo, Willy es un mamífero. Por lo tanto, Willy es un mamífero.
d) Ningún cetáceo es un pez; pero todos son mamíferos. Willy es Keiko, y es
un cetáceo. Por lo tanto, Keiko es un mamífero, pero no es un pez.
e) Algunos cetáceos son orcas, otros no. Si no todos los cetáceos son orcas,
entonces algunos cetáceos no son peces. Por lo tanto, existe algo que no
300
es un pez.
f ) Ningún pez es mamífero. El que todos los peces no sean mamíferos implica
que Nemo no es mamífero. El que Nemo no sea mamífero equivale a que
Tiburoncín no sea mamífero. Por lo tanto, Tiburoncín no es mamífero.
g) Tiburoncín no es una orca, pero sí es un pez. Ningún pez es cetáceo. Por lo
tanto, Tiburoncín no es cetáceo.
h) Todos los cetáceos son mamíferos. Pero Nemo no es mamífero. Tiburoncín
es distinto de Keiko, pero es el mismo que Nemo. Keiko es cetáceo. Por lo
tanto, Keiko es mamífero, pero Tiburoncín no.
i) Eres cetáceo sólo si eres mamífero. Eres pez sólo si no eres cetáceo. O
Tiburoncín es un pez o es un cetáceo. Nemo es Tiburoncín. Por lo tanto, o
Nemo es no es cetáceo o es un mamífero.
j) Es falso que Nemo sea Keiko, pero es verdad que Nemo es Tiburoncín.
Keiko, más bien, es Willy. Willy es un cetáceo, Nemo no. Todos los cetáceos
son mamíferos. Por lo tanto, existen mamíferos y no toda cosa es un cetáceo.
2. Formaliza los siguientes argumentos (puedes definir el mismo modelo para to-
dos) y demuestra su validez usando las reglas proposicionales, las de eliminación
e introducción de los cuantificadores, las equivalencias de los cuadrados de opo-
sición, y las reglas de la identidad.
a) Ningún superhéroe es paciente. Batman es superhéroe y millonario. Por lo
tanto, hay algún millonario que no es paciente.
b) Peter Parker no es millonario. Esto se infiere de lo siguiente. Todo millona-
rio es adinerado. Spiderman es un superhéroe no-adinerado. Spiderman es
Peter Parker.
c) Peter Parker no es Batman. Sólo Batman es millonario. Por lo tanto, Peter
Parker no es millonario.
d) Ningún superhéroe no es ágil. Batman y Peter Parker son superhéroes.
Quien sea ágil es hábil. Por lo tanto, algunos superhéroes son hábiles.
3. Usando las reglas de los cuantificadores (E∀, I∀, E∃, I∃), las reglas de los dos
cuadrados de oposición, las reglas de la identidad,4 y las de lógica proposicional,
demuestra las siguientes tres inferencias:
a) 1) ∀x¬(Q x)
2) ¬Q a ⊃ ∀xR (a,x) / ∴ ¬∃x¬R (a,x) & R (a,c )
b) 1) F b & S a
2) ∃x (F x) ⊃ ∀x (Q x) / ∴ ∀x (P x ∨ Q x)
c) 1) ¬G (a,b) ⊃ ∀x (x ≠ a) / ∴ ∃x∃yG (x, y)
301
12.3. «Hay a lo más n» y «Hay al menos n» *
Ya sabemos cómo expresar que hay al menos un F : «∃x (F x)». Esto nos podría llevar
a pensar que, para expresar que hay al menos dos F s —o lo que es lo mismo que hay
mínimo dos F s—, simplemente escribiríamos:
Pero esto es incorrecto. La fórmula 12.1 también es verdadera en modelos en los que
solamente hay un F . ¿Por qué? [...]
Entonces, la fórmula 12.1 no es la adecuada para expresar lo mismo que «hay al
menos dos F s». Tampoco nos ayudaría la siguiente:
por básicamente la misma razón: esta también es verdadera en modelos en los que hay
un único F .
Para tener la formalización correcta, la idea es partir de la fórmula que habíamos
pensado inicialmente (12.1) y agregarle lo necesario para eliminar el problema que
tenía. El problema es que ella también era verdadera en modelos en los que hay un solo
302
F . Entonces, la idea es agregar lo necesario para que sea falsa en esos modelos en los
que solamente hay un F .
Podemos usar esta:
∃x∃y [(F x & F y) & (x ≠ y)], (12.3)
que es la fórmula correcta, pues es verdadera en todos y sólo aquellos modelos en los que
haya dos o más cosas que son F .
(Nota que si hubiéramos intentado lo mismo en 12.2, no hubiera funcionado, pues la
cláusula de diferencia, «x ≠ y», tiene que estar en el alcance de ambos cuantificadores.
El resultado sería: «∃x (F x) & ∃y (F y) & x ≠ y», que no es una fórmula del lenguaje,
pues las dos últimas variables no están siendo ligadas.)
Vamos a definir estos cuantificadores que, en general, llamaremos «cuantificadores
de mínimos». Pero, antes de hacerlo, vamos a establecer una convención sobre el uso
de paréntesis, que nos ayudará a simplificar la notación cuando sea necesario.
Convención 14. Cuando tengamos una fórmula (o subfórmula o matriz dentro de una
fórmula) que sólo contenga conjunciones o que sólo contenga disyunciones como co-
nectivas principales, podemos ahorrarnos los paréntesis interiores.
Por ejemplo, podemos abreviar a:
como:
(S b & ¬P d & Q e & P c & ¬Q a)
debido a la convención 14. De igual forma, podemos abreviar a:
(Rd ∨ Q a) ∨ [(S b ∨ ¬Q c ) ∨ S e ]
como:
(Rd ∨ Q a ∨ S b ∨ ¬Q c ∨ S e )
gracias a la misma convención.
Esta convención se justifica debido a que tanto la conjunción como la disyunción son
conmutativas: (A ∨ B) ⊨⊨ (B ∨ A) y (A & B) ⊨⊨ (B & A), y asociativas: (A ∨ B) ∨ C ⊨⊨
A ∨ (B ∨ C ) y (A & B) & C ⊨⊨ A & (B & C ).
Habiendo establecido la convención sobre el uso de paréntesis cuando tenemos a
conjunciones o negaciones como conectivas principales, ya podemos definir los que
cuantificadores de mínimos.
En la definición, usaré variables con subíndices (como «x 1 ») para el caso gene-
ral. Variables con distintos subíndices cuentan como variables distintas. Usar estas nos
ayudará a ver el patrón formal que subyace a todos estos casos: la idea básica que ge-
neralizamos para cualquier número natural n. Entonces, algo como «∃x 1 ∃x 2 . . . ∃x n »
303
representa una cadena de n cuantificadores existenciales. Si (por ejemplo) n = 4, enton-
ces esa cadena sería: «∃x 1 ∃x 2 ∃x 3 ∃x 4 », pero si n = 2, la cadena, más bien, es: «∃x 1 ∃x 2 ».
Lo mismo para «(F x 1 & F x 2 & . . . & F x n )», que representa n matrices en conjun-
ción, cada una predicando «F » de una variable. Por ejemplo, si n = 4, lo anterior sería:
«(F x 1 & F x 2 & F x 3 & F x 4 )». Ahora sí: veamos la definición.
Definición 115: Cuantificadores de mínimos
.. ..
. .
Ya que sabemos expresar que hay mínimo dos F s , la generalización natural es pregun-
tarnos si podríamos expresar que hay máximo dos F s —o lo que es lo mismo, que hay
a lo más dos F s — y, en general, si podríamos expresar que hay un máximo de n cosas
que sean F . La respuesta es que sí.
Como en el caso anterior, la fórmula adecuada tiene que ser aquella que sea verdadera
en todos y solamente aquellos modelos en cuyo dominio haya máximo dos F s: esos
en los que haya o bien 0, o bien 1, o bien 2 cosas que son F , pero ni una sola más.
¿Cómo lo expresaríamos?
Como queremos permitir modelos en los que no haya ninguna F , no sería útil usar
el cuantificador existencial. Esto sugiere usar el universal. Otro hecho que apoya esto
es que una fórmula cuya conectiva principal es un universal puede ser verdadera por
vacuidad (ver el ejemplo 39), de manera que sea verdadera incluso si ninguna cosa en
el dominio es F . Y esto último nos importa porque queremos una fórmula que también
sea verdadera en dominios en donde no hay ni un solo F .
304
Esta es la fórmula:
∀x∀y∀z [(F x & F y & F z ) ⊃ (x = y ∨ x = z ∨ y = z )] (12.4)
¿Cómo sabemos que es la correcta? Pues porque es verdadera en todos y sólo los mo-
delos en cuyo dominio hay o bien cero, o bien una, o bien dos cosas que son F , y ni
una sola más. ¿Cómo sabemos esto? Vamos por casos.
Si hay cero F s en el dominio, 12.4 será verdadera por vacuidad. Pues, en ese caso,
¡es verdad decir «hay máximo dos F s»! Esto es porque «máximo» nos da el tope superior:
aquél número del que no pasa el número de F s. Pero, obviamente, el 0 no pasa de 2.
(Por la misma razón, por supuesto, en ese modelo será verdad decir que hay máximo
tres, o máximo cuatro, o máximo cinco, . . . F s en este dominio.)
Ahora bien, si hay solo un F en el dominio, 12.4 también será verdad. Supongamos
que el único F es una cosa llamada «a». Entonces, 12.4 es verdad debido a dos razones.
Primera, que cualesquiera cosas que sean F , van a ser idénticas con a —van a ser,
simplemente, a misma. Segunda, que la disyunción es inclusiva y, por ello, cualesquiera
x, y, w, z que sean F , van a ser todas idénticas entre sí: van a ser una y la misma. Esta
única cosa F es la misma a. Un razonamiento parecido demuestra la verdad de 12.4 en
modelos donde hay dos F s.
Finalmente, debe suceder que 12.4 sea falsa en modelos donde hay tres o más cosas
que son F . Y eso, de hecho, sucede. Por ejemplo, si hay tres F s, habrá tres cosas F
que son distintas entre sí. Usemos «a», «b» y «c », respectivamente, para nombrarlas.
Entonces, será verdad que F a & F b & F c , pues las tres son F . Sin embargo, será falso
que a = b ∨ a = c ∨b = c , pues las tres son distintas entre sí, por lo que los tres disyuntos
son falsos. Por lo tanto, 12.4 es falsa en modelos donde hay tres cosas. Razonamientos
parecidos demuestran la falsedad de 12.4 en modelos con cuatro o más cosas F .
Podemos generalizar la idea. Para decir que hay máximo n cosas F (para n un número
natural), utilizaremos n + 1 cuantificadores universales, y tendremos una disyunción,
para cada par de las variables ligadas por ellos, diciendo que son idénticas entre sí
(como la identidad es simétrica, si ya tenemos, por ejemplo, que x = y, no es necesario
poner que y = x.) Como antes, para el caso general usaremos variables con subíndices
(como «x 1 »), notando que variables con distintos subíndices cuentan como variables
distintas.
Definición 116: Cuantificadores de máximos
305
Hay a lo más 3 F s: ∃≤3x (F x)
∀x∀y∀z∀w [(F x & F y & F z & F w) ⊃ (x = y ∨ x = z
∨x = w ∨ y = z ∨ y = w ∨ z = w)]
.. ..
. .
Como vimos antes, una oración de la forma «∃x (F x)» sólo significa que hay al menos
una cosa en el dominio que es F ; puede haber exactamente una, o más de una. Otra
manera de verlo es así: fórmulas como «∃x (F x)» van a ser verdaderas en todo modelo
que contenga una o más cosas que sean F .
Pero a veces deseamos decir cosas más específicas: cuando hablamos, por ejemplo,
del Presidente de México, no suponemos que hay uno o más; tampoco suponemos que
no hay ninguno. Suponemos que hay uno y sólo uno, o como también podemos decirlo,
exactamente uno. El cuantificador existencial, por sí mismo, no puede expresar esto; pero,
afortunadamente, podemos definirlo con la ayuda de la constante de identidad.
Cuando decimos que hay exactamente una cosa que es F , decimos que hay una y sólo
una cosa F (en el dominio). Todo esto es decir simplemente que: primero, hay al menos
una, pero —segundo— que no hay ninguna otra. (Pues si hubiera una distinta, habrían
dos F s, no una.) La primera parte ya sabemos cómo formalizarla: ∃x (F x). Podríamos
intentar esto para la segunda parte (la de «no hay ninguna otra»): ¬∃x (F x), pero es
una obvia contradicción con la primera (y de nada servirá intentar usar «x» para una y
«y» para la otra.5 ) La idea es que no exista ninguna otra cosa, además de la primera que
hemos mencionado, que sea F . Así que necesitamos que esta segunda variable esté en el
alcance del cuantificador de la primera parte:
306
Recordemos que «Nadie que no sea Superman puede volar» sería (usando predicados
y constante obvia) algo como: ¬∃x (x ≠ s & V x), o, lo que es lo mismo (por el cuadrado
moderno de oposición): ∀x (x ≠ s ⊃ ¬V x). Usando transposición en esta, tenemos una
tercera forma equivalente: ∀x (V x ⊃ x = s ). Esta última nos permite ver que «Nadie
que no sea Superman puede volar» en realidad significa lo mismo que «Sólo Superman
puede volar».
Con base en lo anterior, podemos ver que: «Ninguna otra cosa, además de Super-
man, es F » puede formalizarse como: ∀x (F x ⊃ x = s ): todos los F s, son, en reali-
dad, Superman. Análogamente, «Nadie fuera de AMLO es Presidente» sería algo como
∀x (P x ⊃ x = a): sólo AMLO es presidente: todo Presidente es, en realidad, AMLO:
quien no sea AMLO, no es Presidente.
Ahora ya podemos ver cómo terminar de formalizar la oración 12.5. Primero, que-
remos decir que hay al menos una cosa F , para después decir que esa cosa de hecho
es la única que es F . Ya vimos cómo decir que nada fuera de una cosa particular a es
F : ∀x (F x ⊃ x = a). Juntando ambas ideas, podemos definir al cuantificador «existe un
único F », que a veces se abrevia con «∃!x (F x)», como dice la siguiente definición.
Definición 117: Cuantificador exacto «existe un único F »
∃!x (F x) ≡ ∃x F x & ∀y (F y ⊃ x = y)
def.
∃x [F x & ∀y (F y ⊃ x = y) ]
| {z } | {z }
Cláusula de existencia Cláusula de unicidad
Descripciones definidas
A inicios del siglo XX,6 Russell notó que se pueden usar este tipo de fórmulas existen-
ciales para analizar lógicamente lo que se conocen como descripciones definidas. Una
descripción definida es una frase como «El actual presidente de Rusia» o como «La me-
jor gimnasta del mundo en 2018». Es decir, las descripciones definidas son frases en las
que nos referimos a un único individuo del dominio, usando artículos definidos (como
«el», o «la»), junto con propiedades que sólo un objeto del dominio satisface.
De acuerdo con Russell y otros, las cuantificaciones numéricas (es decir, las fórmulas
definidas en la definición 117) pueden usarse para modelar a las descripciones defini-
307
das.7 Para formalizar una oración como «El actual presidente de Rusia es un judoka»,
Russell propuso, primero, definir un operador que significara «el único que es el actual
presidente de Rusia», y después predicar de ese objeto, que es un judoka. Para esto,
definimos el operador «ı».
Definición 118: Operador de unicidad de Russell
ı𝛼(Φ𝛼)
Como dice la definición 118, el operador compuesto «ıx (P x)» significa: «el único que
es P ». Entonces, 12.6 nos dice: «el único que es P , es J », es decir: ∃x [P x & ∀y (P y ⊃
x = y) & J x]. Como se puede ver, a la fórmula cuantificacional se agrega una cláusula
de predicación; y eso se abrevia con la ayuda del nuevo operador «ı».
308
Aunque parece más complicada, la idea es la misma que antes, con un «extra». Primero,
afirmamos que hay al menos una x y al menos una y que son H . Esto, por sí mismo,
no nos asegura que x y y sean distintas cosas. (Por ejemplo, aún cuando hay un único
Presidente, es verdad decir que ∃x∃y (P x & P y): ambos existenciales son hechos verdad
por esa única persona.) Es por ello que incluimos la cláusula de diferencia: x ≠ y. Esta
sí nos asegura que hablamos de al menos dos cosas distintas.
Lo que sigue en la fórmula es simplemente una cláusula de unicidad. Nos dice que
cualesquiera cosas que sean H , deben ser o bien x, o bien y. Esto impide que haya una
tercera cosa que es H , y termina de asegurar que la fórmula 12.7 sea verdadera en
todos y sólo los modelos en los que hay exactamente dos H s.
Si descomponemos esto como arriba, tendríamos algo así:
∃x∃y [(F x & F y) & (x ≠ y) & ∀z (F z ⊃ (z = x ∨ z = y)) ]
| {z } | {z } | {z }
Cláusula de existencia Cláusula de diferencia Cláusula de unicidad
Iterar estas ideas nos permite decir que hay exactamente tres, o exactamente cuatro, o
exactamente cinco, . . . cosas que son F (para cualquier predicado F ). Para cada número
natural n, decimos que hay exactamente n cosas que son F , simplemente poniendo n
cláusulas de existencia, poniendo todas las cláusulas de diferencia entre las n cosas
(diciendo que cada una es distinta de las demás), y usando un cuantificador universal
con una variable que no haya aparecido antes, digamos z , para poner una cláusula de
unicidad que tendrá n disyuntos diciendo: «o bien z no es . . . , o bien z no es . . . », etc.
Esto significa que, para cada número natural n, podemos expresar que hay exactamente
n cosas (que simbolizaremos como «∃n ») con el aparato de la lógica LC1=, como se ve
en la definición que sigue.
Definición 119: Cuantificadores numéricos
Hay 0 F s: ∃0x (F x)
¬∃x (F x)
.. ..
. .
Hay exactamente n F s: ∃n x (F x)
309
∃x 1 . . . ∃x n [(F x 1 & . . . & F x n & x 1 ≠ x 2 & . . . & x 1 ≠ x n
& . . . & x n−1 ≠ x n ) & ∀z (H z ⊃ (z = x 1 ∨ . . . ∨ z = x n ))]
Esto muestra que la lógica clásica de primer orden con identidad, LC1=, nos per-
mite definir a los números naturales. Desafortunadamente, otros sistemas numéricos
requieren de aparatos más expresivos, como la teoría de conjuntos.
Ejercicio # 59
I Formaliza la oración «Hay a lo más tres candidatos» (o «Hay máximo tres candida-
tos»). Da un dominio en el que interpretes «C » como el predicado para ser un candidato.
II Formaliza la oración «Hay al menos cuatro casas». Da un dominio en el que
interpretes «A » como el predicado para ser una casa.
III Formaliza la oración «Hay exactamente tres personas, a lo más cuatro coches,
al menos tres casas, y cada persona tiene al menos una casa y un coche». Da un do-
minio en el que interpretes «P » como el predicado para ser una persona, «A » como el
predicado para ser una casa, «O » como el predicado para ser un coche, y «T » como el
predicado de dos lugares para tener (es decir, T (𝛼, 𝛽 ) significa que 𝛼 tiene a 𝛽 ).
Ejercicio # 60
Los siguientes acertijos pueden resolverse usando la lógica LC1=. Resuélvelos.
1. Quien haya asesinado al rey tiene las manos manchadas de sangre. Juan es co-
cinero y Luis, mayordomo. Ningún jardinero anduvo en la cocina el domingo por la
noche; pero cualquiera que tenga las manos manchadas de sangre estuvo en la
cocina el domingo por la noche. Pedro es un jardinero y sale los domingos por la
noche. Lupe es cocinera pero salió el sábado por la noche, y quien sale el sábado
por la noche, no está en la cocina el domingo por la noche. Juan es Pedro, pero
Luis no es Juan. El asesino del rey es sólo uno de los ya mencionados (es decir,
es o Juan, o Luis, o Pedro, o Lupe). ¿Quién mató al rey?
2. Beto el jardinero es futbolista, como Juan. Pero Rob el sacerdote no es futbolista
aunque Alberto el mayordomo, sí. El asesino tenía sangre en las manos a las 5
pm, y es una única persona. Todos los futbolistas jugaron un partido, pero no se
sabe a qué hora; sin embargo, solo los mayordomos son futbolistas. Juan tenía
las manos limpias a las 5 pm, y sabemos que Rob no es mayordomo; porque hay
un único mayordomo. ¿Quién es el asesino, y por qué?
3. Todo el que juega, baila; y todo el que baila, se mueve. Si Juan juega pero Rosa no
se mueve, y además, sólo puedes bailar con una persona distinta de ti, y además,
María viene con José pero María no se mueve, y no hay nadie además de ellos
cuatro, entonces . . . ¿José baila? Si es así, ¿con quién? ¿Por qué?
4. Si al menos un profe es buena onda, entonces, todos los profes son buena onda.
310
Ahora bien: si Juan es profe, Juan es buena onda. Sin embargo, no todos los
profes son buena onda. En conclusión. . . ¿Juan es un profe o no es un profe?
¿Por qué?
5. Todo el que asesina, comete pecado mortal. Cualquiera que cometa pecado mor-
tal, se va a existir al Infierno. Pero en el Infierno sólo puede existir un único ente:
El Enemigo. Entonces: ¿Qué relación tendrán Richard, quien es un asesino, y El
Enemigo?
311
12.5. Resumen del capítulo
⋆ La constante de identidad, ‘=’, es una nueva constante lógica primitiva, que
siempre se pone entre dos constantes, o entre dos variables, o entre una
constante y una variable.
⋆ Al expandir el lenguaje de la lógica LC1 con ella (añadiéndola al alfabeto y
añadiendo reglas de formación para ella), tenemos el lenguaje de la lógica
LC1.
⋆ La constante de identidad nos permite expresar oraciones que no eran ex-
presables en la lógica LC1. Por ejemplo, oraciones del tipo de «tal (no) es
idéntico a tal», de «Solamente tal (no) es . . . » y de «Exceptuando a tal,
todos son . . . »
⋆ Las reglas de la identidad reflejan que esta ella una relación reflexiva, simé-
trica y transitiva, además de que permite la sustitución uniforme. Tenemos dos
tipos de reglas para la identidad: las básicas, que nos permiten introducir fór-
mulas que expresan las propiedades de la identidad, y las derivativas, que
nos permiten hacer inferencias con constantes, que también reflejan esas
propiedades.
⋆ Al usar la nueva constante de identidad, podemos definir tres nuevos tipos
de expresiones cuantificacionales: los cuantificadores de máximos y mínimos, y
los cuantificadores numéricos. Los cuantificadores de máximos son expresiones
de la forma «hay máximo n cosas que . . . », los de mínimos, expresiones
de la forma: «hay mínimo n cosas que . . . », mientras que los numéricos,
expresiones de la forma: «hay exactamente n cosas que . . . »
⋆ La constante de identidad también nos permite expresar descripciones defini-
das, que funcionan como expresiones que refieren a una cosa particular. Con
ello, introducimos un nuevo operador, «ı», definible en términos de una des-
cripción definida, y con el cual podemos abreviar fórmulas que dicen cosas
como «El único que es de tal forma, también es de tal otra».
312
Proyecto: Existencia e inexistencia
Antecedentes d Uno de los problemas que Russell quería resolver en su ensayo
clásico «Sobre el denotar», era el siguiente. Las oraciones que contienen términos
que se usan para referir a objetos que, de hecho, no existen, parecen ir en contra
de la lógica. Por ejemplo, hoy en día Francia es una república. Por ello, la frase
«El actual rey de Francia» no refiere a ningún objeto: por más que busquemos en
todo el planeta y en todo el universo, nunca encontraremos a ninguna cosa que
sea el actual rey de Francia. Pero según la ley del tercero excluido, una de las dos
siguientes oraciones tiene que ser verdadera:
• o bien, «El actual rey de Francia es calvo»,
• o bien «El actual rey de Francia no es calvo».
¡Pero parece que ninguna lo es! Como el actual rey de Francia no existe, no hay
cosa alguna en el universo que responda a esa descripción —«el actual rey de
Francia»— y que sea calva. Por lo que la primera oración parece falsa. Pero por
la misma razón, no hay cosa alguna en el universo que responda a esa descripción
y no que sea calva; por lo que la segunda oración también parece falsa. ¿Significa
esto que la mayoría de los lógicos desde Aristóteles han estado equivocados sobre
la validez de la ley del tercero excluido?
El problema es todavía más grave. Si la oración «El actual rey de Francia es
calvo» es falsa, parece que debe ser verdad que el actual rey de Francia no es calvo.
Sin embargo, como sabemos que «El actual rey de Francia no es calvo» también
es una oración falsa, eso parecería implicar que el actual rey de Francia sí es
calvo. Pero que sea verdad tanto que el actual rey de Francia no es calvo como
que el actual rey de Francia sí es calvo ¡parece una contradicción! ¿Significa esto
que la mayoría de los lógicos desde Aristóteles han estado equivocados sobre la
validez de la ley de no contradicción?
«No», dijo Russell sobre ambas preguntas. Propuso su teoría de las descrip-
ciones definidas, de acuerdo a la cual, la expresiones como «el actual rey de
Francia» (y otras) son descripciones definidas (en el sentido de la sección 12.4).
Entonces, usando una interpretación obvia (y un dominio irrestricto), la forma
lógica que, de acuerdo con Russell, tiene la oración «el actual rey de Francia es
calvo» es:
C [ıx (Rx)] (12.8)
Y la forma lógica de «el actual rey de Francia no es calvo» sería:
Con esto, Russell argumentó que el conflicto entre las leyes lógicas y el par de
oraciones sobre la calvicie del actual rey de Francia, era meramente aparente:
313
¡No hay tal conflicto! ¿Cómo lo hizo? Primero, Russell notó que ambas fórmulas
(12.8 y 12.9) son falsas. Pero esto no entra en conflicto ni con la ley del tercero
excluido, ni con la de no contradicción, dijo Russell, pues estas fórmulas no son
contradictorias, sino contrarias. ¿Puedes ver cómo?
Problema d Primero, desarrolla las formas lógicas de las fórmulas que Russell
propuso (12.8 y 12.9), siguiendo las definiciones de este capítulo. Después de ello,
argumenta cómo es que ellas son contrarias. Finalmente, di qué formula(s) sí son
falsa(s), de manera que sea vea cómo se siguen cumpliendo las leyes del tercer
excluso y de no contradicción.
Notas
2. Se puede definir en términos del condicional ⊃ y una conectiva 0-ádica que no hemos visto: ⊥, que
representa una contradicción y a la que siempre se le asigna el valor falso. Así, A ⊃ ⊥ define a ¬A.
También se puede definir en términos de cualquiera de dos conectivas diádicas que no hemos visto: o
la barra de Sheffer |, que significa «no ambas», o la daga de Peirce: ↓, que significa «ni una ni otra». La
negación ¬A se puede definir con ya sea A|A o con A ↓ A.
3. Sobre la importancia filosófica de distinguir estos distintos significados de «es», veáse Moro Simpson
1975. Por otro lado, algunos filósofos han pensado que hay otros sentidos importantes y distintos de «es»
—como el «es» de esencia, o el de constitución, o el de un tipo generalizado de identidad—, e incluso
se han sugerido sistemas lógicos para algunas de estas nociones. No podremos revisar estas cuestiones
metafísicas aquí (pero véase Correia 2017, Fine 1994, Johnston 1992.) Ferrater Mora y LeBlanc reconocen,
además, el «es» de inclusión conjuntística (que ejemplifican con «los limeños son peruanos») y el de
pertenencia (∈) conjuntística, que revisaremos en la sección 14. Ver Ferrater Mora y LeBlanc 1962, pp.
104-105.
5. Como hemos visto, qué variables usemos es irrelevante, mientras estén siempre ligadas y no haya am-
bigüedad en el alcance de los cuantificadores—por lo que, como ambas fórmulas tienen el alcance de
sus respectivos cuantificadores definido y sin afectar al otro, podemos usar la misma variable para ambas
fórmulas.
7. Russell, Quine
314
capítulo
13
Objetivos de aprendizaje
1.
2.
315
omo vimos en el capítulo 12, las siguientes inferencias son válidas para las cons-
C tantes de todos los tipos:
𝜅1 = 𝜅2
Refl= (derivada) Trans= (derivada) 𝜅2 = 𝜅3
𝜅1 = 𝜅2
𝜅1 = 𝜅3
𝜅1 = 𝜅2
𝜅1 = 𝜅2
Sim= (derivada) SustId (derivada) Φ[𝜅 1 ]
𝜅2 = 𝜅1
Φ[𝜅 2 ]
En realidad, las tres primeras reglas reflejan ciertas propiedades de alto nivel de la
relación lógica de identidad.
(Decimos que son propiedades de alto nivel porque son características de esa entidad
que es la relación de identidad. Y decimos que son propiedades de alto nivel porque,
al menos conceptualmente, podemos separar una «jeraraquía» de propiedades.1 Las de
primer nivel serían las propiedades que tienen los individuos: por ejemplo, el pizarrón
tiene la cualidad de ser blanco y la de ser rectangular. Las de segundo nivel serían las
propiedades que tienen las propiedades de primer nivel: el blanco tiene la propiedad de
ser un color, la rectangularidad la propiedad de ser una figura geométrica, por ejemplo.
Las de tercer nivel serían propiedades que tienen las propiedades de segundo nivel; las
de cuarto nivel serían propiedades de las propiedades de tercer nivel, y así ad infinitum.)
Regresando al tema, las reglas reflejan las propiedades de la identidad, y ahora veremos
cómo estas pueden no ser únicas de la identidad. Nos vamos a restringir a las pro-
piedades de las relaciones de dos lugares, pues desde este punto ya surgen muchas
propiedades lógica y matemáticamente importantes.
Un estudio más profundo de las propiedades lógicas de relaciones de más lugares
(que llamaremos relaciones poliádicas) queda para otro momento.
Regresando a las propiedades lógicas, como ejemplo tenemos a Tran=, que refleja la
propiedad de la identidad que se conoce como transitividad. Pero esta propiedad
también puede ser una propiedad de muchas otras relaciones: por ejemplo, la relación
«_ es más alto que _», también es transitiva.
316
En este capítulo, voy a usar la letra R como variable para relaciones binarias (es
decir, relaciones entre dos cosas).
Definición 120: Relación transitiva
Una relación R es transitiva en un modelo específico, siempre y cuando
en ese modelo sea verdad que:
∀x∀y∀z (R (x, y) & R (y, z )) ⊃ R (x, z ) (Transitividad)
R es una relación transitiva si la fórmula Transitividad es verdadera en
todo modelo que no cambie la interpretación de R .
Un ejemplo de relación transitiva es «ser más alto que». Poniéndola en lugar de «R»,
tendríamos este como un caso de Transitividad:
∀x∀y∀z (si x es más alto que y y y es más alto que z , entonces x es más alto que z )
Además de «ser idéntico a» y «ser más alto que», existen muchísimas relaciones bina-
rias que también son transitivas. Por ejemplo, deberías comprobar que la relación «es
de igual altura que» es transitiva.
Pero muchas relaciones no son transitivas. Por ejemplo, si sustituimos «aprecia a» por
R en Transitividad, obtenemos un condicional que es falso en algunos modelos. Se dice
que John Lennon estaba muy enamorado de Yoko Ono, pero que ella era muy mal vista
por los demás miembros de los Beatles. Supongamos por un momento que esto fuera
verdad. Es claro que R no es transitiva en ese modelo: aunque es verdad que R(Paul,
John) y que R( John, Yoko) —McCartney apreciaba a Lennon, y éste a Yoko—, no es
verdad que R(Paul, Yoko).
Se sigue de Transitividad que, si R es una relación transitiva, entonces es lógicamente
válido «unir» el primer «eslabón» de la «cadena» con el último. Vamos a usar constantes
para ejemplificarlo. Al unir los eslabones, podríamos hacer inferencias de esta forma:
R (a,b)
R (b,c )
R (c ,d )
Por lo tanto, R (a,d ).
La «cadena» estaría formada (abusando de la notación) así:
aRbRcRd
317
el primero con el último eslabón:
R (a 1 ,a 2 )
R (a 2 ,a 3 )
..
.
R (an−1 ,an )
Por lo tanto, R (a 1 ,an ).
Algo parecido es lógicamente válido cuando tenemos cuantificadores y variables.
Y, como sabemos, si una inferencia es lógicamente válida, entonces el condicional
formado por la conjunción de sus premisas como antecedente y la conclusión como
consecuente, será también lógicamente verdadero (verdadero en todo modelo). Usando
la inferencia de arriba, podríamos ver que un caso especial de Transitividad para n
constantes es:
[R (a1 ,a2 ) & R (a 2 ,a 3 ) & . . . & R (an−1 ,an )] ⊃ R (a 1 ,an )
318
en algunos modelos, pero no en otros). Por ejemplo, la relación «_ es amigo de _» en un
modelo donde el dominio consiste sólo en mis amigos Álvaro, Ezequiel y Rafa, que
además son amigos entre sí, esta relación es transitiva, pues el siguiente condicional es
verdadero:
Si Carlos es amigo de Ezequiel, quien es amigo de Rafa, quien es amigo de Álvaro,
entonces Carlos es amigo de Álvaro.
Y este condicional es verdadero porque todos somos amigos. Sin embargo, existen otros
modelos donde la misma relación «_ es amigo de _» no es transitiva, es decir, no se cumple
el condicional. Por ejemplo, un modelo cuyo dominio consiste sólo de Paul McCartney,
John Lennon, y Yoko Ono. Así que «_ es amigo de _» es una relación no transitiva, pues
en algunos casos (dominios) satisface la fórmula de la transitividad, y en otros no.
Pero también existen relaciones que podemos llamar anti-transitivas:
Definición 121: Relación anti-transitiva
∀x∀y∀z (R (x, y) & R (y, z )) ⊃ ¬R (x, z ) (Anti-transitividad)
y, usando «n», «m», como variables para números enteros, definamos la siguiente rela-
ción, que llamaremos «S »:
319
III Da una demostración de lo afirmado en el texto: «si n es el sucesor de m , y m ,
a su vez, es el sucesor de otro número, o , entonces n no es el sucesor de o ». Usa la
definición de sucesor: S (n,m) siempre y cuando: n = m + 1.
La identidad, comos nos dice la regla Sim=, es una relación simétrica. Vamos a definir
esta propiedad ahora.
Definición 122: Relación simétrica
Una relación R es simétrica en un modelo específico, siempre y cuando
en ese modelo sea verdad que:
∀x∀y R (x, y) ⊃ R (y,x) (Simetría)
R es una relación simétrica siempre y cuando la fórmula Simetría sea
verdadera en todo modelo que no cambie la interpretación de R .
320
Definición 123: Relación anti-simétrica
Una relación R es anti-simétrica siempre y cuando lo siguiente sea verda-
dero en todo modelo que no cambie la interpretación de «R »:
∀x∀y (R (x, y) & R (y,x)) ⊃ x = y (Anti-simetría)
Un caso claro de anti-simetría es la relación «mayor o igual que» (≤) en los números:
si a es un número mayor o igual que b, y si b es mayor o igual que a, entonces a es el
mismo número que b.
Ejercicio # 62
I Da dos ejemplos de relaciones simétricas y explica por qué son simétricas.
II Da dos ejemplos de relaciones que no sean simétricas y explica por qué son
simétricas.
∀x [R (x,x)] (Reflexividad)
Como en los casos anteriores, es fácil ver un patrón en el tipo de relaciones que
son reflexivas o cuasi-reflexivas: involucran algún tipo de igualdad; aunque las cuasi-
reflexivas suponen que hablamos de un tipo de objeto. Por ejemplo, la relación «proceder
del mismo país que» es cuasi-reflexiva: como las galaxias no provienen de ningún país, no
provienen de su mismo país y así, no provienen del país de nadie.
Como con las dos propiedades anteriores, podemos diferenciar entre relaciones irre-
flexivas y anti-reflexivas.
Las relaciones irreflexivas van a ser reflexivas en algunos modelos y no reflexivas en
otros. Un ejemplo es la relación «_ es el peor enemigo de _»: en un modelo cuyo dominio
321
contiene sólo a Donald Trump, como Donald Trump es su peor enemigo, esta relación
será reflexiva. Pero en modelos que incluyen a más cosas, esta relación no será reflexiva
—por ejemplo, el peor enemigo de Trótskiy no era Trótskiy mismo, sino Stalin.
Las relaciones anti-reflexivas son aquéllas que en ninguna circunstancia —en ningún
modelo— relacionan a un objeto consigo.
Definición 125: Relación anti-reflexiva
Una relación R es anti-reflexiva si lo siguiente es verdadero en todo mo-
delo que deje fija la interpretación de «R »:
Por ejemplo, «_ es más alto que _» es anti-reflexiva, pues ninguna cosa es más alta que
sí misma (al menos, si consideramos a la cosa en un instante determinado). También
la relación entre cantidades «_ es mayor que _» es anti-reflexiva, pues ninguna cantidad
es mayor que sí misma.
Ejercicio # 63
I Da dos ejemplos de relaciones reflexivas y explica por qué son reflexivas.
II Da dos ejemplos de relaciones que no sean reflexivas y explica por qué son re-
flexivas.
Ahora vamos a definir un tipo muy importante de relaciones: las relaciones de equiva-
lencia. Se les conoce así porque nos permiten definir un sentido exacto en el que dos
cosas distintas pueden ser «equivalentes» en un aspecto —pueden contar como «las
mismas» cuando consideramos sólo algunas de sus propiedades. Esto nos permite usar
a las relaciones de equivalencia para definir clases de equivalencia, construcciones muy
importantes en lógica y matemáticas.
Definición 126: Relación de equivalencia
322
otra persona, que a su vez es de la misma edad que una tercera, entonces ésta será de
la misma edad que la primera.
Como la relación «tener la misma edad» es de equivalencia, nos permite definir un
sentido en que dos cosas son «la misma»: cuando dos cosas están relacionadas por ella,
serán idénticas con respecto a su edad. En general, si R es una relación de equivalencia,
cualesquiera cosas relacionadas por R son idénticas en el aspecto «remarcado» por R.
Ejercicio # 64
I Da dos ejemplos de relaciones de equivalencia y explica por qué son de equiva-
lencia.
II La relación «𝛼 es sucesor de 𝛽 » se define entre números enteros y positivos, y
significa que: 𝛼 = 𝛽 + 1. ¿Es simétrica? ¿Es transitiva? ¿Es reflexiva?
III
Bien. Además de esto, para cualquier relación binaria R, podemos definir el conjunto
que da su extensión.
Definición 127: Extensión de una relación binaria
La extensión de una relación binaria es el conjunto de los pares de cosas,
⟨a,b⟩ , tales que R (a,b) .
Cuando R es una relación de equivalencia, es común usar el símbolo «≃» para de-
notarla. A la extensión de tales relaciones (el conjunto definido por 127) se le conoce
como clase de equivalencia, y se suele denotar: ⟦ ⟧≃ .
De esta manera, si a es un elemento del dominio que se relaciona con otras cosas
mediante la relación de equivalencia ≃, decir que otro elemento del dominio, b, es un
elemento de ⟦a⟧≃ es decir que a y b son equivalentes en el aspecto «remarcado» por ≃.
será un objeto que tenga exactamente la misma edad que tenía Barack Obama
en enero de 2018. Entonces, esta clase de equivalencia puede tomarse como
representante de un número de años: los años que tenía Obama —y todos
sus equivalentes— en ese entonces.
2. La relación entre flechas «_ tiene la misma dirección que _» es una relación
de equivalencia: toda flecha tiene su misma dirección, si una tiene la misma
dirección que otra entonces también a la inversa, y la relación es transitiva.
323
Consideremos entonces la clase de equivalencia correspondiente a esta rela-
ción, para la flecha particular ↗:
Todo elemento de esta clase va a ser una flecha con la misma dirección que
↗. En lo único en que van a diferir las flechas de esta clase es en su longitud.2
3. Como último ejemplo, deberías revisar que la equivalencia material de la lógica
proposicional, ≡, de hecho es una relación de equivalencia en el dominio de
todas las proposiciones.
•
•
• •
•
•
• •
324
Las relaciones de equivalencia son importantes en matemáticas porque nos permi-
ten hablar de cuándo dos objetos matemáticos distintos tienen la misma estructura, y
en muchos casos, las demostraciones matemáticas sólo requieren pensar en la misma
estructura, no en cualidades particulares de objetos particulares. Así, en matemáticas
es usual demostrar propiedades para clases de equivalencia de objetos, de manera que
esas clases representen una estructura general. También son importantes en metafísica
para el problema de la individuación de objetos al menos desde que Frege notó que las
relaciones de equivalencia podían servirnos para abstraer «nuevos» objetos a partir de
objetos previamente «dados»—así como individuamos direcciones a partir de flechas,
mediante una relación de equivalencia.3
Trivialidad
La manera más directa es la noción de relación trivial: una relación R tal que cuales-
quiera objetos del dominio están R-relacionados, es una relación trivial en ese dominio.
Como en los casos anteriores, una relación será trivial siempre y cuando sea trivial en
todo dominio (de todo modelo que deje fija la interpretación de R como esa relación).
Es decir, la relación denotada por «R» en un modelo es trivial siempre y cuando, en
todo modelo que interprete de igual manera «R», esto sea verdad:
∀x∀y [R (x, y)] (13.1)
Se le llama «trivial» porque «no exige nada»: su definición no tiene ninguna condición
especial. Es obvio que una relación trivial va a ser una relación de equivalencia: es
reflexiva, simétrica, y transitiva.
La relación trivial es la relación de equivalencia «más grande» en el sentido de relacio-
nar cualquier cosa con todas las demás. En este mismo sentido, la relación de identidad
es la relación de equivalencia «más pequeña», pues relaciona a cada cosa sólo consigo
misma.
Esto se entiende muy bien gráficamente. El dominio de un modelo es un conjunto
de cosas, que podemos representar por un círculo—el conjunto—que adentro contiene
puntos: sus elementos. Cada punto distinto representa un elemento distinto, como se
ilustra en la Figura 13.2.
Si ahora representamos las clases de equivalencia definidas por la identidad, éstas van
a tener un único elemento, ¡pues ninguna cosa está relacionada mediante la identidad
con alguna cosa distinta! (Figura 13.3)
325
•
•
•
• •
•
•
• •
•
•
• •
•
•
• •
326
•
•
•
• •
•
•
• •
Figura 13.4: Clases de equivalencia que no son definidas por la relación de identidad o por una
relación trivial.
Ahora bien, la relación trivial sobre un dominio se vería exactamente como la Figura
13.2: la relación trivial coincidiría exactamente con todo el modelo, pues relaciona a
cada cosa con cada cosa.
En cambio, relaciones de equivalencia que no son triviales—que no incluyen a todo
el dominio—pero tampoco las más pequeñas (no son la identidad) inducirían clases de
equivalencia que se verían de formas parecidas a la Figura 13.4.
Totalidad
Una noción más débil de «relación entre todo del dominio» es la de relación total.
Una relación R es total en un dominio siempre y cuando, para cualesquiera elementos
x y y del dominio, o bien R (x, y), o bien R (y,x). (Como es una tautología que [R (a,a) ∨
R (a,a)] ≡ R (a,a), toda relación total va a ser reflexiva.) Una relación total, entonces, va
a ser total en todo dominio; es decir:
Definición 128: Relación total
La relación referida por una interpretación de «R » es total siempre y cuan-
do, en todo modelo que interprete igual a «R », sucede que:
Otras maneras de llamarle a las relaciones totales son «relaciones completas», «re-
laciones estrictamente conexas», o «relaciones dicotómicas», pues obedecen la ley de la
327
dicotomía, 128.4
Conexividad
Serialidad
Cuando sabemos que una relación es de algún tipo de los estudiados arriba—por ejem-
plo, es un orden parcial o total, o es asimétrica, etc.—podemos usar esas características
de la relación como un tipo de «reglas» nuevas acerca de esa relación. Así, si en una in-
ferencia tenemos una relación R de la que se nos dice que es transitiva —o de la que
328
sabemos que es transitiva, como «_ tiene más libros que _»—, podemos usar la regla de
la transitividad (la fórmula 120) como premisa explícita extra (es decir, la escribimos
como nueva premisa), o como una regla que usamos si se requiere en el argumento. Por
ejemplo, si nos dieran un argumento como este:
Rita tiene más libros que Pedro, y Pedro tiene más libros que Josefina. Por lo tanto,
hay al menos dos personas tales que Rita tiene más libros que cada una de ellas,
podríamos usar el hecho de que la relación «_ tiene más libros que _» es transitiva, para
poder demostrar la conclusión (junto con la regla de introducción de ∃, claro está).
En general, se conoce como entimemas a los argumentos que tienen premisas im-
plícitas, es decir, premisas que se dan por sentado en el argumento pero que no se
mencionan (ver la definición 5). Los argumentos con relaciones pueden ser entimemá-
ticos al dejar implícitas las características lógicas de las relaciones de las que hablan, y
por lo tanto, para demostrar su validez al formalizarlos para utilizar el sistema LC1=,
usualmente deberemos formular estas características, ya sea como premisas explícitas
o como reglas válidas acerca de tales relaciones.5
Esto sería un caso de lo que Rudolf Carnap introdujo con el nombre de «postulados
de significado» o «reglas semánticas».6 La idea esencial es que los postulados de
significado de un elemento de algún lenguaje son las reglas o afirmaciones que definen
el significado de ese elemento lingüístico. En el caso que nos ocupa en esta sección, las
propiedades lógicas de las relaciones serían definitorias de las palabras o símbolos con
los que nombramos a tales relaciones, por lo que usarlas como premisas nuevas es un
caso de postulados de significado. L.T.F. Gamut lo explica así:
La función de los postulados de significados es la de restringir la clase de
todos los modelos a una cierta subclase. La subclase debe consistir en aque-
llos modelos en los cuales algún tipo de relación semántica entre (clases de)
predicados sea válido, ciertas subclases de expresiones tengan propiedades
semánticas específicas, y así en adelante.[. . . ] Los postulados de significado
son fórmulas de nuestro lenguaje lógico. Las usamos para imponer restric-
ciones sobre los modelos para nuestro lenguaje lógico y, por lo tanto, indirec-
tamente, para el lenguaje natural, al estipular que solamente consideramos
aquellos modelos en los cuales los postulados son válidos.7
Cabe notar que hay más tipos de postulados de significado que los provistos por las
propiedades lógicas de las relaciones binarias, que convierten argumentos entimemáti-
cos en argumentos con todas las premisas explícitas. Por ejemplo, algunas propiedades
están relacionadas con otras por tales postulados: el ejemplo clásico sería:
a es soltero si y sólo si a no está casado,
pero seguramente podemos encontrar muchas más. Esto dependerá del argumento u
oración del lenguaje natural que queramos formalizar en LC1=, y, por supuesto, de que
329
comprendamos todos los términos involucrados en tal argumento.8
Un tipo especial de relación binaria entre muchos tipos distintos de cosas, son los órdenes.
Muchas veces nos interesa ordenar un conjunto de cosas: decir qué cosa va «antes» que
otra, o «después» de otra, o incluso cuándo ambas «están al mismo nivel». Un ejemplo
de orden es el de los números naturales: los números 0, 1, 2, 3, 4, . . . , hasta el infinito.
Estos números tienen un orden «obvio» entre ellos: 0 es menor que 1, el que a su vez
es menor que 2, y así sucesivamente. Gracias a este orden de los números naturales,
podemos usarlos para, a su vez, ordenar muchas otras cosas. Por ejemplo, podemos
hacer una lista de l@s alumn@s de un salón, diciendo que tal persona es la primera, a
la que le sigue tal otra, que sería la segunda, y así sucesivamente.
Como en el ejemplo de la lista del salón, un orden puede tener un criterio bien
definido—en ese caso, el orden alfabético. Pero también podríamos definir un orden
arbitrario, como cuando tenemos un conjunto de sillas muy parecidas entre sí y las or-
denamos solo para hacerlas corresponder con una lista de invitados: la primera en ese
orden le corresponde a la primera persona en la lista y así sucesivamente, pero seleccio-
namos a una silla como la «primera» sin algún criterio específico. De cualquier forma,
al terminar el «pareo» entre sillas e invitados, hemos ordenado a las sillas también.
Resulta que los órdenes tienen características que pueden ser estudiadas con la lógica
cuantificacional.
13.3.1. Preorden
330
13.3.2. Orden parcial
Primero hablaremos de los órdenes parciales. Como veremos ahora, resulta muy intuitivo
usar la notación «≤» para referirse a los órdenes, si mantenemos en mente que la teoría
de los órdenes es una generalización de las propiedades de órdenes más «familiares»,
entre cosas que ya conocemos bien, como los números naturales: 0 ≤ 1 ≤ 2 ≤ 3 ≤ 4 ≤
5...
Como esta mismo ejemplo nos sugiere, usaremos la notación de infijo, que es lo que
ya hacemos con la constante de identidad: en lugar de escribir (por ejemplo) «≤ (1, 2)»,
como lo hacemos con las relaciones en general, al escribir cosas como «R (a,b)» —a lo
cual se le conoce como la notación de prefijo—, pondremos al símbolo en medio de
los términos, como ya hacíamos al aprender aritmética y álgebra. (Si pusiéramos al
símbolo relacional después de los relata, esto se conoce como la notación de sufijo, y
se vería así: «(a,b)R». Esta no la usaremos en estas notas, pues es menos usual; pero
no tiene ningún defecto puramente lógico.)
La manera en que debemos leer fórmulas como «a ≤ b» es: «a es menor o igual que
b». Pero no se requiere que necesariamente entendamos esto en un sentido cuantitativo,
sino en un sentido ordinal. Si ordeno mis libros en el librero por orden alfabético a
partir del autor, diré que tal libro va «antes» que otro en ese orden, y lo mismo podría
decir que es «menor» que otro en ese orden. No presupongo ningún tipo de magnitud
que esté comparando entre ambos libros. Con esta forma de leerlo, definamos qué es
un orden parcial.
Definición 130: Orden parcial
Una relación binaria, ≤ , es un orden parcial cuando tiene estas tres pro-
piedades (para todo x, y, z ):
Reflexividad x ≤ x .
Antisimetría Si x ≤ y y también y ≤ x , entonces x = y .
Transitividad Si x ≤ y y también y ≤ z , entonces x ≤ z .
Como antes, un orden es parcial en un modelo si satisface estas propie-
dades en ese modelo, y es parcial (ya no relativo a un modelo específico,
sino por sí mismo) cuando es parcial en todo modelo.
331
Un ejemplo de esto son los árboles genealógicos que usamos para confirmar que
una cadena de símbolos de LC0 sea una fórmula en la sección 4.5, def. 29 (ver, por
ejemplo, la figura 4.3).
En general, consideremos un árbol en el sentido de la teoría de gráficas:
a
ejemplo 49
b c
b1 c1 c2
b 11 b 12 c 21
Por ejemplo, en la mereología —la teoría que estudia la relación entre parte y todo—,
ejemplo 50
es usual suponer que la relación _ es parte de _ (que podemos simbolizar con «⊑»),
es (al menos) un orden parcial. Entonces, a ⊑ b significa que a es una parte de b .
Toda cosa es una parte de sí misma, en un sentido generalizado —o «impropio»—
de parte, de manera que Reflexividad vale para ⊑. Antisimetría también parece una
regla adecuada para la relación de parte-todo; así como Transitividad.
Como mencioné arriba y como se ve en estos ejemplos, los órdenes parciales se llaman
así —«parciales»— porque no necesitan ordenar todo lo que está en un modelo. Habrá
cosas que sean «incomparables» o «indiferentes» respecto a estos órdenes. En el ejemplo
de la mereología, si ⊑ es un orden parcial (que no es total, en el sentido que veremos
en la sección 13.3.4, abajo), entonces habrá objetos que son «incomparables»: objetos
distintos tales que ni uno sea parte del otro, ni el otro del primero. Por ejemplo, ni mi
computadora es parte de la Pirámide del Sol, ni ésta es parte de mi computadora.
Los órdenes parciales son representables mediante lo que se conoce como diagramas
de Hasse, en los que una flecha a −→ b significaría que a ≤ b (o, en el ejemplo de
la mereología, que a ⊑ b). Si no hay flechas entre dos cosas, significa que éstas son
incomparables.
Siguiendo con el ejemplo de la mereología, y tomándome a mi como ejemplo (a
332
Yo
Figura 13.5: Diagrama de Hasse para el orden parcial ⊑ entre algunas de mis partes.
A partir de un orden parcial podemos definir un orden estricto. Como habíamos visto, la
intención es leer «a ≤ b» como «a es menor o igual que b». A partir de esto, podemos
definir un orden «estricto»: uno que no sea una disyunción, sino que se lea solamente
como «a es menor que b»; la notación obvia sería: «a < b».
Definición 131: Orden estricto
Un orden estricto tiene las siguientes propiedades (para cualesquiera ob-
jetos x, y, z del dominio):
Antirreflexividad No sucede que x < x .
Antisimetría «fuerte» Si x < y , entonces no sucede que y < x .
Transitividad Si x < y y también y < z , entonces x < z .
333
Definición 132: Orden total
Un orden ≤ es total siempre y cuando satisface:
Reflexividad x ≤ x
Antisimetría (x ≤ y & y ≤ x) ⊃ x = y
Transitividad (x ≤ b & y ≤ z ) ⊃ x ≤ z , y
Totalidad x ≤ y ∨ y ≤ x
Como antes, un orden es total en un dominio si cumple estas cuatro pro-
piedades en el dominio, y es total (no relativo a un dominio particular) si
satisface estas propiedades en todo dominio en el que se encuentre tal
relación.
Los órdenes totales también se conocen como «lineales» porque nos permiten poner
a los elementos del dominio en una línea, de esta manera:
a ≤ b ≤ c ≤ d ≤ e ≤ f ≤ ...,
agotando a todos los elementos del dominio, pues, gracias a la propiedad de Totalidad,
ningún elemento va a ser incomparable con otro. Es decir: podríamos dibujar un dia-
grama de Hasse también para órdenes totales, pero ese diagrama será indistinguible de
una línea:
a ←− b ←− c ←− . . .
Como en el caso de los órdenes parciales, podemos definir órdenes totales estrictos
<, en los que nunca sea el caso que a < a. Como antes, este orden se podría leer «a es
menor que b», excluyendo que a = b.
Cada orden parcial se puede extender a un orden total sobre el mismo dominio, en
el sentido en que si ≤ es un orden parcial, entonces existe un orden total ⩽ tal que, si
a ≤ b, entonces a ⩽ b, y si hay elementos c ,d que sean incomparables respecto a ≤,
serán comparables respecto a ⩽: ya sea que c ⩽ d o que d ⩽ c .9 Sin embargo, nada nos
asegura que el orden total de la extensión sea un orden «natural».
Un ejemplo de esta no-naturalidad sería el siguiente. Considerando el orden de la
Figura 13.5, este se puede extender a un orden total ⩽—de manera que o bien faringe ⩽
cerebro o bien cerebro ⩽ faringe; aunque, obviamente, ni la faringe es parte (⊑) del cerebro
ni viceversa. Entonces, en este caso (y en muchos otros), el orden total de la extensión
es puramente «formal». (Tenemos otro caso donde las matemáticas nos permiten definir
cosas que no corresponden a algo en el mundo físico.)
Tanto los órdenes parciales como los totales tienen órdenes inversos (también llamados
«conversos»).
334
Definición 133: Orden inverso
Si ≤ es un orden parcial o total sobre un dominio, un orden (parcial o total,
según corresponda) ≥ es su inverso si y solamente si sucede esto (para
todos los objetos x, y del dominio):
Si x ≤ y , entonces y ≥ x .
Lo mismo se puede hacer para definir órdenes inversos para órdenes es-
trictos (parciales o totales) <, cuyo inverso sería >.
Por ejemplo, el orden parcial «_ es parte de _», que formalizamos con «⊑», tendría
un orden inverso ⊒, que significaría «_ tiene como parte a _». De manera que, como el
sistema nervioso tiene como parte al cerebro, podemos decir: sistema nervioso ⊒ cerebro.
Cuando tenemos un orden que es al menos parcial (de manera que incluimos también a
los totales), podemos definir distintos pares de nociones —unas más estrictas que otras—
de elementos «más grandes» o «más pequeños» que los demás.
El par menos estricto es el par maximal/minimal.
Definición 134: Elemento maximal
Dado un orden parcial ≤ sobre un dominio, un elemento maximal del domi-
nio (respecto a ese orden) es un elemento m que no es menor que ningún
otro, es decir:
335
elementos b 12 y c 21 son, ambos, maximales de acuerdo a ese orden.
Un par más fuerte (es decir, más restrictivo) de nociones de «ser el mayor de un
orden» es el par máximo–mínimo.
Definición 136: Elemento máximo
Si ≤ es un orden parcial sobre un dominio, entonces m es un elemento
máximo de ese dominio relativo a ese orden, siempre y cuando:
336
Definición 138: Cota superior de un orden
∀s que esté en S : s ≤ c
∀s que esté en S : c ≤ s
337
máxima cota inferior de S .
Es decir, ınf(S ) :
1. Es una cota inferior de S : ∀s en S,ınf(S ) ≤ s , y
2. es el máximo de las cotas inferiores de S : ınf(S ) ≥ c , para toda
cota inferior c .
Como ejemplos de órdenes con supremos e ínfimos, podemos dar muchos tipos de
intervalos de los números reales.
Consideremos el intervalo abierto (−3, 2) , es decir, el conjunto de todos los números
ejemplo 51
Los ínfimos y supremos, en general, son como las límites más «apretados» de un orden.
Las cotas, en general, sólo nos dicen qué está más arriba o más abajo que el conjun-
to, pero los ínfimos y supremos son como las tapas de un tubo, que lo limitan más
inmediatamente.
Notas
1. Digo que esto se puede hacer al menos conceptualmente debido al debate metafísico entre el nominalismo
y el realismo acerca de las propiedades. Ver Garrett 2006, capítulo 3.
2. En algunos contextos más avanzados, a estas clases de equivalencia se les conoce como rayos.
3. Ver Frege, Los Fundamentos de la Aritmética, Instituto de Investigaciones Filosóficas–UNAM, 1972; Fine,
«Identity Criteria and Ground», Philosophical Studies, 2016.
4. Abajo (????) definiremos la noción de la inversa de una relación, y también (????) a la operación de unión
338
de conjuntos. Con estos conceptos en mano, otra manera de definir a las relaciones totales es así: una
relación es total en un dominio si y sólo si, al unirla con su inversa tenemos la relación trivial.
5. Sobre esto, cf. Irving Copi, Lógica Simbólica (CECSA, 2001), secc. 5.3.
6. Cf. Rudolf Carnap, Meaning and Necessity, The University of Chicago Press, 1975.
7. L.T.F. Gamut, Lógica, Lenguaje y Significado: Lógica Intensional y Gramática Lógica (Editorial Universidad
del Rosario), p. 216.
8. Para más sobre postulados de significado en la formalización de argumentos, ver Jon Barwise & John
Etchemendy (con Dave Barker-Plummer), Language, Proof and Logic (2da edición; CSLI Publications,
2011), secc. 10.5.
9. La tesis de que todo orden parcial estricto se puede extender a un orden total se conoce como el «Teorema
de Extensión de Szpilrajn». Edward Szpilrajn la demostró en 1930. Lo dicho en el texto principal se sigue
de este teorema y del hecho de que todo orden parcial se puede convertir a un orden parcial estricto.
10. Aunque en algunos contextos, es usual el sistema real «extendido», ℝ∗, en el que se agregan un máximo:
+∞, y un mínimo: −∞.
339
340
capítulo
14
Objetivos de aprendizaje
1.
2.
341
esde que comenzamos a estudiar la lógica cuantificacional clásica de primer orden
D con identidad, LC1=, relacionamos las fórmulas con los modelos. Dijimos que estos
son pares de un dominio y una interpretación, donde el dominio es el conjunto de las
cosas de las que hablamos (de las que cuantificamos y predicamos), y la interpretación
es la manera de entender las constantes y los predicados del lenguaje de LC1= en ese
dominio.
En el siguiente capítulo vamos a profundizar un poco en la teoría formal de los
modelos. Esta teoría de hecho es una subrama bastante amplia de las matemáticas,
que involucra a distintas áreas, pero en su base es una aplicación de la teoría de los
conjuntos. Así que primero nos introduciremos a los aspectos básicos de esta teoría,
para poder definir formalmente las nociones de modelo (definición 165), de verdad en un
modelo (definición 167), de verdad lógica (definición 168) y de argumento válido (definición
169).
Un conjunto es una manera de agrupar cero, una, o más cosas. En realidad, un con-
junto es un tipo de entidad muy simple: lo podemos imaginar—sin alejarnos demasiado
de su verdadera naturaleza—sencillamente como una bolsa transparente que puede
contener cosas adentro. Las cosas adentro de la bolsa son los elementos o miembros
del conjunto, y escribimos a ∈ C para decir que a es un elemento—está dentro de la
bolsa—de C ; a veces simplemente decimos «a está en C ». Imaginamos las bolsas trans-
parentes porque después compararemos sus elementos. Por sí mismos, los conjuntos no
tienen mayor estructura que esto.
Como punto de partida,1 asumimos que los conjuntos no son entidades físicas: no
se pueden ver, oler, oír o tocar. Podemos percibir, quizá algunos de sus elementos—por
ejemplo, los elementos del conjunto que contiene a todas y sólo las piedras grises—, pero
no al conjunto mismo. Se dice, entonces, que los conjuntos son entidades abstractas: no
existen ni en el espacio ni en el tiempo. Hay muchos debates filosóficos alrededor de
tales entidades, pero aquí no entraremos en ello.
Si seguimos con la suposición de que los conjuntos no son físicos, no están en ningún
lado.2 Eso significa que existen conjuntos incluso para cosas que están muy lejos entre
sí, o que no tienen «nada que ver» entre sí.
Muchas3 propiedades «corresponden» a un conjunto, en el sentido de que cualquier
cosa x que tenga una propiedad P va a ser elemento de un conjunto específico, el cual,
a su vez, sólo tendrá como elementos a cosas que también sean P .
Por ejemplo, la propiedad de ser humano que—supongo—tú y yo tenemos (cada uno),
define un conjunto. Llamémosle H a ese conjunto. Que la propiedad defina a H significa
que cualquier cosa del universo que sea un ser humano va a ser elemento de H , y ade-
más, que H contiene como elementos sólo a seres humanos. Es decir, este bicondicional
define a H :
∀x (x ∈ H ≡ x es un ser humano )
342
Lo cual significa que H contendrá a todos y sólo los seres humanos como elementos.
En adelante, usaremos las letras mayúsculas A,B,C como variables para conjuntos;
también usaremos los corchetes izquierdo (« { ») y derecho (« } ») para aclarar que
estamos hablando de conjuntos.
Como dije antes, un conjunto4 es una entidad muy simple, con muy poca estructura:
sólo es una bolsa de sus elementos. No es nada más. No tiene color u olor; no pesa
nada, ni tiene ninguna altura; no se mueve a ninguna velocidad ni piensa en nada. Un
conjunto sólo es la bolsa de sus elementos.
A la relación «_ es elemento de _», como vimos arriba, la denotamos por «∈». Y la idea
de que un conjunto sólo es la bolsa de sus elementos es una de las reglas esenciales, que
definen lo que un conjunto es, así que le daremos un nombre especial para distinguirla:
es el Axioma de Extensionalidad. (Un «axioma» es una regla que ayuda a definir alguna
entidad u operación abstracta). Esta regla codifica lo que dijimos al expresar que: si
tenemos un conjunto A y un conjunto B, estos van a ser exactamente el mismo—A = B—
siempre y cuando tengan todos sus elementos en común. Es decir:
Definición 142: Axioma de Extensionalidad
343
14.2. Representación extensional, intensional y gráfica
Si recordamos que un conjunto sólo es la bolsa de sus elementos, esto implica que a un
conjunto «no le importan» el orden ni las repeticiones de sus elementos: podemos describir
el mismo conjunto listando sus elementos de varias maneras, incluso repitiéndolos.
Mientras seane exactamente los mismos elementos, tenemos al mismo conjunto. Por
ejemplo, el conjunto de arriba:
y de igual forma,
344
Y al conjunto de los números naturales podemos definirlo así (usando un concepto
avanzado que no veremos en este curso):
∅ = {}
def.
∅ = {x : x ≠ x }
def.
345
14.4. Subconjunto —impropio y propio
D ⊆ C ≡ ∀x (x ∈ D ⊃ x ∈ C ) (14.2)
def.
Es decir, que un conjunto D sea un subconjunto propio de otro C , significa que todo
lo que está en el subconjunto propio, está en el conjunto «mayor» C y además que C
tiene al menos «algo más» que no está en ese subconjunto.
Si D ⊊ C , así como podemos decir que D es un subconjunto propio o estricto de C , así
también podemos decir que C es un superconjunto de D.
Cuando hablamos de conjuntos finitos, es fácil ver que si D ⊊ C , entonces C tiene
más elementos que D: pues todo miembro de D está en C , y este tiene alguno que no
está en D.
Por ejemplo, si H es el conjunto de los seres humanos definido arriba, y P es el
conjunto de los presidentes de México en el período 2000–2018, es fácil ver que P ⊊ H ,
y que H ⊆ H y también P ⊆ P .
346
14.5. Cardinalidad
Como un conjunto es sólo la bolsa de sus elementos, siempre tiene un número definido
de estos. A ese número le llamamos «cardinalidad», y lo denotamos como car d o con
las barras | |. Entonces, definimos, para cualquier conjunto C :
Definición 146: Cardinalidad de un conjunto
ℕ = {0, 1, 2, 3, 4, 5, . . .},
347
Los números infinitos que representan la cardinalidad de los conjuntos infinitos se
conocen como «números alef», y fueron descubiertos por Georg Cantor a finales del siglo
XIX.7 («Alef» es la primera letra del alfabeto hebreo, y se escribe «ℵ»). Estos números
forman una secuencia: así como los números finitos están totalmente ordenados:
así también los números infinitos están totalmente ordenados. Entonces, la cardinalidad
de los conjuntos infinitos «más chicos» es ℵ0 , y la cardinalidad de los conjuntos con el
siguiente tamaño infinito es ℵ1 ; mientras que la cardinalidad de los conjuntos con el
siguiente tamaño infinito es ℵ2 , y así sucesivamente:
|ℕ| = ℵ0 , (14.5)
Estos dos conjuntos ejemplifican el hecho de que existen infinitos más grandes que
otros. Sin embargo, otro aspecto sorprendente de los infinitos es que un subconjunto
estricto de un conjunto infinito puede tener el mismo número de elementos que el superconjunto.
Esta es una diferencia esencial entre conjuntos finitos e infinitos. Pues, si C es un
conjunto finito, todo subconjunto estricto de C va a tener, por necesidad, un número
menor de elementos que C . Pues todo subconjunto estricto va a tener a algunos pero no
todos los elementos de C como miembros.
Sin embargo, esto no siempre sucede con los conjuntos infinitos. Por ejemplo, consi-
deremos el conjunto de los números naturales pares:
ℕimpares = {0, 1, 3, 5, 7, . . .}
348
Ambos son subconjuntos estrictos de ℕ: ¡éste incluye a los pares y a los impares!
Pues bien, se pueden usar argumentos al estilo de la «diagonalización» de Cantor
para demostrar que, de hecho,
Es decir, ¡aunque ℕ tiene (en algún sentido) «más» elementos que esos dos subconjun-
tos estrictos suyos, pues los incluye a ambos, se puede demostrar que la cantidad de
elementos de los tres es exactamente la misma! Este tipo de aparentes «paradojas» son
un aspecto esencial de los conjuntos infinitos.
II
1. Demuestra que el conjunto vacío es único. Es decir, que: para cualquier conjunto
C , si: ¬∃x (x ∈ C ) , entonces C = ∅. (Pista: Usa el Axioma de Extensionalidad.)
2. Supongamos que (dados dos conjuntos particulares C y D ), car d (C ) <
car d (D) . ¿Se sigue que C ⊆ D ? ¿Por qué?
3. Demuestra que ∀C ({} ⊆ C ) .
Otro conjunto importante que podemos definir para cualquier conjunto es su conjunto
potencia: el conjunto cuyos elementos son todos sus subconjuntos.
Es decir, para cualquier conjunto C —finito o infinito—, siempre podemos definir sus
subconjuntos, propios o impropios: el único subconjunto impropio de C va a ser C
mismo, y los demás van a ser propios (es decir, estrictos).
Entre estos últimos, siempre vamos a encontrar al conjunto vacío: es decir, el con-
junto vacío es subconjunto de todo conjunto, incluyendo, por supuesto, al vacío
mismo. Esto es porque la fórmula universal ∀x (x ∈ ∅ ⊃ x ∈ C ) va a ser verdadera «por
349
vacuidad» para cualquier C que elijamos. Pues, dado que, como dijimos, ∀x (x ∉ ∅),
el antecedente del universal va a ser falso para todo x, lo cual hará al condicional
verdadero para todo x.
Entonces, definimos al conjunto potencia de un conjunto C así:
℘(C ) = {D : D ⊆ C }, (14.6)
y lo que acabamos de ver es que ∅ ∈ ℘(C ), para cualquier conjunto C . (¡Nota que
también es verdad para cualquier conjunto que ∅ ⊆ ℘(C )! ¿Por qué?)
Se conoce como teorema de Cantor a la siguiente afirmación, que Cantor demostró
en 1891 (para todo conjunto, finito o infinito, C ):
En esta sección vamos a definir algunas de las operaciones que podemos hacer con los
conjuntos. Estas operaciones, a su vez, definen nuevos conjuntos. En secciones poste-
riores (??) veremos cómo estas operaciones se corresponden con la estructura lógica de
las fórmulas de LC1=.
14.7.1. Unión
A ∪ B = {x : x ∈ A ∨ x ∈ B } (14.8)
350
A∪B
A B
Por supuesto, en este y los diagramas de abajo, lo que está pintado de azul representa
al conjunto de la operación.
Ejercicio # 66
I
1.
2.
3.
II Sea C 1 = {x : 0 ≤ x ≤ 10}, y C 2 = {A,B,C }. Entonces, dime cuáles son:
1. ℘(C 1 )
2. ℘(C 2 )
3. C1 ∪ C2
4. ℘(C 1 ∪ C 2 )
14.7.2. Intersección
A ∩ B = {x : x ∈ A & x ∈ B } (14.9)
351
A∩B
A B
Como la intersección de dos conjuntos nos dice qué elementos tienen en común, es una
operación conmutativa, en el sentido en que (para cualesquiera conjuntos C y D), se
puede demostrar a partir de las definiciones que hemos visto y las reglas de la lógica
que: C ∩ D = D ∩ C .
La diferencia de A y B, que denotamos con «A − B», nos dice qué cosas no comparte
A con B—y por tanto, es una operación no conmutativa. Otra manera de llamarle es la
resta de conjuntos, o también, «A menos B». Que no sea conmutativa significa que no
es el caso para todos los conjuntos que A − B = B − A.
Definición 149: Resta de un conjunto a otro
A − B = {x : x ∈ A & x ∉ B }, (14.10)
A B
352
B −A
A B
La diferencia simétrica entre dos conjuntos es como si aplicáramos las dos restas A −B y
B −A «al mismo tiempo». También podemos entenderla como la resta de la intersección
a la unión. Una tercera manera de verla es relacionándola con las conectivas proposicio-
nales: así como la intersección corresponde a la conjunción y la unión a la disyunción
inclusiva, la diferencia simétrica corresponde a la disyunción exclusiva. (Recuerda que
la disyunción exclusiva de la lógica de orden cero se define así: «A ⊻ B» significa que o
bien A o bien B, pero no ambos a la vez.) Denotando a la diferencia simétrica con «△»,
la vamos a definir como sigue.
Definición 150: Diferencia Simétrica
Dados dos conjuntos A y B , su diferencia simétrica es el conjunto definido
por:
A△B = {x : x ∈ A ⊻ x ∈ B } (14.11)
Y debería ser fácil ver que las demás definiciones, que son formalizaciones de las
definiciones sugeridas antes, son equivalentes a 14.11, lo cual se queda como ejercicio.
Usando diagramas de Venn, A△B se vería así:
A△B
A B
353
A significa tomar todo lo que está en el ambiente A pero que no está en B. A este caso
de la resta se le conoce como «complemento relativo».
Usualmente, en la notación se deja implícito el conjunto ambiente, pues se asume que
en el contexto de aplicación se entiende cuál es, y el complemento de B se escribe sim-
plemente «B ′» o «B c ». Aquí nos desviaremos de esta práctica; en la definición, haremos
explícito el conjunto universo de B.
Definición 151: Complemento Relativo
BA′
Hasta ahora, hemos visto algunos aspectos esenciales de los conjuntos: que se definen
por sus elementos, según nos dice el Axioma de Extensionalidad, que podemos repre-
sentarlos por la fórmula que satisfacen sus elementos (intensionalmente), y a veces,
listando sus elementos (extensionalmente) o mediante diagramas. También que existe
un conjunto, el vacío, que es el único sin elementos; y que todo conjunto tiene subcon-
juntos: uno impropio—que es el mismo conjunto—y los demás impropios o estrictos. Y
revisamos también que todo conjunto tiene una cardinalidad: el número de cosas que
son sus elementos. También hemos visto que para todo conjunto podemos definir su
potencia, que es el conjunto de todos los subconjuntos que se pueden formar con sus
elementos, incluyendo al conjunto mismo y al vacío. Y vimos algunas operaciones con
los conjuntos.
Pero hasta ahora no hemos visto cómo hacer razonamientos con las definiciones que
354
hemos visto para hacer demostraciones. ¿Cómo podríamos hacer demostraciones
en deducción natural del tipo que hemos hecho en los cursos de Lógica?
Para ello, vamos a introducir tres nuevas reglas y una metodología para demostrar
cosas con conjuntos.
F â ∨ G â,
355
Definición 153: Equivalencia Lógica Preserva Identidad de Conjuntos
(Equiv.)
{x : Φ[x]} = {x : Ψ[x]}
Por ejemplo, dado que —como ya vimos arriba— las matrices F x∨G x y ¬(¬F x & ¬G x)
son lógicamente equivalentes, entonces podemos inferir que:
Una matriz, Φ[x] implica lógicamente a otra Ψ[x] , siempre y cuando: su-
poniendo Φ[â] , usando las reglas podemos inferir que Ψ[â] .
Fx & Gx
{x : Φ[x]} ⊆ {x : Ψ[x]}
356
Como ejemplo, debido a que la matriz F x & G x implica lógicamente a F x, Inf. me
permite inferir que: {x : F x & G x } ⊆ {x : F x }.
Finalmente, todo conjunto que exista, es definible por la matriz que se refiere a pertenecer
a ese conjunto. Esto justifica la última nueva regla:
Definición 156: Autoidentidad de conjuntos (AId)
A = {x : x ∈ A}
Como nota «práctica»: para usar las tres reglas de arriba, no necesitamos demostrar
que dos matrices son equivalentes o que una implica a la otra, sólo necesito que justi-
fiques esta equivalencia o esta inferencia a partir de la regla que se podría usar para
demostrarla. Veamos esto con los ejemplos de abajo.
1. A ∪ B = {x : x ∈ A ∨ x ∈ B } Def.∪
2. ∀x [x ∈ A ⊃ (x ∈ A ∨ x ∈ B)] Introd.∨
3. {x : x ∈ A} ⊆ {x : x ∈ A ∨ x ∈ B } Inf.(2)
357
4. A ⊆ {x : x ∈ A ∨ x ∈ B } Sust.Id.(3)
5. A ⊆ A ∪ B Sust.Id.(1, 4)
Ejercicio # 67
I * Demuestra que: si C y D son conjuntos vacíos, entonces, C = D .
IX Demuestra que las siguientes definiciones del conjunto diferencia simétrica son
equivalentes a 14.11, en el sentido de especificar el mismo conjunto:
(a) A△B = (A − B) ∪ (B − A)
(b) A△B = (A ∪ B) − (B ∩ A)
X Demuestra que A ∩ B = B ∩ A (la conmutatividad de la intersección).
358
XIV Demuestra la distributividad de la unión con la intersección y viceversa:
primero, A ∪ (B ∩C ) = (A ∪ B) ∩ (A ∪C ) ; segundo, A ∩ (B ∪C ) = (A ∩ B) ∪ (A ∩C ) .
Vimos antes (secc. 14.2) que, para los conjuntos, no importa ni el orden ni el número
de apariciones en que listemos sus elementos. En ese sentido, los conjuntos no son una
«lista», sólo son una «bolsa» de sus elementos. Es por eso que si un conjunto A es
{a,b,c }, es el mismo que {b,b,a,b,c ,a}.
Sin embargo, para muchas aplicaciones nos interesa utilizar listas, no meras bolsas,
de cosas. Los pares ordenados son listas de exactamente dos cosas—de ahí su nombre.
(Usamos los «paréntesis angulares» para denotar listas: «⟨» y «⟩».) A los pares ordenados
sí «les importa» el orden de sus elementos, de manera que ⟨a,b⟩ no es el mismo par que
⟨b,a⟩—a menos, claro está, que a = b. Y por supuesto, también «les importa» el número
de apariciones de sus elementos, pues un par ordenado debe contener dos elementos—
aunque sea el mismo objeto listado dos veces—, no uno, ni tres, ni más. Entonces, el
par ordenado ⟨a,a⟩ no es el mismo que la lista de la misma cosa una sola vez: ⟨a⟩.
Como queremos que los pares sean cosas a las que sí «les importa» el orden y el
número de apariciones, los definimos como las entidades que cumplan con lo siguiente.
Definición 157: Par ordenado
Esta definición es suficiente para entender qué son los pares ordenados, pero se pue-
den dar definiciones más formales que muestren cómo es que un par ordenado es siem-
pre un tipo especial de conjunto.8 Para nuestros propósitos, lo único esencial es tener en
mente que un par ordenado es una lista de exactamente dos cosas (o el mismo elemento
repetido dos veces) en la que el orden es importante.
359
14.8.2. Producto cartesiano
El producto cartesiano entre dos conjuntos es la operación que nos permite formar
pares ordenados tomando elementos de esos dos conjuntos. En el producto cartesiano,
el orden importa, pues con esto vamos a formar pares ordenados, en los que el orden
importa.
Usando «×» para denotar a esta operación, lo anterior implica que nunca va a suceder
que: A × B = B × A —a menos que A = B. (En esto, en que falla la conmutatividad, el
producto cartesiano es distinto del producto o multiplicación de los números reales: por
ejemplo, 3 · 4 = 4 · 3.)
La operación de producto cartesiano se define como sigue.
Definición 158: Producto cartesiano
El producto cartesiano de un conjunto A con un conjunto B se escribe
«A × B » y es idéntico al conjunto: {⟨a,b⟩ : a ∈ A & b ∈ B }.
y:
360
Como con la multiplicación de números, podemos definir una operación de exponen-
ciación. En los números, la exponenciación funciona así: cuando r es un número, r n es
ese mismo número multiplicado por sí mismo n veces. Así,
34 = 3 · 3 · 3 · 3 = 81
Por ejemplo,
C 2 = C × C = {⟨a,b⟩ : a ∈ C y b ∈ C }
tendríamos:
A2 = A × A = {⟨FCH, FCH⟩, ⟨FCH, VFQ⟩, ⟨FCH, EPN⟩,
⟨EPN, FCH⟩, ⟨EPN, EPN⟩, ⟨EPN, VFQ⟩,
⟨VFQ, FCH⟩, ⟨VFQ, VFQ⟩, ⟨VFQ, EPN⟩}
En la multiplicación de números, nada nos impide multiplicar más de dos números. Así,
como 2 · 4 = 8 y como 8 · 3 = 24, entonces podemos usar los paréntesis para agrupar las
operaciones y tener: (2 · 4) · 3 = 24. La multiplicación entre números tiene la propiedad
de ser asociativa,9 es decir: (2 · 4) · 3 = 2 · (4 · 3), y también conmutativa, es decir:
(2 · 4) · 3 = 3 · (2 · 4). Juntando ambas propiedades, vemos que a la operación de la
multiplicación «no le importa» qué multipliquemos antes, siempre que multipliquemos
lo mismo: es el famoso dicho «El orden de los factores no altera el producto».
También podemos multiplicar más de dos conjuntos con producto cartesiano. Pero,
¡cuidado! Como no es lo mismo A × B que B × A (a menos, otra vez, que A = B),
entonces aquí ¡el orden de los factores sí altera el producto!
Vimos antes que el producto cartesiano de A con B nos da el conjunto de todos los
pares ordenados que se pueden formar tomando, como primer elemento, un elemento
de A, y como segundo elemento, un elemento de B. Si ahora hacemos una tercera
361
multiplicación: A × B × C , ¿qué nos daría?
Respuesta: nos daría el conjunto de todas las tripletas, o tríadas, ordenadas que
se pueden formar tomando, como primer elemento, un elemento de A, como segundo
elemento, un elemento de B, y como tercer elemento, un elemento de C . Las tripletas
ordenadas, como los pares ordenados, son listas: conjuntos a los que les importa el orden
y el número de apariciones de sus elementos. Una tripleta siempre tiene exactamente
tres elementos, y dos listas de esos tres elementos en distinto orden van a ser dos
distintas tríadas; por ejemplo:
⟨a,b,c ⟩ ≠ ⟨a,c ,b⟩,
si es que (por supuesto) b ≠ c . Entonces, la definición del conjunto que nos resulta de
aplicar el producto cartesiano entre tres conjuntos, sería:
Nota que no es necesario usar paréntesis para decir cuál operación hacemos primero:
siempre que tengamos A × B × C , sabremos que primero debemos tomar un elemento
de A, luego uno de B, y finalmente uno de C . Pues, como vimos, el orden de los factores
sí afecta el producto, así que la notación ya nos dice qué tomar antes y qué después.
Por supuesto, podemos usar la exponenciación básicamente como antes: si S es cual-
quier conjunto, entonces:
S 3 = S × S × S = {⟨a,b,c ⟩ : a ∈ S,b ∈ S, y c ∈ S }
La generalización es obvia.
Definición 160: Potencia n
Si n es cualquier número natural mayor o igual a 1,
Sn = S × S × . . . × S (Potencia n)
| {z }
n veces
362
Lo importante es que una n-secuencia es una lista de n elementos: le importa el orden
y el número de apariciones. Por ejemplo, los elementos de:
A × B × C × A,
van a ser 4-secuencias, cada una de las cuales tendrá (obviamente) como primer ele-
mento, un elemento de A, luego un elemento de B, luego uno de C y como cuarto
elemento, uno de A (no necesariamente idéntico al primero).
Resulta que podemos definir relaciones entre los elementos de conjuntos, usando lo
que ya hemos visto. Por ejemplo, decir que R es una relación de dos lugares entre los
elementos de A y B, es simplemente decir que:
R ⊆ A×B
Esto solamente quiere decir que una relación de dos lugares entre los elementos de A
y de B va a ser un subconjunto (quizá estricto, quizá no) del producto cartesiano entre
ambos conjuntos. Es decir, R va a ser un conjunto de pares ordenados que tienen como
primero en la lista un elemento de A y como segundo uno de B.
Por supuesto, podemos hablar de una relación entre elementos de un mismo conjunto.
Por ejemplo, una relación de dos lugares, R, entre los elementos de A sería:
R ⊆ A2
La generalización es, otra vez, obvia. Una relación S de tres lugares entre los elemen-
tos de A sería:
S ⊆ A3 ,
y así.
Entonces, una relación de tres lugares entre los conjuntos A y B dependería de si
toma dos elementos de A y uno de B, o dos de B y uno de A (por supuesto, si toma
a los tres de uno solo, entonces en realidad no es «entre A y B»), y en qué orden. Una
posible sería una relación S ⊆ A × A × B, y otra sería una relación R ⊆ B × A × B,
etcétera.
Hay más posibilidades. Una relación entre tres conjuntos A,B,C sería simplemente un
subconjunto de sus productos cartesianos. De nuevo, dependería qué elementos tome
primero, así que podríamos tener un subconjunto de A × B ×C , o de B ×C × A, etcétera.
Veamos un ejemplo concreto. Consideremos la relación:
«_ es hermano de _»,
363
que es de dos lugares. Supongamos que tenemos el conjunto:
y que queremos saber cuál sería la relación de arriba en ese conjunto. Entonces, siendo
muy informales (abajo veremos esto formalmente: secc. 15.3),
_ es hermano de _ ⊆ C 2 ,
y, explícitamente (y usando las iniciales como abreviaciones), tendríamos:
y que también queremos saber cómo se vería la relación de tres lugares en ese conjunto.
Como es de tres lugares (y siendo informales otra vez),
_ está entre _ y _ ⊆ A 3
_ está entre _ y _ = { ⟨Cen, Nor, Sud⟩, ⟨Cen, Nor, PSur⟩, ⟨Cen, PNorte, PSur⟩,
⟨Cen, PNorte, Sud⟩, ⟨Nor, PNorte, Cen⟩, ⟨Nor, PNorte, PSur⟩,
⟨Nor, PNorte, Sud⟩, ⟨Sud, PNorte, PSur⟩, ⟨Sud, Nor, PSur⟩,
⟨Sud, Cen, PSur⟩ }
Es claro que los productos cartesianos pueden hacerse entre operaciones de otros con-
juntos.
Por ejemplo, si A es el conjunto de los presidentes mexicanos en el período 2000-
2018, y B el de los presidentes estadunideneses en el mismo período, es obvio que
en A ∪ B vamos a encontrar a personajes como Peña Nieto y como Bush. Ahora, si
definimos (A ∪ B) × A (nota que esto es muy distinto a: A ∪ (B × A)), en este conjunto
encontraremos pares como ⟨Peña, Peña⟩ y como ⟨Fox, Peña⟩ y como ⟨Bush, Fox⟩.
364
14.9. Particiones
Notas
1. Digo que «como punto de partida», aunque lo que sigue es muy debatido en filosofía de las matemáticas.
Veáse, por ejemplo, Penelope Maddy: Realism in Mathematics, Oxford University Press, 1992.
2. Este condicional también es discutible. David Lewis cree que los conjuntos están multi-localizados, pre-
sentes en donde estén cada uno de sus elementos, (ver su Sobre la Pluralidad de los Mundos, Instituto de
Investigaciones Filosóficas, UNAM, 2015). De nuevo, no discutiremos estas cuestiones metafísicas aquí.
3. Un error que cometió uno de los más grandes lógicos de la historia, Frege, fue suponer que aquí podía
decir «todas». Otro gran lógico, Russell, le demostró que esto llevaría a contradicciones. Este episodio
dio lugar a una larga y compleja historia, que fue tremendamente fructífera en la lógica, la filosofía y las
matemáticas.
4. Aquí debería hacer alguna cualificación: «qua conjunto», «en y por sí mismo», o «considerado sólo en
tanto conjunto»; pues para muchos conjuntos podemos definir más y más estructura. Sin embargo, esto
no hará mucho sentido hasta que terminemos esta sección.
5. Esto, de hecho, es debatido. Si existe un tipo de procesos, al menos teóricamente posibles, que se conocen
como «supertareas», sería posible contar los elementos de un conjunto infinito en un tiempo finito. Usando
el concepto de «infinito contable» que veremos abajo, una supertarea se define como «una secuencia
contablemente infinita de operaciones que ocurren secuencialmente dentro de un intervalo finito de
tiempo». Es un debate abierto la cuestión de si las supertareas son o no lógicamente posibles (cf. James
F. Thomson, «Tasks and Super-Tasks», Analysis, 1954; Paul Benacerraf, «Tasks, super-tasks, and modern
Eleatics», Journal of Philosophy, 1962); pero se ha argumentado que son incompatibles con las leyes de
la naturaleza, es decir, que son físicamente imposibles (Gustavo E. Romero, «The collapse of supertasks»,
Foundations of Science, 2013).
6. Esto se conoce como el argumento de la diagonal de Cantor, que él publicó en 1891: «Über eine elementare
Frage der Mannigfaltigkeitslehre», en Mathematische Annalen.
7. Cantor describió los números transfinitos en una serie de artículos en la revista Mathematische Annalen, e
introdujo la notación de los alefs en «Beiträge zur Begründung der transfiniten Mengenlehre», Mathema-
tische Annalen, 1895, traducido en la compilación Contributions to the Theory of Transfinite Numbers, Dover,
1954.
8. La definición formal de un par ordenado es la definición de Kuratowski: ⟨a,b⟩ = {{a}, {a,b }}. Esta definición
implica lo que queremos que «signifique» un par ordenado, según la definición Par ordenado: como
⟨a,b⟩ = {{a}, {a,b }} y ⟨c ,d ⟩ = {{c }, {c ,d }}, entonces {{a}, {a,b }} = {{c }, {c ,d }} si y sólo si a = c y
también b = d . Para verlo, razonemos suponiendo que ésta última conjunción es falsa; por teorema de De
Morgan, esto nos lleva a que o bien es falso que a = c o bien es falso que b = d . Usemos eliminación de ∨ y
Modus Tollens. Entonces, supongamos que a ≠ c . Entonces {a} ≠ {c } y también {a,b } ≠ {c ,d }, con lo que
{{a}, {a,b }} ≠ {{c }, {c ,d }}. Para ver el otro disyunto, supongamos que b ≠ d . Entonces, {a,b } ≠ {c ,d },
de lo cual de nuevo se sigue que {{a}, {a,b }} ≠ {{c }, {c ,d }}. Así, si es falso que a = c & b = d , entonces es
falso que {{a}, {a,b }} = {{c }, {c ,d }}; por transposición, esto muestra que la identidad de estos conjuntos
365
implica que a = c & b = d ; con lo que también implica la identidad de los pares. Un argumento parecido
muestra que la identidad de los pares implica la identidad de estos conjuntos.
9. Para más sobre las propiedades de las operaciones, ver el apéndice ??.
366
capítulo
15
Funciones 368
Definición del lenguaje de LC1= 372
Modelos, otra vez 375
Verdad en un modelo para LC1= 379
Objetivos de aprendizaje
1.
2.
367
15.1. Funciones
368
Pero una función también puede tomar, o devolvernos, elementos de «más de un
conjunto». Sólo que, como dijimos, primero tiene que «combinarlos». Por ejemplo, si
hacemos operaciones con conjuntos, como la unión o el producto cartesiano. Veamos
un ejemplo. Supongamos que queremos definir una función que, para cada pareja de
seres humanos que estén casados, nos devuelva el número de años que llevan de casados
(a 2018, obviamente). Parecería que la función va a tomar seres humanos y números
positivos, pero hay un detalle: no puede tomar seres humanos «solitos»: ¡queremos que
nos diga de una pareja cuánto llevan casados!
La solución es obvia: usamos producto cartesiano. Sea H el conjunto de los seres
humanos; definimos C como la relación en H de «estar casado con»: es decir, C ⊊ H × H ,
de manera que un par de humanos ⟨a,b⟩, que obviamente es elemento de H × H , va
a ser elemento de C siempre y cuando a esté casadx con b. Entonces, la función que
llamaremos «g », tomará un elemento de C —es decir, una pareja de seres humanos que
estén casados—y nos devolverá un elemento de ℕ—es decir, un número natural. Por
ejemplo,
g (⟨Samuel L. Jackson, LaTanya Richardson⟩) = 38
Por poner otro ejemplo,
Y si dos personas, x y y no llevan todavía ni el año de casadas, g (⟨x, y⟩) sería idéntico
a 0. (Es usual eliminar los paréntesis angulares de la notación de las funciones, cuando
queda entendido que la función toma elementos de un producto cartesiano como en-
tradas; de manera que lo que acabo de decir se escribiría un poco más simplemente:
g (x, y) = 0.)
La notación que se usa para definir de qué conjunto tomamos la entrada y de cuál la
salida de una función f , es la siguiente:
f : E −→ S,
donde E es el conjunto de las entradas y S el de las salidas. Así, para definir «de dónde
viene y a dónde va» la función Padre que definimos arriba, escribimos:
y para la función que nos devuelve los años de casados de una pareja de seres humanos,
escribiríamos así:
g : C −→ ℕ,
O, más explícitamente,
g : C ⊊ H × H −→ ℕ
369
Para la función sucesor de la que hablamos antes, tendríamos:
s uce sor : ℕ −→ ℕ
Sólo nos falta la notación para la regla que define a la función. En muchos ámbitos,
es usual definir a las funciones—especificar las reglas–con esta notación (fíjate que
también es una flecha, pero con una «colita», y que no va de conjuntos a conjuntos, sino
de entradas al valor correspondiente):
f (x) ↦−→ y,
f (x, y) ↦−→ n,
f (x) := y
Por ejemplo,
s uce sor (x) := x + 1
h : M −→ S × S
370
de manera que:
⟨x, y⟩ es el par de los finalistas del año n
h (n) −
↦ → ⟨x, y⟩ x es el campeón
y es el segundo lugar
Es decir, h es la función que nos devuelve, para cada año, el par ordenado de los
finalistas del Mundial en ese año, teniendo como primer elemento al campeón y como
segundo al segundo lugar. (Por ejemplo, h (1998) = ⟨Francia, Brasil⟩.)
Es evidente que, para cada entrada de h—es decir, para cada número de año del siglo
XX en el que haya habido un Mundial—existe un único valor: un único par ordenado
que satisface: ser el par de los finalistas, teniendo al campeón en el primer lugar, y
teniendo al segundo lugar en el segundo lugar. Nota que si no hubiéramos especificado
estas condiciones, h no sería una función:
• Si sólo hubiéramos dicho «h (n) es la función que nos da a los finalistas del Mundial
del año n», h (1998) hubiera sido... ¿Brasil? ¿Francia? ¡No está bien definido!
• Si sólo hubiéramos dicho «h (n) es la función que nos da el par de los finalistas del
Mundial del año n», h (1998) hubiera sido... ¿<Brasil, Francia>? ¿<Francia, Brasil>?
¡Tampoco está bien definido!
Así que: una función siempre nos da un único valor (para cada entrada); ese único
valor puede contener más de una cosa, si es una secuencia ordenada, pero en ese caso
tenemos que especificar cuál secuencia específica es el valor de la función.
Esto implica que, por ejemplo, no hay una función definida por la regla ¡para todo
papá, dame su hijo!, pues alguien que tenga más de un hijo va a hacer que la «función»
que definiríamos así nos diera más de dos valores. Sin embargo, si cambiáramos la
definición por: ¡para todo papá, dame su hijo primogénito!, entonces sí que tendríamos una
función.
De hecho, aunque «¡para todo papá, dame su hijo! » no define a una función, sí define a
una relación: la relación, por supuesto, «_ es padre de _», que tiene como elementos a
pares como <Raúl Salinas Lozano, Carlos Salinas de Gortari>y <Raúl Salinas Lozano,
Raúl Salinas de Gortari>.
371
Si f es una función que va de A a B—es decir, si:
f : A −→ B,
entonces:
f ⊆ A×B
Es decir, f es una relación entre A y B. Que la relación tenga la propiedad de la
funcionalidad significa que
Para todo ⟨a,b⟩ ∈ A × B, si ⟨a,b⟩ ∈ f , entonces ⟨a,c ⟩ ∉ f , para todo c ≠ b.
Esto solamente dice lo que ya habíamos dicho sobre las funciones: que para cada en-
trada, nos dan un único valor. Pues cuando decimos «⟨a,b⟩ ∈ f », eso es simplemente
lo que arriba hemos escrito como «f (a) = b». Y cuando sucede eso, entonces no va a
suceder que f (a) = también sea c (si es que c ≠ b), pues eso significaría que la «fun-
ción» nos daría dos valores distintos para la misma entrada. Eso es lo que decimos con
«⟨a,c ⟩ ∉ f ».
Entonces, como vimos arriba, «¡para todo papá, dame su hijo! » no define a una función,
pero sí define a una relación—es decir, a una relación que no tiene la propiedad de la
funcionalidad.
En esta sección vamos a definir el lenguaje formal de la lógica LC1=. Esto ya lo hicimos
en la sección 10.1, aunque de manera informal. Ya que sabemos lo suficiente sobre los
conjuntos, podemos definirlo de manera formal.
Primero definimos el «alfabeto»: el conjunto de símbolos. Este conjunto es el conjunto
de las constantes, variables, y predicados.
Definición 161: Alfabeto de LC1=
• El lenguaje LLC1= = Cons ∪ Var ∪ Pred ∪ {¬, ∨, ⊃, ∧, =, ∃,∀}, donde:
• Cons = {a,a 1 ,a 2 , . . . ,b,b 1 , . . . , }
• Var = {x,x 1 ,x 2 , . . . , y, y 1 , . . . , z 1 , . . .}
• Predn = {F n ,F1n ,F2n , . . . ,H n ,H1n , . . . ,R 1n , . . .} (este es el conjunto
de los predicados de n lugares)
Ð
• Pred = n∈ℕ ( Predn ) = Pred1 ∪ Pred2 ∪ Pred3 ∪ Pred4 ∪ . . . (este
es el conjunto de los predicados de cualesquiera lugares)
Lo siguiente es definir las fórmulas del lenguaje, con reglas formales. Vamos primero
a definir el conjunto TLC1= de los términos, el conjunto ALC1= de las matrices abiertas
(subfórmulas con al menos una variable libre) y finalmente el conjunto FLC1= de las
fórmulas del lenguaje.
372
Dado que, por el contexto, es obvio que siempre nos estamos refiriendo al lenguaje
de LC1=, dejaremos implícito esto y ya no lo pondremos.
En lo que sigue, usaremos las esquinas para referirnos a las fórmulas y poder cuanti-
ficar dentro de ellas. Es decir, cuando escribo algo como «⌜A ∨ B ⌝», esto abrevia frases
como: «la fórmula que resulta de poner una disyunción entre la fórmula A a la izquierda
y B a la derecha».
Entonces, definimos el conjunto de los términos:
Definición 162: Términos de LC1=
T = Cons ∪ Var
Es decir, los términos son todas las constantes y variables de individuo.
Vamos a definir el conjunto de las matrices del lenguaje. Este es la unión del conjunto
de las matrices atómicas y del conjunto de las matrices moleculares:
Definición 163: Matrices de LC1=
El conjunto de las matrices atómicas es A atom , y se define así:
donde cada una de las n 𝜏 s son términos (es decir, constantes o varia-
bles), con al menos una de ellas siendo una variable individual, y P n es
un predicado de n lugares y «=» es la constante de identidad. Es decir,
las matrices atómicas son predicaciones (de predicados, relaciones o la
relación de identidad) sin constantes lógicas ni cuantificadores.
El conjunto de las matrices moleculares, «A mol » es el conjunto definido
recursivamente así:
1. Sea ⌜A⌝ una matriz, atómica o molecular. Entonces ⌜¬A⌝ ∈ A mol .
2. Sean ⌜A⌝ y ⌜B ⌝ dos (o la misma) matrices (moleculares o atómi-
cas). Sea C una conectiva lógica proposicional diádica (es decir,
alguna de ∨, &, ⊃ , ≡). Entonces, ⌜(A)C(B)⌝ ∈ A mol .
Finalmente, el conjunto de las matrices de LC1= es:
A = Aatom ∪ Amol
Con todo esto, ya podemos definir el conjunto de las fórmulas del lenguaje. Lo hare-
mos recursivamente.
373
Definición 164: Fórmulas de LC1=
1. Primero definimos el conjunto de las fórmulas atómicas:
Fatom = {x : x = ⌜P (𝜅 1 , . . . , 𝜅 n )⌝ ∨ x = ⌜𝜅 1 = 𝜅 2 ⌝}
• Ejemplos de términos:
a x y c b
• Ejemplos de matrices atómicas:
ejemplo 53
374
15.3. Modelos, otra vez
En esta sección vamos a definir formalmente a los modelos. Usaremos «M» como va-
riable que corre sobre el dominio de los modelos.
Definición 165: Modelo de LC1= (Formal)
M = ⟨D,I ⟩
tal que:
D ≠ ∅,
es decir: los modelos tienen dominios que nunca son vacíos; y:
I (𝜅) ∈ D, si 𝜅 ∈ Cons
I : L −→ D de manera que:
I (F n ) ⊆ D n , si F n ∈ Predn
Es decir, la interpretación I es una función que toma elementos del len-
guaje de la lógica y los «lleva» a elementos del dominio o de su producto
cartesiano: la interpretación de toda constante es un elemento del domi-
nio del modelo, y la interpretación de todo predicado de n lugares es un
conjunto de n-secuencias de elementos del dominio.
Estas reglas para definir I son obvias, pues sólo reflejan formalmente lo que ya ha-
bíamos dicho informalmente acerca de cómo funcionan los modelos.
Hasta aquí, todo bien. Pero nos falta algo: las variables y las constantes con gorrito y
ficticias.
Queremos que las variables, como dijimos al inicio (secc. 9.4.1), sean generales, es decir,
que una variable satisfaga esto: es un símbolo que refiere de manera no específica a un objeto
en su dominio, bajo una interpretación.
No usamos a la interpretación I del modelo para interpretar a las variables porque
queremos que esta no cambie en el mismo modelo—es decir, queremos que cada modelo
tenga una sola interpretación. Pero la «interpretación» de las variables sí cambia dentro
de un mismo modelo: una variable, como «x», no se refiere a un elemento específico
del dominio, sino que puede referirse a cualquiera. Por ello, la interpretación I fija la
manera de entender a las constantes como refiriéndose a elementos del dominio y a los
predicados como refiriéndose a subconjuntos del dominio (si son predicados de un solo
375
lugar) o a conjuntos de n-secuencias de cosas tomadas del dominio (si son predicados
de n lugares). Pero no fija a las variables: de nuevo, una variable es «general»: no refiere
a ninguna cosa específica del dominio.
Lo que hacemos para dar cuenta de esto es usar otro tipo de función, que llamaremos
asignaciones de variables y que simbolizaremos con «𝜎», usando subíndices («𝜎1 »,
«𝜎2 », etc.) o primas («𝜎′», «𝜎′′», etc.) cuando sea necesario distinguir entre diferentes
asignaciones.
Las asignaciones de variables son maneras de «interpretar» a las variables, siempre
relativo a un modelo. Por ello, cuando sea necesario haremos explícita esta dependencia,
escribiendo «𝜎M» para decir que estamos considerando a la asignación 𝜎 relativo al
modelo M. Entonces, definamos:
Definición 166: Asignación de Variables
𝜎M : V ar → D ∈ M
De manera que, para toda variable individual 𝛼 y toda asignación de va-
riables 𝜎 relativo a un modelo M, tenemos que:
𝜎M(𝛼) ∈ D,
donde D es el dominio de M.
Es decir, toda asignación de variables (relativo a un modelo) toma a cada una de las
variables del lenguaje y le asigna un elemento del dominio. No se pone constricción
alguna acerca de qué elemento le debe asignar a qué variable, sólo asumimos de en-
trada que: para cada manera de asignarle objetos del dominio a las variables, tenemos
disponible una asignación.
Ahora podemos considerar al mismo modelo usando distintas asignaciones. Enton-
ces, usar al modelo M1 con la asignación de variables 𝜎1 nos definirá un dominio, una
interpretación de las constantes y los predicados en ese dominio, y una manera de inter-
pretar a las variables, dada por 𝜎1 ; usar al mismo modelo con una asignación distinta
𝜎2 , nos dejaría fijo el dominio y la interpretación de las constantes y los predicados,
pero cambiaría algunos (o todos) los objetos del dominio que se le asignan a las varia-
bles. Es decir: 𝜎M(𝜅) = I (𝜅), donde I es la interpretación de M, y 𝜅 es una constante.
Esto nos dice que la asignación relativo a un modelo incorpora la interpretación que
ese modelo hace de las constantes. Además, 𝜎M(P ) = I (P ), donde P es un predica-
do (de cualquier número de argumentos). Es decir, la asignación relativo a un modelo
incorpora la interpretación que el modelo hace de los predicados.
376
Finalmente, lo que buscábamos con las asignaciones era una manera de interpretar
a las variables. Entonces, la asignación 𝜎 de una variable 𝛼, relativo a un modelo M,
es un elemento de D, es decir: 𝜎M(𝛼) ∈ D, donde D es el dominio del modelo M.
¡Un momento! No hemos definido qué pasa con las constantes con gorrito, 𝜅ˆ y las
constantes ficticas, 𝜅 ∗ . Introdujimos estas constantes para las reglas de I∀ y E∃, en la
sección 11.4.
Empecemos con las constantes con gorrito. Habíamos dicho, al introducirlas, que
«Una manera de leer una constante con gorrito, â, es: ‘a y todas las demás cosas’. Entonces,
leeríamos la fórmula ‘F â’ como: ‘Efe de a y de todas las demás cosas’.» Esto quiere decir
que una fórmula del tipo de ⌜Φ[ 𝜅]⌝
ˆ va a ser verdadera en un modelo si todo elemento
del dominio del modelo es elemento de la interpretación de ⌜Φ⌝.
Es decir—como vimos en la sección 11.4—una fórmula que contenga una constante
con gorrito nos permite inferir la misma fórmula pero universalizada: sustituyendo cada
aparición de esa constante con gorrito por una variable (que no aparezca ya en la fórmu-
la), y poniendo un cuantificador universal ligando esa variable al inicio de la fórmula.
Y como también vimos en la misma sección, de una fórmula universalizada podemos
inferir la misma fórmula pero sustituyendo cada aparición de la variable ligada por el
cuantificador universal por una constante y eliminando el cuantificador universal. Entre
las constantes que podemos sustituir están, por supuesto, las constantes con gorrito.
Así que las fórmulas del tipo de ⌜Φ[ 𝜅]⌝
ˆ son, en realidad, lógicamente equivalentes
con las fórmulas del tipo de ⌜∀𝛼(Φ[𝛼])⌝. Esto significa que debemos interpretar a las
constantes con gorrito de manera que se cumpla esta equivalencia.
Ahora bien, como veremos abajo (en la sección 15.4.2 y la definición 15.4.1), una
fórmula como ⌜∀𝛼(Φ[𝛼])⌝ es verdad si y solamente si todo elemento del dominio es
elemento de la interpretación de Φ—lo cual, por el Axioma de Extensionalidad, signi-
fica que la interpretación de Φ va a ser idéntica al dominio del modelo. Entonces,
⌜∀𝛼(Φ[𝛼])⌝ es verdad si y solamente si I (Φ) = D. Y como ⌜Φ[ 𝜅]⌝ˆ es lógicamente
equivalentes con ⌜∀𝛼(Φ[𝛼])⌝ (lo cual significa, como veremos abajo, que son verdade-
ras en exactamente los mismos modelos), debe suceder que ⌜Φ[ 𝜅]⌝
ˆ es verdadera si y
solamente si I (Φ) = D.
Como las asignaciones preservan interpretaciones, esto, a su vez, esto significa que
debe resultar lo siguiente: 𝜎M ⊨ ⌜P ( 𝜅)⌝
ˆ si y sólo si 𝜎M(P ) = D. Entonces, la asignación
de una constante con gorrito debe ser: 𝜎M( 𝜅)ˆ = D.
377
Pero esto parece incorrecto. Dijimos (en la sección 15.3.1) que una asignación (en un
modelo) toma a una constante o variable y le asigna un elemento del dominio (de ese
modelo). ¡Pero ahora una asignación puede asignar al dominio mismo!
La solución es tomar al gorrito como una función. Esta función toma cualquier ele-
mento del dominio y regresa al dominio mismo. Esto significa que la interpretación
de una constante con gorrito debe ser la interpretación de un símbolo de función—el
gorrito—aplicado a un elemento del dominio—aquél denotado por la constante a la
que le ponemos el gorrito. Entonces, 𝜎M(𝜅) ∈ D, y 𝜎M( ˆ ) = h, donde h es una función
así: h : D → {D }, de manera que h (𝜎M(𝜅)) = D, donde D es el dominio de M.
(Esto es a nivel semántico. A nivel del lenguaje, el gorrito sería un símbolo para una
función. Intuitivamente, esta función es definida por la regla: ¡toma un objeto y dame todas
las cosas en su dominio! )
Entonces, intuitivamente (veremos la versión rigurosa en la siguiente sección) una
fórmula del tipo ⌜P ( 𝜅)⌝
ˆ será verdadera bajo una asignación 𝜎M si, y solamente si, la
interpretación del predicado P es idéntica al dominio del modelo M.
Constantes ficticias
378
15.4. Verdad en un modelo para LC1=
Ahora vamos a definir lo que significa que una fórmula (es decir, un elemento del
conjunto F que definimos arriba) sea verdadera en un modelo M.
Como vamos a usar distintas asignaciones con el mismo modelo para poder definir a
las fórmulas cuantificadas, primero consideramos a un modelo junto a una asignación.
Hemos visto que las matrices abiertas no son fórmulas del lenguaje; por ello, no son
ni verdaderas ni falsas. Sin embargo, las fórmulas cuantificacionales que contienen a
esas matrices sí son verdaderas o falsas; ahora veremos dos ejemplos.
Primer ejemplo: la fórmula «∀x (F x)» va a ser verdadera en un modelo M si todas las
cosas del dominio de M son elementos del conjunto con el que I (de M) interpreta al
predicado «F ».
De la misma manera, la fórmula «∃y (G y ∨ H ya)» es verdadera en un modelo M si
al menos una cosa de su dominio o bien es elemento de I (G ), o bien está en un par
ordenado con la cosa del dominio I (a), y ese par es un elemento de I (H )—es decir, la
fórmula es verdadera en el modelo si: para alguna cosa d del dominio: o bien d ∈ I (G ),
o bien ⟨d ,a⟩ ∈ I (H ). Para este último ejemplo usamos algo que veremos abajo: que la
relación de ser verdad en un modelo incluye la definición de las tablas de verdad de las
conectivas proposicionales.
Vamos a definir a la relación «el modelo M hace verdadera a la fórmula A bajo la
asignación 𝜎». Escribiremos esta relación así: «𝜎M ⊨ A», pues estamos considerando a
la asignación relativa al modelo.
Definiremos a esta relación yendo caso por caso: diremos qué se necesita y basta para
que cada posible tipo de fórmula de nuestro lenguaje, simbolizada por A, B y C , esté
en esta relación con un modelo y una asignación.
Como veremos después de escribirlas y explicarlas, la definición que daremos es
recursiva. Pero primero veamos sus tres posibles casos.
1er. caso: A es una fórmula atómica. En este caso, consideramos los cuatro posibles
casos:
• A es de la forma: ⌜P (𝜅 1 , . . . , 𝜅 n )⌝. Entonces lo que se necesita y basta es que:
⟨𝜎M(𝜅 1 ), . . . , 𝜎M(𝜅 n )⟩ ∈ 𝜎M(P ).
• A es de la forma: ⌜𝜅 1 = 𝜅 2 )⌝. Entonces: 𝜎M(𝜅 1 ) = 𝜎M(𝜅 2 ).
• A es de la forma: ⌜P (𝜅 1 , . . . , 𝜅ˆi . . . , 𝜅 n )⌝.
• A es de la forma: ⌜P (𝜅 1 , . . . , 𝜅 ∗ . . . , 𝜅 n )⌝.
379
El primer caso nos dice que una predicación atómica es verdadera en un modelo
bajo una asignación siempre y cuando la secuencia de las interpretaciones (que, recuer-
da, son «copiadas» por 𝜎M) de las constantes es un elemento de la interpretación del
predicado. Como ejemplo, tomemos una predicación atómica como R (a,b). Entonces,
R (a,b) va a ser verdadera en un modelo M1 bajo una asignación 𝜎1 (relativo a M,
pero omitimos esto para simplificar la notación) si y sólo si: el par ⟨𝜎1 (a), 𝜎1 (b)⟩ es un
elemento de 𝜎1 (R), donde 𝜎1 (R) ⊆ D 1 , donde D 1 es el dominio del modelo M1 .
Pero esta definición nos da solamente las condiciones formales para que la fórmula
«R (a,b)» sea verdadera en cualquier modelo bajo una asignación. Pero en muchas apli-
caciones de la lógica de primer orden—como la que hemos usado en estas notas: la
aplicación a la argumentación—queremos interpretar a las fórmulas con proposiciones
específicas. Se dice, en estos casos, que tenemos una interpretación intencional para
la fórmula: no nos importa cualquier interpretación de la fórmula, sino una específica.
Por ejemplo, para alguna aplicación a la argumentación, podríamos querer interpretar
a «R (a,b)» como «Lana Wachowski y Lilly Wachowski son hermanas». ¿En qué tipo de
modelos va a ser verdadera esta fórmula, si la vamos a interpretar así?
En modelos que tengan un dominio que incluya a las dos Wachowski, que además
interpreten a «a» como Lana y a «b» como Lilly, y en los que además exista un conjunto
de pares ordenados que incluya al par <Lana, Lilly>y tal que podamos usar este conjunto
como interpretación de la relación «_ es hermana de _». (Por ejemplo, un conjunto que
incluyera al par <Rihanna, Margarita Zavala>no nos serviría como interpretación del
predicado R, si queremos interpretarlo como la propiedad «_ es hermana de _», por la
razón obvia: ¡Rihanna no es hermana de Margarita Zavala!)
El segundo caso de fórmula atómica es obvio: una predicación de identidad entre dos
constantes es verdadera (en un modelo, bajo una asignación), si la interpretación de
ambas constantes es el mismo elemento del dominio.
Lo siguiente es definir verdad en un modelo bajo una asignación para fórmulas cuan-
tificacionales:
2do. caso: A es una fórmula cuantificada. En este caso, la conectiva principal de la
fórmula es un cuantificador; otra vez tenemos dos posibles casos:
• A es de la forma: ⌜∀𝛼(Φ[𝛼])⌝. Entonces: 𝜎′M(𝛼) ∈ 𝜎′M(Φ), para toda 𝜎′M
que sea diferente de 𝜎M en, a lo más, lo que le asigna a 𝛼.
• A es de la forma: ⌜∃𝛼(Φ[𝛼])⌝. Entonces: 𝜎′M(𝛼) ∈ 𝜎′M(Φ), para alguna 𝜎′M
que sea diferente de 𝜎M en, a lo más, lo que le asigna a 𝛼.
Estas definiciones parecerían algo retorcidas, pero en realidad sólo explicitan formal-
mente lo que ya sabíamos sobre los cuantificadores. Una fórmula de la forma ⌜∀𝛼(Φ[𝛼])⌝
nos dice (dado un modelo) que todas las cosas del modelo son Φ. Para ver ejemplos,
tomemos a 𝛼 como x. Entonces, una fórmula como ⌜∀x (Φ[x])⌝ significa que toda cosa
380
x del dominio, es Φ. A su vez, Φ es una matriz donde x está libre (pues el cuantificador
∀ del inicio llega a ligar a x). Y esta matriz puede ser un solo predicado—de un lugar,
como «F x», o de más, como «R (a,x)»—, o también puede ser varios predicados unidos
con conectivas proposicionales y/o cuantificadores, como «[P x ∨ R (a,x)] ⊃ ∃y (P y)».
Puede haber más variables que x, pero estas tienen que estar ligadas por otros cuan-
tificadores: como estamos considerando fórmulas cuya conectiva principal es ∀, si hay
más variables que no liga este cuantificador al inicio de la fórmula, deben estar ligadas
por otro.
Pues bien, dijimos que ⌜∀x (Φ[x])⌝ significa que toda cosa x del dominio, es Φ. ¿Qué
basta y se requiere para que una fórmula así sea verdadera en un modelo? Obviamente,
que toda cosa del dominio (del modelo) sea elemento de como sea que interpretemos
(en el modelo) a Φ. Pero como vimos, las interpretaciones no hacen nada con las va-
riables, y por eso usamos asignaciones. Lo que queremos es que, cualquier cosa (del
dominio) que le asignemos a la variable x, sea Φ. ¡Pero una asignación sólo define un solo
elemento como asignación de cada variable! No tiene mucho sentido hablar de «cual-
quier cosa que la asignación le asigne a la variable», pues ¡sólo hay una cosa asignada
a cada variable!
Por eso es que, en la definición, dijimos que «. . . para toda 𝜎′M que sea diferente de
𝜎M en, a lo más, lo que le asigna a» la variable. Es decir: consideramos a todas las
diferentes maneras de interpretar a la variable, y como sólo nos interesa la variable
ligada por el cuantificador «∀»—¡porque estamos considerando fórmulas que tienen a
ese cuantificador como conectiva principal!—nos enfocamos en 𝜎M misma y además
en todas las asignaciones que cambien lo que 𝜎M le asigna a x (la variable ligada por
el cuantificador principal), pero que no cambien nada más (pues, de nuevo, solo nos
interesa x).
Entonces, si sucede que todas esas variantes de 𝜎M con respecto a x—es decir, todas
esas asignaciones que solo difieren de la original con respecto al elemento con el que
interpretan a la variable—hacen que el elemento asignado sea elemento de como sea
que interpretemos a Φ, podemos decir que toda cosa del dominio es Φ. Y eso es preci-
samente lo que queríamos que significara decir que la fórmula universal es verdadera
en el modelo (bajo una asignación). Finalmente, simplemente le llamamos «𝜎′M» a las
variantes con respecto a x de 𝜎M, y tenemos el primer caso de las fórmulas cuantifica-
cionales.
Habiendo dicho todo esto, la cláusula para el cuantificador existencial ya debería ser
más clara. Queremos que una fórmula existencial como «∃x (F x)» sea verdadera en un
modelo siempre y cuando al menos una cosa de su dominio sea F (es decir, pertenezca
a la interpretación que el modelo hace del predicado «F »). Entonces, consideramos qué
cosa le asigna 𝜎M a la variable x y si resulta que 𝜎M u otra asignación que sólo cambie
la asignación de x, nos da un objeto que resulta ser elemento de la interpretación del
381
predicado, tenemos lo que queríamos, pero escrito formalmente. Eso es precisamente
lo que el segundo caso de la definición nos da.
Finalmente, definiremos a las fórmulas que tienen como conectiva principal a una
conectiva proposicional.
3er. caso: A es una fórmula molecular. Aquí tenemos cinco posibles casos:
• A es de la forma: ⌜¬(B)⌝. Entonces: es falso que 𝜎M ⊨ B.
• A es de la forma: ⌜(B) ∨ (C )⌝, y entonces: o bien 𝜎M ⊨ B, o bien 𝜎M ⊨ C , o
ambas.
• A es de la forma: ⌜(B) & (C )⌝, y entonces: tanto 𝜎M ⊨ B como también
𝜎M ⊨ C .
• A es de la forma: ⌜(B) ⊃ (C )⌝, y entonces: si 𝜎M ⊨ B entonces 𝜎M ⊨ C (es
decir: o bien 𝜎M ⊨ ¬(B), o bien 𝜎M ⊨ C , o ambas).
• A es de la forma: ⌜(B) ≡ (C )⌝, y entonces: o bien 𝜎M ⊨ (¬(B) & ¬(C )), o
bien 𝜎M ⊨ ((B) & (C )).
Como es fácil de ver, lo que hacen estas definiciones es simplemente incorporar las
tablas de verdad de las conectivas proposicionales. Por ejemplo, una fórmula cuya co-
nectiva principal es la disyunción, «∨», será verdadera en un modelo (bajo una asig-
nación) siempre y cuando uno u otro (o ambos) de sus disyuntos sea verdadero en el
modelo (bajo esa asignación). ¿Qué va a pasar con esos disyuntos? Pues que será una
fórmula de alguno de los tres tipos que hemos considerado: atómica, cuantificacional o
con una conectiva principal proposicional, y entonces solamente aplicamos la definición
correspondiente.
Se dice, por esto, que las definiciones que hemos dado son recursivas: se aplican
primero a la fórmula entera, tomando qué conectiva principal tenga (cuantificador o
proposicional), si es que tiene una, y si no, es atómica; si es atómica ya hemos aca-
bado; si no es atómica, ya que evaluamos su conectiva principal, nos seguimos con
las subfórmulas—si su conectiva principal es proposicional, y si su conectiva es un
cuantificador, seguimos con la matriz que tiene libre la variable que está ligada por el
cuantificador que ya evaluamos. En esta matriz, habrá más cuantificadores, o conectivas
proposicionales, o ninguno; en este caso, la asignación 𝜎∗ nos permite tratarla como
atómica; en cualquiera de los tres casos, otra vez aplicamos la definición relevante.
382
La idea es la siguiente. Cada modelo M es un par de un dominio y una interpretación,
así que al evaluar una fórmula cuantificada para saber si es o no verdadera en M,
extendemos el lenguaje de LC1=. En el lenguaje extendido, tomamos el conjunto de
constantes que ya tenemos, y agregamos una constante para cada uno de los elementos
del dominio de M. Es decir: si d es un elemento del dominio de M, agregamos una
constante ad al lenguaje. Ahora modificamos la interpretación de M, de manera que:
para toda constante ad que hemos agregado, (ad ) = d . Es decir, la interpretación de la
constante que agregamos para el elemento d del dominio es. . . pues d mismo.
Habiendo hecho esto, la interpretación de fórmulas cuantificacionales es muy sencilla:
• Las fórmulas cuya conectiva principal es «∀», es decir, de la forma:
⌜∀𝛼(Φ[𝛼])⌝,
son verdaderas en un modelo M si y sólo si: para cada constante agregada ad ,
⌜Φ[ad ]⌝ es verdad en M.
• Las fórmulas de la forma ⌜∃𝛼(Φ[𝛼])⌝, son verdaderas en un modelo M si y sólo
si: para al menos una constante agregada ad , ⌜Φ[ad ]⌝ es verdad en M.
Ahora, en vez de considerar distintas maneras de asignarle elementos del dominio a las
variables, tomamos la fórmula, le quitamos el cuantificador, sustituimos en todas sus apa-
riciones a la variable que estaba ligando por una constante,2 y si la fórmula es verdadera
para alguna constante, significa que es verdadera para alguna cosa del dominio—lo cual
nos da la cláusula correcta para el cuantificador existencial; la cláusula para el universal
es, obviamente, cuando la fórmula es verdadera para toda constante que sustituyamos
por la variable.
Es fácil ver por qué requerimos la expansión del lenguaje—en particular, agregar más
constantes—para poder definir las cláusulas para los cuantificadores: si no hubiéramos
hecho esto, entonces podría resultar que algún elemento del dominio no fuera referido
por ninguna de las constantes de nuestro lenguaje. Y si eso pasara, aunque toda cosa
en el dominio de hecho fuera (por ejemplo) elemento de I (F ), como no tendríamos
constantes para todas ellas, podríamos terminar juzgando erróneamente que no todo
del dominio es I (F ).3
Ya podemos decir qué significa que una fórmula sea verdadera en un modelo —
verdadera sin nada más, sin hablar de asignaciones: ahora consideraremos sólo al mo-
delo y a la fórmula:
Definición 167: Verdad en un Modelo de LC1=
M ⊨ A si y sólo si: 𝜎M ⊨ A para toda 𝜎M.
383
Es decir, A es verdadera en el modelo M si y solamente si, es verdadera para toda
asignación relativo a ese modelo.
Cuando una fórmula es verdadera en un modelo, esto significa que es irrelevante qué
asignación escojamos: la fórmula será verdadera bajo cualquier forma de interpretar a
las variables. Por ejemplo, las fórmulas sin variables, como «a = b» o «¬S (b,c )» serán,
si verdaderas bajo alguna asignación, verdaderas en el modelo.
En lógica de orden cero, teníamos el concepto de tautología: una fórmula cuya tabla
de verdad da en cada fila de su conectiva principal el valor verdadero; de manera equi-
valente, una fórmula que es verdadera bajo toda asignación de valores a sus fórmulas
atómicas. En la lógica cuantificacional de primer orden, usamos «⊨ A» para decir que
una fórmula A es una verdad lógica de LC1=, y definimos esto así:
Definición 168: Verdad Lógica de LC1=
Las verdades lógicas de LC1= son, pues, las que son verdaderas en todo modelo: son
aquellas fórmulas que son verdaderas sin importar qué dominio tengamos (siempre que
no sea vacío) o cómo interpretemos variables, predicados y constantes (siempre que
interpretemos a las constantes lógicas de manera fija). Por ejemplo,
• ∀x (F x ∨ ¬F x),
• ∀x (x = x),
• ∃x (x = x),
son, cada una de ellas, verdades lógicas de LC1=.
Quizá la principal utilidad de la lógica formal para el análisis filosófico está en una
de sus aplicaciones: ser un modelo (en el sentido de una representación científica, no en
el sentido que hemos usado en este capítulo) de la validez. A su vez, como dijimos al
comenzar con LC1= en la sección ??, el concepto general de validez es el siguiente:
Definición
Un argumento es válido siempre y cuando: no existe ninguna situación
lógicamente posible en la que sus premisas sean todas verdaderas, pero
la conclusión falsa.
384
En lógica proposicional, la manera de entender este concepto es cuando decíamos
que un argumento es lógicamente válido si y sólo si su condicional asociado es una
tautología:
Definición
Consideremos un argumento que consista en las premisas P 1 , . . . P n y la
conclusión C , todas en el lenguaje de la lógica clásica de orden cero (LC0).
Entonces, ese argumento es lógicamente válido siempre y cuando: ca-
da asignación de valores de verdad a las fórmulas atómicas de cada una
de las premisas P 1 , . . . P n , de acuerdo a la cual cada una de las premi-
sas sea verdadera, es también una asignación en la que la conclusión es
verdadera. De manera equivalente, el condicional asociado al argumento:
(P 1 & . . . & Pn ) ⊃ C
es una tautología.
⊨ (P 1 & . . . & Pn ) ⊃ C
Cuando un argumento es válido, se dice que las premisas implican lógi-
camente a la conclusión. La notación estándar es:
(P 1 & . . . & Pn ) ⊨ C
Otra manera de decirlo es diciendo que su conclusión es una consecuen-
cia lógica de sus premisas.
Así como la equivalencia lógica de dos fórmulas en LC0 significa que su bicondicional
material es una tautología, así aquí:
385
Definición 170: Equivalencia Lógica en LC1=
386
⋆
387
Proyecto del capítulo:
Antecedentes d
Notas
Problema d 1. ¿Por qué, entonces, ver primero la más complicada? Bueno, porque es bueno entenderla,
pues es una definición muy usual en la lógica; además, como veremos abajo, la manera simple tiene
sus limitaciones. Por cierto, esta nota al pie puede ser el mejor lugar para notar que existe una «tercera»
manera de definir la cláusula de verdad para fórmulas cuantificadas, que de hecho es la que Tarski usó
originalmente en su artículo clásico—fundacional para la teoría de modelos— de 1933, «Pojęcie prawdy
w językach nauk dedukcyjnych», o «El concepto de verdad para lenguajes formalizados» (que se puede
encontrar, como «The concept of truth in formalized languages», en su compilación Logic, Semantics, and
Metamathematics, Hackett Publishing Company, 1983). Esta manera, en vez de usar asignaciones, utilizaba
secuencias infinitas de objetos y el concepto de «satisfacción»; sin embargo, resulta equivalente a la que
hemos dado en términos de asignaciones—y de ahí las comillas en «tercera».
2. He sido inexacto al decir cosas como «para cada constante agregada ad , ⌜Φ[ad ]⌝ es verdad en M» en las
definiciones de arriba. Estrictamente, tendría que haber definido una notación para la sustitución de la
variable en todas sus apariciones por la constante, y usar esa notación en lugar de «⌜Φ[ad ]⌝». Sin embargo,
la idea es clara por lo que he explicado, y nos ahorramos el trabajo.
3. Por esta misma razón, esta idea de expandir el lenguaje (relativo a cada modelo) con constantes para
cada elemento del dominio, es una estrategia limitada: es usual pensar que existe un número denumerable
(es decir, a lo más igual a car d (ℕ)) de símbolos, pero existen conjuntos (como ℝ) con infinitamente más
elementos, y nada de lo que hemos dicho prohíbe usar estos conjuntos como dominios de modelos.
Para estos casos, la estrategia debe modificarse: ya sea que nos restrinjamos a modelos con dominios
denumerables, o que, cuando pasamos a dominios con más elementos, usemos cada elemento del dominio
como su propio nombre—de manera que diríamos que cada constante ad agregada es, en realidad, d
mismo.
388
IVa parte:
389
Esta parte todavía está incompleta (con cosas escritas aquí y allá) y por ello
solamente pongo el capítulo sobre probabilidad, que es el que tengo un poco
más avanzado. Pero va a incluir un capítulo sobre lógica informal (falacias y
definiciones) y uno sobre aplicaciones de la lógica al discurso cotidiano.
391
392
capítulo
16
Probabilidad y argu-
mentos probabilísticos
Probabilidad 395
Inducción y estadística 398
Correlación y causalidad 412
Objetivos de aprendizaje
1. Que comprendas los axiomas que definen a la probabilidad.
2. Que comprendas con mayor profundidad el concepto de la fiabilidad de una
argumento probabilístico.
3. Que distingas dos ramas de la estadística —descriptiva y predictiva— y
puedas relacionarla con los argumentos inductivos.
4. Que puedas discernir cuándo un argumento inductivo es un argumento fia-
ble.
5. Que te familiarices con los conceptos de correlación y de causalidad, y com-
prendas las relaciones y diferencias entre ambos.
6. Que conozcas la estructura de los argumentos abductivos, así como su rela-
ción con el concepto de explicación, y puedas evaluar cuándo un argumento
abductivo es un argumento fiable.
393
o todos los argumentos tienen una inferencia deductiva: algunos tienen una infe-
N rencia no deductiva. A estos se les conoce como argumentos probabilísticos, pues las
premisas no implican lógicamente a la conclusión. Es decir, la verdad de las premisas
no es lógicamente incompatible con la falsedad de la conclusión: la verdad de las premisas
solamente hace más probable que la conclusión sea verdadera.
Los argumentos probabilísticos a veces se clasifican como lógica informal. Eso se de-
be a que una inferencia no deductiva, para ser una inferencia correcta —o, como le
llamaremos técnicamente, una inferencia fiable— requiere algo más que la forma de las
proposiciones que fungen como premisas y conclusiones: requiere tomar en cuenta el
contenido de las proposiciones involucradas. A este contenido, tradicionalmente, se le
llamaba la «materia» de las proposiciones, que va más allá de su forma.
Por otro lado, existen áreas de las matemáticas que se aplican a estos casos: la proba-
bilidad y la estadística. Como estas nos proveen de reglas sistemáticas y rigurosas para
la evaluación de algunas inferencias probabilísticas —precisamente como la lógica ma-
temática lo hace para la evaluación de las inferencias deductivas—, llamarle «informal»
a esta rama de la lógica podría parecer un mal nombre.
Hay que recordar, entonces, que el aspecto «informal» de las inferencias probabilísti-
cas se debe a que estas requieren, para ser fiables, estar conectadas con el contenido de
las premisas, no solamente con su forma lógica. Esto, de nuevo, no se contrapone con
el hecho de que existan reglas formales —matemáticas— para evaluar estas inferencias.
(Quizá sería más adecuado reservar la noción de lógica informal para una investigación
no matemática del razonamiento cotidiano, como hacen hoy en día muchos teóricos de
la argumentación.1 Sobre esto no profundizaremos aquí.)
Como he dicho, para entender los argumentos probabilísticos es necesario tener un
entendimiento, al menos elemental, de la teoría de la probabilidad. Vamos a dedicar la
primera sección para ello. Este tratamiento del tema es, por necesidad, breve y poco
profundo, además de casi puramente cualitativo; un tratamiento más profundo requiere
de un libro entero. Sin embargo, esto no impide que toquemos algunos temas importan-
tes para el arte de razonar bien, como la relación entre causación y correlación (sección
16.3), el concepto de distribución de probabilidad (sección 16.2.5), el concepto de una
muestra representativa (sección 16.2.3), y las diferentes concepciones de la naturaleza
de la probabilidad (subsección 16.1.2). Por supuesto, todo esto en el marco de la expo-
sición de dos tipos muy importantes de argumentos probabilísticos: los inductivos y los
abductivos.
394
16.1. Probabilidad
Por principio de cuentas, tenemos a la teoría matemática de la medida. Una medida es,
simplemente, una manera de expresar con un número qué tan «grande» o «pequeño»
es un conjunto de cosas. Por ejemplo, el área de una figura o la altura de una persona
pueden ser descritas por medidas; una figura y el área que contiene son conjuntos de
puntos, y podemos representar a una persona como un conjunto de partes. Sus áreas y
alturas son medidas de qué tan grandes son esos conjuntos de puntos o de partes.
Ahora bien, la teoría de la probabilidad es una teoría sobre una medida que nos dice
qué tan grande es la probabilidad de que suceda un conjunto de eventos posibles. Y
en el caso en que el conjunto solamente contiene a un evento, decimos que mide la
probabilidad del evento. Así, la probabilidad de un conjunto de eventos mide el «grado
de posibilidad» de que ocurran esos eventos.
Vamos a usar los símbolos «Pr(X )» como nombre del número que representa la pro-
babilidad, dada por la medida Pr, de un conjunto X .2 Esta probabilidad se define como
una medida particular que cumple estas reglas, conocidas como «Axiomas de Kolmo-
gorov»:
1. La probabilidad de todo conjunto de eventos es un número real entre 0 y 1 (inclusivo).
Esto significa que todo evento tiene, o bien una probabilidad 0 de suceder —
que sería un evento nada probable—, o bien una probabilidad 1 —que sería un
evento máximamente probable—, o bien una probabilidad intermedia: un evento
con 0.3 de probabilidad tiene menor probabilidad de ocurrir que uno con 0.6
de probabilidad, por ejemplo. Específicamente, un evento con 0.5 de probabili-
dad es completamente aleatorio, como lanzar una moneda al aire. En lenguaje
matemático: 0 ≤ Pr(X ) ≤ 1, para todo conjunto X al que se aplique la medida.
2. La probabilidad de que ocurra alguno de todos los eventos posibles es 1. Es decir: es
seguro que ocurra algo: podemos no saber cuál, pero de todas las posibilidades,
una tiene que ocurrir. En lenguaje matemático: Pr(U ) = 1, donde U es el conjunto
de todos los eventos posibles, también llamado el «universo».
3. La probabilidad de la alternativa entre eventos independientes (es decir, que no se
implican entre sí) es la suma de las probabilidades de cada uno de esos eventos. En
lenguaje matemático:
Pr (E1 , o bien, E2 , . . .) = Pr(E 1 ) + Pr(E2 ) + . . .
De manera equivalente, la probabilidad de que sucedan conjuntamente eventos indepen-
dientes es el producto de sus probabilidades:
Pr(E1 , y también, E2 , . . .) = Pr(E1 ) × Pr(E2 ) × . . .
395
Finalmente, vamos a utilizar el símbolo «|» para la probabilidad condicional, la
que nos dice cuál es la probabilidad de un evento suponiendo que suceda otro evento.
Es decir, escribir «Pr(B | A)» simplemente nombra a la probabilidad de que suceda B
suponiendo que también sucede A. Es decir: el número que corresponde a la probabilidad
de B cuando asumimos que se dió A.
Dado esto, la definición del concepto de fiabilidad que dimos al inicio del libro, la
definición 13, podría ponerse de esta manera equivalente:
Definición: Fiabilidad
Un argumento es fiable siempre y cuando:
Los tipos de argumentos que definiremos abajo son probabilísticos, por lo que el
objetivo de estudiarlos es conocer las inferencias que son fiables.
La interpretación que podríamos llamar «clásica» viene desde los orígenes de la teoría
moderna de la probabilidad, en algunos filósofos y matemáticos del siglo XVII, como
Fermat y Pascal, y extendida por Laplace en el siglo XIX. Según esta interpretación,
la probabilidad de un evento X es simplemente el número resultante de la siguiente
ecuación:
396
número de posibilidades en las que sucede X
Pr(X ) = (16.1)
número total de posibilidades
Podemos imaginarnos un espacio de todos los posibles eventos que podrían suceder
en una circunstancia particular. Hay que imaginar que todos estos eventos están en un
conjunto, el universo, que tiene un volumen, que cubre un área. Por supuesto, el primer
axioma nos dice que esta área ha de medir 1. Si ahora consideramos al evento X , ese va
a cubrir una parte, pero no todo, de ese volumen. Entonces, la probabilidad del evento
X sería el área que cubre dentro del área total del espacio de eventos posibles.
Una de los problemas de esta interpretación «clásica» de la probabilidad es que no
maneja bien un número infinito de eventos, los cuales a veces se necesitan tomar en
cuenta. Por ejemplo
El problema con los eventos infinitos es que la ecuación 16.1 no nos dice cuál es la
probabilidad para un evento particular, pues la división no está definida de forma que
nos permita dividir un número (real) cualquiera sobre otro número infinito. Para estos
casos más avanzados, se necesitan herramientas del cálculo.
Subjetivismo
El subjetivismo también es una idea bastante vieja, que últimamente ha sido muy desa-
rrollada. La idea básica es que la probabilidad mide nuestra ignorancia.
Considera un volado: tomas una moneda, la lanzas al aire, y preguntas si caerá águi-
la o sol. Todo mundo te dirá (mientras la moneda está en el aire) que la probabili-
dad de águila es 50 % y la probabilidad de sol también es 50 %. Es decir, los eventos
completamente aleatorios —cuando hablamos de «pura suerte»— tienen un grado de
probabilidad de 0.5 tanto para suceder como para no suceder.
Pero considera con más cuidado esa moneda. Si pudiéramos medir las condiciones
exactas en que lanzaste la moneda, como la posición inicial, la fuerza que le imprimiste
para lanzarla, el peso de esta, la dirección y fuerza del viento, etcétera, podríamos
usar las leyes de la física para calcular con tanta precisión como nos lo permitieran
nuestras computadoras en qué posición —y en qué momento— va a caer la moneda.3
Pero como ignoramos todos esos datos —como no tenemos la información precisa de
las condiciones en que lanzamos la moneda—, nos parece aleatorio que caiga águila o
que caiga sol.
397
Frecuencialismo
Propensiones
398
verso total. En este segundo caso, hacemos inferencias ampliativas: nos importa estimar
las características del conjunto total —o como se dice técnicamente: los parámetros po-
blacionales— a partir de las características del subconjunto que podemos conocer —los
parámetros muestrales—, además de estimar la tasa de error de esa primera estimación.
Vamos a desarrollar un poco estos dos tipos de estadística.
El tipo más conocido de medidas de tendencia son las medidas de tendencia central. Entre
estas, la medida más básica es el promedio aritmético, que también se conoce como la
media. Esta nos dice, literalmente, cuál es el promedio de un conjunto de datos, es decir,
un conjunto de números que representan datos sobre las propiedades de un grupo de
individuos.
Definición 171: Media o promedio aritmético
d 1 + d 2 + . . . + dn
n
Es decir, simplemente sumamos los datos y dividimos sobre cuántos datos
tenemos.
399
definir otras dos básicas. Empezamos con la mediana.
Definición 172: Mediana
Estas tres medidas —media, mediana y moda— son útiles para representar el ele-
mento «típico» o «promedio» de un conjunto de datos en circunstancias que tienen al
menos dos características: (1) los datos son igual de importantes entre sí, y (2) los datos
no están «dispersos». Empecemos entendiendo la primera característica.
Supongamos que estoy calificando las tareas de quienes asistieron a uno de mis cursos
para tener su promedio final. Podría usar la media, por supuesto, pero supongamos que
algunas tareas fueron más difíciles que otras y por ello, las considero más importantes.
Quisiera darles más peso a esas tareas, para premiar el esfuerzo de quien las entregó y
las hizo bien (o, de manera equivalente, para castigar a quien no las haya entregado).
En este tipo de casos —en los que quiero sacar un promedio, pero no quiero que todos
los datos «tengan el mismo peso», no voy a usar la media, sino la media ponderada. Esta
se parece a la media, pero también considera el peso de cada uno de los datos.
Definición 174: Media ponderada
d1 (p 1 ) + d2 (p 2 ) + . . . + dn (p n )
p1 + p2 + . . . + pn
Es decir, sumo el producto de cada dato por su peso, y luego divido eso
entre la suma de todos los pesos.
Con la media ponderada, los datos que tienen más peso —en el sentido literal de
400
que su peso pi es más grande— van a contribuir más en el promedio final. Si todos los
pesos son iguales, la media ponderada será idéntica a la media aritmética. Además,
como no se puede dividir por cero, los pesos deben sumar a más de cero, y ninguno de
ellos puede ser negativo.
Otra medida de tendencia central que vamos a revisar es el concepto muy importante
de valor esperado (también conocido como esperanza, valor de expectación o, cuando no
hay ambigüedad con el promedio aritmético, simplemente media). Pero eso será hasta
que hayamos revisado el concepto de variable aleatoria.
Ejercicio # 68
1. Considera la siguiente lista de datos: 70, 89, 65, 124, 53, 68, 234. Brinda su media,
mediana y moda.
2. Define un problema en el que sea útil usar el promedio ponderado (con al menos
cinco datos, cada uno con distintos pesos), y obtén esa medida.
Arriba notamos que la media, mediana y moda son útiles para representar el elemento
«típico» o «promedio» de un conjunto de datos cuando estos (1) son igual de importantes
entre sí, y (2) no están muy «dispersos». Cuando lo primero no sucede, podemos usar
la media ponderada. Ahora veamos qué pasa cuando lo segundo no sucede.
Consideremos otra vez a la media aritmética. Esta sirve como una buena represen-
tación de un conjunto de datos cuando estos no están demasiado dispersos. Recuerda la
lista de alturas de mis amigos: 1.70, 1.65, 1.90, 1.50, 1.78, 1.66, 2.00. De esta, el promedio
aritmético es 1.74 (redondeando), y se podría decir que es una buena representación
de la altura de mis amigos: no es ni muy baja ni muy alta, se acerca al valor «típico» de
esos datos.
Pero en otros casos el promedio aritmético no es una buena representación, porque
los datos están muy dispersos: no reflejan una tendencia. Por ejemplo, supongamos que
tengo un salón con cinco personas como alumnos, que tienen la siguiente calificaciones:
3, 10, 2.5, 9.7, 8.9. Si alguien me pregunta cuál fue la calificación promedio de este salón,
le diré que 6.82. Pero aunque ese es el promedio ¡no es una buena representación de
esas calificaciones! Nadie sacó algo cercano al 6.82: sólo vimos calificaciones, o bastante
más altas, o bastante más bajas. Para otro ejemplo, considera una sociedad con una
economía muy desigual: unas pocas personas concentran buena parte del dinero, y
muchísimas personas tienen casi nada de dinero (por ejemplo, considera una sociedad
hipotética parecida a algunas reales: 1 % de las personas concentran el 50 % de la riqueza,
y el restante 99 % de la población tiene la otra mitad de dinero en esa sociedad). En
casos como este, al sacar el promedio tendríamos que «la riqueza promedio» en esa
sociedad podría ser una medida muy alta, que no represente la riqueza de la persona
verdaderamente típica: parecerá que gana más gracias al efecto de considerar en el
promedio a la gente extremadamente rica.
401
Por lo anterior, un hecho importante de la estadística es este: además de conocer los
promedios, muchas veces es importante conocer qué tan dispersos, qué tan alejados, están los
datos que promediamos.
Para esto último usamos las medidas de dispersión, que ahora vamos a revisar.
Medidas de dispersión
Una primera medida de dispersión es el rango, que sirve para conocer qué tan amplio
es el recorrido de los datos que tenemos.
Definición 175: Rango de un conjunto de datos
El rango es muy fácil de calcular, pero solamente nos dice la «amplitud» en la que es-
tán dispersos nuestros datos. Tenemos otras medidas de dispersión, pero para variables
aleatorias, que revisaremos abajo.
Abajo vamos a ver otra medida de dispersión, probablemente la más importante: la
desviación estándar.
Ya revisamos medidas de tendencia central y medidas de dispersión, que nos dicen qué
tanto se alejan los datos del «promedio» o el dato «típico». Pero para resumir un conjunto
de datos tenemos herramientas que no se enfocan en el promedio y la concentración
de este, sino que segmentan los datos en grupos parecidos, para decirnos cuántos datos
están en cada grupo. Así, estas medidas nos informan mejor de cómo se distribuyen estos
datos.
La idea básica es dividir el conjunto de datos en segmentos iguales, mediante un
orden creciente. A estos segmentos, en general, los vamos a dividir mediante puntos
que se conocen como cuantiles, pero toman nombres específicos dependiendo de cuántas
divisiones hagamos. Por ejemplo, si dividimos el conjunto de datos en cuatro partes,
tendremos tres puntos: el primero, el segundo y el tercer cuartil. En general, el 25 %
de los datos está abajo del primer cuartil, el 50 % está debajo del segundo cuartil (que
también es la mediana), y el 75 % de los datos está debajo del tercer cuartil.
Habiendo ordenado nuestros datos de menor a mayor, obtenemos los cuartiles así:
402
1. Primero obtenemos la mediana del conjunto de datos. Este número va a ser el
segundo cuartil.
2. El primer cuartil es la mediana en el segmento que va del dato más pequeño a la
mediana del conjunto total.
3. El tercer cuartil es la mediana en el segmento que va de la mediana del conjunto
total, al dato más grande.
Por ejemplo, consideremos este conjunto de veinte datos (que representa alguna propie-
dad de interés):
62, 67, 71, 74, 76, 77, 78, 79, 79, 80, 80, 81, 82, 82, 83, 84, 86, 89, 93, 95
Notemos que ya los tengo ordenados de menor a mayor. Su mediana es 80, por lo
que este es también el segundo cuartil. Nota, además, que la mitad de los datos van
a estar abajo de este dato. Ahora obtengo la mediana del conjunto que está abajo de
segundo cuartil: 62, 67, 71, 74, 76, 77, 78, 79, 79, 80, que es 76.5. Esto nos da el primer cuar-
til. Finalmente, obtengo la mediana del segmento que está arriba del segundo cuartil:
81, 82, 82, 83, 84, 86, 89, 93, 95. Su mediana es 84, lo que nos da el tercer cuartil. Así, en
resumen: el conjunto de datos de arriba tiene estos tres cuartiles:
76.5, 80, 84
Estos tres cuartiles nos dan una mejor idea de cómo están distribuidos los datos que un
mero promedio aritmético (que es 79.9, por cierto). Nos dice cuál es el «centro» —la
mediana— pero también cómo están los datos «a los lados» del centro.
Los cuartiles no son la única medida de tendencia no central. También encontramos
los deciles y los centiles. En ambos, la idea básica es la misma: dividimos la serie de datos
(ordenados de menor a mayor) en un número igual de segmentos, y de ahí tomamos
los puntos a la mitad de la división. Para los deciles, dividimos la lista de datos en diez
partes iguales, lo cual nos dará nueve puntos: los nueve deciles. El quinto decil es la
mediana del conjunto total. De igual forma, los centiles son 99 puntos, cada uno de los
cuales se usa para dividir el intervalo de datos en 100 partes iguales. El centil número
50 es la mediana del conjunto total de datos, y estos son de tal forma que el 1 % de los
datos va a estar abajo del primer centil, el 2 % va a estar abajo del segundo centil, y así,
el 99 % de todos los datos va a estar debajo del último centil. (Obviamente, para poder
usar los centiles, mi conjunto de datos tiene que tener más de cien elementos.)
Ejercicio # 69
1. Busca la lista de países por su producto interno bruto (PIB) nominal al año 2017
(en millones de dólares). Toma los 50 países más ricos según ese parámetro y
con ellos, forma el conjunto de datos de su PIB. Arregla de menor a mayor esos
datos, y brinda los tres percentiles y los nueve deciles de esa lista.
403
16.2.3. Muestras: representativas y sesgadas
Primer caso. Juan, un joven de una lejana nación que está decidiendo a qué dedicar-
se, quiere saber qué tan probable es que estudiar filosofía le permita tener un buen
salario al terminar la carrera. Para ello, le pregunta a algunos graduados de ciertas
universidades qué tan bien les ha ido después de graduarse. Como su círculo so-
cial es limitado, Juan solamente conoce a personas que han estudiado en las tres
universidades más caras de su país, y también le pregunta a algunos de los amigos
de estas personas. Obtiene 20 respuestas. Entre ellas, obtiene respuestas como las
siguientes:
• Al (graduada de la Universidad Rico McPato): «¡Me ha ido muy bien! Desde
que terminé mi carrera, junto con mis compañeros invertí en un negocio y he
estado ganando muy bien con ello.»
• Ben (graduado de la Universidad Billetín Don Dinero): «¡Excelente! Al terminar
ejemplo 54
Segundo caso. Lucía está en la misma situación que Juan, y piensa preguntarle
también a las personas que conoce. Sin embargo, Lucía conoce solamente algunas
pocas personas graduadas de universidades públicas muy pequeñas, así que se
pregunta si preguntar sobre ello le dará un buen panorama de sus opciones. En
lugar de ello, decide ir a todas las universidades que ofrecen la carrera de filosofía
en la ciudad, tanto las públicas como las privadas, y preguntar ahí.
Parece que, si Lucía decide hacer una inferencia a partir de los datos que haya reco-
lectado, esto estaría mejor justificado que la inferencia de Juan. ¿Por qué? Porque Lucía
extrajo datos que representan mejor a la población total: entre todas las personas que se
gradúan tras haber estudiado filosofía, podemos encontrar diferentes perfiles económi-
cos. Como es razonable pensar que estos perfiles tienen alguna relación con el salario
tras haber estudiado, es mejor tratar de tener información sobre todos ellos, para que
nuestra conclusión no esté sesgada: no esté «cargada hacia un lado» de todo el espectro
404
de posibilidades. Al contrario: queremos que nuestra conclusión sea lo más representati-
va posible: que hable de la mayor parte de la población, del conjunto total, no solamente
de un pequeño sector dentro de esta población.
Esta es la importancia de tener muestras representativas, un concepto que vamos a
definir después de la siguiente definición.
Definición 176: Muestra y población
405
representar a todas las demás.
406
Valor esperado o Esperanza
Antes vimos que una variable aleatoria va a tomar un valor en cada circunstancia po-
sible con una probabilidad correspondiente. El valor esperado de una variable nos da
algo parecido a un promedio de los valores que puede tomar, «controlado» por las pro-
babilidades de que tome esos valores. Es, entonces, una media ponderada, del tipo que
definimos antes (definición 174). Por ello, al valor esperado de una variable también
se le conoce como su media, y cuando es claro de qué variable hablamos, simplemente
escribimos «𝜇» para referirnos a su valor esperado. Pasemos a la definición del concep-
to.5
Definición 178: Valor esperado
E[X ] = x 1 (p 1 ) + x 2 (p 2 ) + . . . + x n (p n ) = 𝜇 (16.2)
Así, entre más probable sea uno de sus valores, más peso tendrá al calcular ese
promedio. Por las mismas razones, el valor esperado de una variable aleatoria incluso
podría no ser uno de los valores que pueda tomar.
Un ejemplo de lo anterior es un dado justo (que no está cargado). Si lanzamos el
dado, saldrá uno de los valores entre 1 y 6; cada uno de estos valores tiene la misma
probabilidad de aparecer. Como son seis posibles valores, tenemos una probabilidad
de 1/6 para cada uno de ellos. Si calculamos el valor esperado de la variable aleatoria,
X , que representa el número que sale tras lanzar el dado, obtenemos:
1 1 1 1 1 1
𝜇 = 1( ) + 2( ) + 3( ) + 4( ) + 5( ) + 6( )
6 6 6 6 6 6
1 2 3 4 5 6
= + + + + +
6 6 6 6 6 6
21
=
6
= 3.5,
que no es uno de los valores que podrían resultar tras lanzar el dado. De nuevo, el
valor esperado de la variable no siempre es uno de los valores que podría tomar, pero
representa un promedio de los valores a los que tiende a largo plazo, considerando
también a las probabilidades que tiene cada valor.
407
Desviación estándar
El valor esperado es una medida de tendencia central, pues nos dice a qué valores tiende
en promedio la variable. También tenemos medidas de dispersión para las variables
aleatorias, que nos dicen qué tan dispersos están los valores de esa variable con relación
al valor esperado, al valor «promedio». La más importante de ellas es la desviación estándar.
Con poca desviación estándar, la mayoría de los posibles valores de la variable están
cerca del valor esperado. Con mucha desviación estándar, hay muchos valores que
podría tomar la variable lejanos a su valor esperado.
Vamos a definir la desviación estándar de una variable aleatoria X , que se suele
escribir así: «𝜎X », o sin el subíndice en caso de que se entienda de qué variable estamos
hablando.
Definición 179: Desviación estándar
Sea X una variable aleatoria y E[X ] su valor esperado. Entonces, la des-
viación estándar de X se define así:
p
𝜎X = E[(X − E[X ]) 2 ], (16.3)
Esta es la definición que más se usa para el valor esperado, y la que podemos a usar
para calcularlo.
Vemos que la desviación estándar de X resulta ser la raíz cuadrada de la suma de:
la distancia cuadrada entre cada posible valor y la media, multiplicada por su proba-
bilidad. Es decir, es un tipo de promedio que nos dice qué tan lejos está cada valor
de la media, controlando con la probabilidad de ese valor. Si la variable puede tomar
408
valores muy distintos, con probabilidades bastante parecidas, su desviación estándar
va a ser muy alta. En cambio, si solamente puede tomar valores muy parecidos entre
sí, con probabilidades parecidas, su desviación estándar va a ser baja. Ahora bien, si
toma valores parecidos entre sí con probabilidades muy distintas, pero donde hay un
sesgo en las probabilidades hacia cierto espectro de su valor, su desviación estándar va
a ser también baja, pues los valores tienden más a acercarse a una magnitud, con poca
probabilidad de alejarse de ella.
Una ventaja de la desviación estándar es que viene en las mismas dimensiones que
la variable aleatoria. Por ejemplo, supongamos algún juego imaginario de un casino,
donde algún proceso aleatorio produce cuatro posibilidades. Las cuatro tienen la misma
oportunidad de suceder, por lo que la probabilidad de cada una sería de 1/4 = 0.25. En
cada una de las cuatro posibilidades, ganamos o perdemos fichas del juego. Vamos a
usar a la variable X para representar esto. Tenemos que, por las reglas del juego, estas
son las pérdidas o ganancias:
• Posibilidad 1: ganamos 2 fichas. (X = +2, Pr = 0.25)
• Posibilidad 2: perdemos 2 fichas. (X = −2, Pr = 0.25)
• Posibilidad 3: ganamos 4 fichas. (X = +4, Pr = 0.25)
• Posibilidad 4: no perdemos ni ganamos ninguna ficha. (X = +0, Pr = 0.25)
En este juego, las probabilidades nos favorecen, pues si hacemos el cálculo, vemos que
la media de X es 1 ficha: E[X ] = 1 = 𝜇. Es decir, si jugamos muchas veces este juego,
la tendencia a largo plazo es siempre ganar una ficha. (Sería un pésimo juego para
un casino si no cobran más de una ficha para jugarlo, ¡pues estarían seguros de que
no ganarán a largo plazo!) La desviación estándar es de ≈ 2.2 fichas, de forma que,
en promedio, uno va a estar ganando o perdiendo dentro de un margen de dos fichas
respecto a la media.
Uniforme
409
Hipótesis nula
410
Aquí ya tenemos la idea esencial de la significancia o significación estadística: Que tú,
como investigador(a), propones que hay cierta relación o efecto. Esta es una relación
entre variables aleatorias. Tu contrincante defiende la hipótesis nula: «no, no hay tal
efecto». Quieres demostrar en tu trabajo que tu contrincante está mal: que hay que
rechazar la hipótesis nula. Entonces infieres esto: la mejor hipótesis es la que mejor
explique los datos observados. Y entiendes esto último en un sentido cuantitativo: la
hipótesis que mejor explique los datos es la que nos diga que son más probables.
Valor p
411
p sería dado por:
Pr(V ≥ x | H0 ) (16.7)
Es decir, la probabilidad de que V sea mayor o igual al valor observado,
suponiendo que la hipótesis nula sea verdad.
Si, al contrario, el valor observado se considera «bajo», el valor p sería:
Pr(V ≤ x | H0 ) (16.8)
Bien. Ya que calculas el valor p, ves qué tan grande es. Si el valor p es muy pequeño,
significa que la hipótesis nula te está diciendo: «Es muuuy improbable que suceda que
V = x». Se dice, entonces, que tus datos observados tienen significancia estadística.
Ahora, ¿qué significa que el valor p sea «muy pequeño»? Bueno, pues eso se defi-
ne convencionalmente en cada área de estudio; algunas revistas especializadas incluso
pueden decirte específicamente qué valor requieren para considerar publicar un artículo
con esos datos. A este valor se le conoce como nivel de significancia, y se suele escribir
como «𝛼». Por ejemplo, en psicología creo que (al menos antes de todo el escándalo de
replicación) el nivel convencional era = 0.05; en la física a veces te piden = 0.001, por
poner otro ejemplo.
Entonces, si tu p entonces es ≤ 𝛼, significa que tus datos son estadísticamente significa-
tivos. A su vez, esto significa que cumplen un requisito científico mínimo para que se tome
en serio a tu hipótesis (que es contraria a la nula).
[En esta sección voy a exponer el teorema de Bayes, las nociones de probabilidad condi-
cional y de función de verosimilitud, y la utilidad de la teoría bayesiana para actualizar
probabilidades.]
Uno de los tipos de argumento probabilístico más importante es el que se conoce como
inferencia causal. Este es el tipo de argumento que, partiendo de ciertas premisas, con-
cluye que existe una relación causal entre dos eventos. Vamos a definir algunos conceptos
básicos, para después enfocarnos en las relaciones de correlación y de causalidad.
412
16.3.1. Conceptos básicos
Empezamos definiendo algunos conceptos que serán útiles para comprender la relación
entre causalidad y correlación.
Evento Un evento o suceso consiste en que un objeto particular tenga una propiedad
en un momento y lugar determinado. (Por ejemplo, cuando José está feliz en la
mañana del día de su cumpleaños, eso es un evento.) Cualquier suceso que ocurra,
lo sepamos o no, nos parezca importante o no, o sea la que sea la reacción que
nos provoque, es un evento en este sentido.
Causalidad Es la relación entre una serie o pluralidad de eventos en la que una parte —
la causa o las causas— provoca o genera o produce o hace que suceda la otra parte —el
efecto o los efectos. (Por ejemplo, la ciencia y la medicina clínica han comprobado
que fumar causa cáncer. Para una persona específica, esto significa que toda la serie
de eventos en los que ha fumado, provocaron, generaro o produjeron el evento
del cáncer iniciándose en su sistema respiratorio.)
Hipótesis causal : Una proposición que afirma que un evento (o serie de ellos) es cau-
sado por otro evento (o serie de ellos). Como proposiciones que son, las hipótesis
causales pueden ser objeto de creencias por parte de sujetos, o de afirmaciones
de ellos; también pueden tener relaciones con la evidencia, o carecer de ellas.
Correlación : La relación probabilística entre dos tipos de sucesos que nos indica si
suelen suceder conjuntamente. La definición más usual de la correlación es el
coeficiente de correlación de Pearson.6
Con los conceptos básicos sobre la mesa, vamos a definir el coeficiente de correlación
de Pearson.
413
Veamos la definición de la covarianza entre dos variables aleatorias X , Y , que escri-
bimos como «Cov(X ,Y )»:
Definición 182: Covarianza
Cov(X ,Y )
𝜌(X ,Y ) = (16.11)
𝜎X 𝜎Y
414
con Cov(X ,Y ) la covarianza entre X e Y y 𝜎X , 𝜎Y las respectivas des-
viaciones estándar.
Luego acomodamos los datos que encontramos como puntos en esta gráfica. Por
ejemplo, si encontramos que en un dato X toma el valor 3 y Y toma el valor 2, ponemos
un puntito exactamente en las coordenadas (2, 3). Seguimos así. Entonces, si las dos
variables no presentan ninguna correlación, vamos a ver una «nube» de puntos que no
se parecen a ninguna línea recta, como la siguiente:
Y
Sin embargo, cuando las dos variables aleatorias presentan correlación positiva, la grá-
fica se va a parecer a esta:
415
Y
Nota como los valores de las dos variables correlacionadas se acercan a una línea recta,
que ponemos en rojo. Si todos los valores estuvieran en la misma recta, la correlación
sería perfecta, pues en cada circunstancia ambas variables darían exactamente el mismo
valor.
Y
Cuando las variables tienen una correlación negativa, los valores altos de una se van
a corresponder con los valores bajos de la otra, y viceversa.
Y
Como con la correlación positiva, podemos notar que la correlación negativa se apro-
xima a una línea, solamente que en este caso es una línea descendente. De nuevo, si los
puntos que representan a los datos que conocemos estuvieran todos sobre la línea roja,
tendríamos una correlación negativa perfecta.
416
Y
Ahora podemos ver una de las ideas más importantes para comprender a la inferencia
causal: Correlación no implica causalidad. Es decir, dos eventos pueden ocurrir conjun-
tamente, incluso muchas veces, sin que ninguno cause al otro. Que dos cosas sucedan
conjuntamente no significa que una haya provocado a la otra. Por supuesto, en algunos casos
sí sucede que un evento causa al otro, pero no necesariamente en todos.
Entre los eventos correlacionados que no exhiben relaciones causales, podemos hacer
la siguiente división:
• Ninguno causa al otro: la correlación es una coincidencia.
• Ninguno causa al otro, pero sí hay otras relaciones causales más complicadas.
Para entender los casos del segundo tipo, en los que la correlación no es una mera
coincidencia, será útil considerar algunos diagramas.
Vamos a usar dobles flechas azules para representar correlaciones, y una flecha on-
dulada naranja para representar causación (de manera que la flecha vaya de la causa al
efecto: «C ⇝A» significará que C causa a A). Por ejemplo, en el caso 1 de abajo, A y B
están correlacionados, pero uno no causa al otro. Su correlación se debe a que ambos
tienen una causa común, que los causa simultáneamente.
417
A
C1 C2
1 C 2
A B
A A
3 C 4 C
B B
Inferir que A causa B (o viceversa) de la mera información de que ambos tipos de
eventos están correlacionados, es cometer una falacia: se dice que se infiere causalidad
de correlación. Pero, como hemos visto, la mera correlación no implica a la causalidad.
En un tema relacionado con esto, encontramos a una falacia similar, la conocida como
«post hoc, ergo propter hoc»: «después de esto, por lo tanto, debido a esto». En esta falacia,
se infiere causalidad a partir de sucesión temporal. En ambos casos, se infiere una
relación causal a partir de la cercanía de los eventos en el tiempo, lo cual es incorrecto.
Ejercicio # 70
I Da dos ejemplos de cada estructura en la que hay eventos A y B correlacionados
que no causan uno al otro. Es decir, escribe casos —reales o posibles— en los que
haya eventos que se correlacionan sin causarse, con la estructura de cada uno de los
diagramas de arriba.
II Da dos ejemplos de correlaciones azarosas (por suerte), es decir, correlaciones
que no se explican causalmente.
418
cuando hable de «dos eventos», pretendo que lo mismo valga para pluralidades o series
de eventos, ya sea fungiendo como causas o como efectos.
Criterio de precedencia temporal Un evento A causa a un evento B solamente si A
ocurre antes que B.
Este criterio manifiesta la suposición de que no existe lo que se conoce como causalidad
retroactiva: cuando la causa viene después del efecto. Todas las relaciones causales que
conocemos obedecen el criterio de precedencia temporal: los efectos siguen a la causa.8
Criterio de contigüidad espacial Un evento A causa a un evento B solamente si A
ocurre en la cercanía de B.
Este criterio manifiesta la suposición de que las relaciones causales son locales: que se
dan entre eventos cercanos entre sí. Por supuesto, un evento puede afectar a otro que
esté lejos de este, pero para ello tiene que haber una vía causal, de lo que hablaremos
al hablar de mecanismos (sección 16.3.5).
Criterio de conjunción constante Un evento A causa a uno B solamente si los eventos
del tipo de A y los del tipo de B están en conjunción constante, es decir, si cada
vez que observamos uno, observamos al otro.
En la filosofía de Hume, este criterio era la base fundamental para las inferencias cau-
sales, que Hume creía que se basaban en la mera costumbre, producida por las obser-
vaciones repetidas de los fenómenos en conjunción. En términos más contemporáneos,
pondríamos este criterio como la idea de que la causalidad implica correlación (pero no
viceversa).
Podríamos preguntar si todo caso de causalidad requiera de correlación. En primera,
como hemos visto, la definición más exacta y extendida de correlación es el coeficiente
de Pearson. Este nos da la covarianza entre dos variables aleatorias, normalizada por
sus respectivas desviaciones estándar. Cada una de las circunstancias posibles en las que
la variable toma un valor es un evento, así que son estos los que pueden entrar en rela-
ciones causales. Sin embargo, la correlación es una relación entre variables aleatorias,
es decir, entre tipos de eventos. Entonces, para que la causalidad implique la correla-
ción, tendría que suceder que, siempre que un evento causa a otro, los demás posibles
valores de las variables correspondientes tiendan a variar conjuntamente (suponiendo
que las condiciones de fondo se mantengan iguales). ¿Sucede esto en todos los casos?
Es una pregunta interesante para reflexionar unos momentos, pero intentaremos dar
una respuesta definitiva aquí.
Regresando a las condiciones necesarias de la causalidad, podemos pasar a un crite-
rio más contemporáneo, que ha sido discutido desde el siglo pasado. Algunas teorías de
la causalidad (influidas por la filosofía de David Lewis) incluso reducen la causalidad al
siguiente criterio, pero esto es muy controvertido. Sin embargo, muchos teóricos consi-
deran plausible la idea de que la causalidad requiere de la dependencia contrafáctica,
419
en el sentido siguiente.
Criterio de dependencia contrafáctica Un evento A causa a uno B solamente si su-
cede que: si no hubiera sucedido A, no hubiera sucedido B. Es decir: si quitáramos
a A de la circunstancia, también quitaríamos a B.
En la base de este criterio está la idea de que la causalidad es «robusta» o «estable», en
el sentido de que, si es que se da, también se hubiera dado en circunstancias parecidas.
La idea es que el efecto dependa contrafácticamente de la causa en el sentido en que,
sin la causa, no tendríamos el efecto. Esta es una forma de comprender la noción de
que la causa genera o produce al efecto. Si estamos suponiendo que el evento solamente
tiene una causa, es razonable suponer entonces que se cumpla este criterio se requiere
(pero no basta) para afirmar razonablemente la hipótesis causal de que A causó a B.9
Vemos que este criterio involucra considerar circunstancias meramente hipotéticas o, co-
mo también se dice, contrafácticas: circunstancias que no ocurrieron, pero que podrían
haber ocurrido. Por esta razón, encontrar qué depende contrafácticamente de que puede
resultar un problema complejo. En las ciencias empíricas, usualmente se busca reprodu-
cir diferentes condiciones, de forma que se puedan aproximar diferentes circunstancias
hipotéticas.
Ejercicio # 71
Para cada uno de los criterios, da dos ejemplos de un hipótesis causal justificada por
ellos. Te pongo un ejemplo.
Criterio de pre-
cedencia tem-
poral
Criterio de con-
tigüidad espa-
cial
420
Criterio de co-
rrelación
Mecanismos
Hemos visto que los cinco métodos de Mill involucran la presencia o ausencia de los
factores que suponemos que están involucrados en relaciones causales. Las ciencias
contemporáneas, particularmente las ciencias médicas y de la salud, además de algunas
ciencias sociales, se enfocan en lograr entender las vías causales. Estas son los canales
o vías mediante los cuales ciertos eventos llegan a causar efectos que parecen estar
desconectados en el tiempo y el espacio.
Consideremos el ejemplo de la afirmación: fumar causa cáncer. Esta es una hipótesis
causal bien fundamentada en la evidencia, y se conoce las vías causales mediante las
que el fumar lleva al cáncer. Así, fumar produce la absorción de compuestos (como
los hidrocarburos aromáticos policíclicos) que son activados metabólicamente al ser
catalizados por enzimas citocromo P450. Esta activación permite que los compuestos
puedan formar enlaces covalentes con el ADN. A su vez, estos forman aductos de ADN.
Los aductos de ADN pueden causar errores en el proceso de replicación de las células,
los cuales resultan en mutaciones (como las transversiones G→T). Estas mutaciones
causan alteraciones en los controles del crecimiento celular. La multiplicación descon-
trolada de células anómalas causa cáncer. Esta es la vía mediante el cual un evento
—darle una fumada a un cigarrillo— lleva hacia la aparición del cáncer.
421
Para cada uno de los componentes de una vía causal, podemos utilizar los métodos
de Mill que revisaremos abajo.
Manipulabilidad
Otro criterio que se recientemente se utiliza bastante para encontrar relaciones causales
es el de manipulabilidad.
Consideremos dos criterios que revisamos antes (sección 16.3.4): el de precedencia
temporal y el contrafáctico: A ocurre antes que B y, si A causa B, eso significa que si
no sucediera A, no sucedería B, pero si sí sucede A, sucederá B. Pero revisamos un
problema con la condición hipotética, a saber: ¿Cómo podemos saber qué ocurriría en
situaciones puramente hipotéticas?
Una manera de tratar con esta cuestión en la práctica es mediante el concepto de
manipulabilidad o intervención.
La idea detrás de esto es la siguiente. Como vimos antes, una correlación entre las
variables A y B puede ser meramente accidental cuando no haya una relación causal
entre las dos variables (o, mejor dicho, entre los eventos que representan). También
puede ser que haya alguna otra variable u otras variables, en cuyo caso hablamos de
una tercera causa.
Si la correlación es meramente accidental o hay una tercera causa, entonces podemos
modificar una de las variables A o B sin que esto implique una modificación en la otra.
A esto se le llama intervenirăen la variable. Si la correlación no manifiesta una relación
causal entre A y B, una intervención en una de ellas no implicará una modificación en
la otra. Así, si nos damos cuenta de que, al intervenir en una variable, la otra variable
correlacionada se modifica de manera correspondiente, tenemos evidencia de que la
primera variable es un factor causal de la segunda.
Una manera de intervenir es buscar los factores con los que A está correlacionado y
tratar de «bloquearlos» o «suspenderlos» —ya sea en un experimento controlado, o en
el cálculo estadístico; hacemos esto con todos exceptuando a uno, para probar si éste es
una causa de A. Además, recordemos que la variable que sea la causa debe anteceder
en el tiempo al efecto.
Por ejemplo, supongamos que queremos encontrar si el tomar una medicina causa
que los pacientes mejoren en cierta condición. Si solamente medimos qué tanto mejo-
ran los pacientes al haber tomado la medicina, esto no necesariamente nos habla de
ella: los pacientes podrían haber mejorado por otras razones. Sin embargo, podríamos
bloquear los demás factores: considerar pacientes que estén en condiciones parecidas, y
considerar la mejora en pacientes a los que no se les suministre la medicina (por ejem-
plo, sólo se les da un placebo: un dispositivo que se asemeja al medicamento original,
pero sin principio activo). Si encontramos que hay una mejora en los pacientes a los
422
que se les da la medicina, pero no en el grupo en el que no se suministra la medicina
(que se conoce como grupo control), tenemos evidencia de que existe un vínculo causal
de la medicina sobre la mejora: es decir, evidencia de que la medicina causó la mejora.
Esta se considera una buena manera de obtener evidencia sobre vínculos causales por-
que la variable que podría ser el efecto —la que representa a la mejora en los pacientes—
se aísla de otras posibles causas —al considerarse personas en situaciones parecidas y
al usarse un grupo control— y se mide si modificar la variable que podría ser una causa
—la que representa el tomar la medicina— de hecho sirve para modificar a la otra varia-
ble. Si esto pasa, se considera que hay una relación causal: manipular una variable lleva
a manipular a la otra, cuando se han bloqueado las otras posibles factores confundentes.
Por supuesto, en muchos casos no es factible utilizar estos estándares experimentales,
por cuestiones éticas, de posibilidad tecnológica, u otras. Para lidiar con esos casos,
existen técnicas estadísticas que permiten aislar las variables de interés, de tal manera
que sea un procedimiento análogo al que hemos descrito.
Finalmente, el método mencionado antes para aislar posibles factores confundentes
cae dentro de los diferentes métodos de Mill, que ahora vamos a presentar.
En su libro de 1843, Un Sistema de Lógica (en el octavo capítulo del tercer libro), John
Stuart Mill propuso cinco métodos para hacer inferencias causales. Aunque Mill no lo
puso así, hay que recordar que estos métodos son probabilísticos y que requieren deuna
cláusula ceteris paribus. Lo primero significa que no estamos frente a métodos deductivos:
que puede suceder que las premisas sean verdaderas, pero que la conclusión sea falsa.
Sobre lo segundo, una cláusula ceteris paribus significa que la inferencia se hace dando por
supuesto que se preserva una igualdad de condiciones. La idea es que se dejan las condiciones
fijas, para poder aislar solamente la variable que nos interesa modificar y, con ello,
estudiar los efectos de hacerlo. En esencia, los métodos de Mill precisamente buscan
eso: aislar factores para confirmar una hipótesis sobre cuáles están involucrados en relaciones
causales.
En los cinco métodos, comparamos circunstancias en las que se presentan dos tipos
de factores: los que pueden resultar ser causas, y los que pensamos que pueden ser los
efectos correspondientes; solo que no sabemos cuál es cuál. Es decir, tenemos dos tipos
de factores, y nuestra hipótesis es que hay una relación causal entre esos dos tipos (o
algunos miembros de esos dos tipos). Vamos a seguir la convención de utilizar variables
mayúsculas de las primeras letras del alfabeto (como A,B,C , . . .) para el primer tipo, y
variables minúsculas de las últimas letras del alfabeto (como x, y, z , . . .) para el segundo.
Vamos a usar tres o cuatro de cada una de estos tipos de variables, pero entenderemos
que el número puede ser distinto. Otra convención es que en algunos casos menciona-
423
remos solamente dos circunstancias, pero entenderemos que podemos comparar más
circunstancias entre sí.
El método de concordancia
Para este método, comparamos dos circunstancias, las cuales contienen dos conjuntos
distintos de factores, excepto por uno. Es decir, tenemos un par de circunstancias así:
Circunstancia 1: A,B,C
Circunstancia 2: A,D,E
Y en ellas, encontramos los siguientes factores:
Circunstancia 1: x, y, z
Circunstancia 2: x,u,w
Al comparar ambas circunstancias, el primer método de Mill nos lleva a inferir que
es probable que A tenga una relación causal con x, ya sea como causa o como efecto.
Esto sucede porque vemos que son los únicos dos factores que se repiten, que concuerdan
en ambas circunstancias. Mill lo resumía así (p. 369):
Si dos o más fenómenos objeto de la investigación tienen solamente una
circunstancia común, la circunstancia en la cual todos los casos concuerdan
es la causa (o el efecto) del fenómeno.
Vamos a usar la manera usual de esquematizar los métodos de Mill, como inferencias
probabilísticas donde la descripción de las circunstancias nos da las premisas, y la
conclusión es una hipótesis causal.
Método de la concordancia
Los factores A,B,C ocurren junto con los factores x, y, z .
Los factores A,D,E ocurren junto con los factores x,u,w.
Probablemente, A tiene una relación causal con x.
El método de diferencia
424
los dos casos es el efecto, o la causa, o parte indispensable de la causa, del
fenómeno.
Este es el esquema del segundo método:
Método de la diferencia
Los factores A,B,C ocurren junto con los factores x, y, z .
Los factores B,C ocurren junto con los factores y, z .
Probablemente, A tiene una relación causal con x.
El método de residuos
Método de residuos
Los factores A,B,C ocurren junto con los factores x, y, z .
Se sabe que B causa a y.
Se sabe que C causa a z .
425
Probablemente, A tiene una relación causal con x.
En los métodos anteriores podíamos eliminar algunos factores para notar qué perma-
nece o qué falta. Este método lo usamos cuando no eliminamos algunos factores para
tratar de aislar uno específico. Mill introdujo así al concepto (p. 380):
Aunque sea imposible excluir completamente un antecedente, podemos es-
tar en situación, o la Naturaleza por nosotros, de modificarle de alguna
manera. Por modificación es preciso entender un cambio, que no llega has-
ta su supresión total.
Si entendemos estas modificaciones como manipulaciones o intervenciones, este método
se relaciona con el concepto de manipulabilidad que revisamos antes (sección 16.3.5).
Mill lo sintetizó así (p. 382):
Un fenómeno varía de cierta manera, siempre que otro varía de la misma
manera, es, o una causa o un efecto del fenómeno, o está ligado a él por
algún hecho de causación.
Vamos a ver el esquema del quinto y último método de Mill. Para ello, vamos a seguir
la convención de utilizar el símbolo «±» para referirnos a una modificación en el evento,
de forma que (por ejemplo) «A±» se refiere a una modificación en el evento A. (Podría
ser que una variable se hace más intensa, o menos intensa, u otro tipo de modificación.)
Así, tendríamos el último esquema:
Método de residuos
Los factores A,B,C ocurren junto con los factores x, y, z .
Los factores A±,B,C ocurren junto con los factores x±, y, z .
Probablemente, A tiene una relación causal con x.
Podemos ver que ninguno de los cinco métodos nos permite calcular una probabili-
dad precisa para la hipótesis causal que inferimos como conclusión en cada método.
Así, cada uno de los métodos es un esquema, una guía general y cualitativa para el pen-
samiento crítico. Para tener estimaciones cuantitativas precisas como las que se usan en
las ciencias experimentales, se requieren herramientas más avanzadas de la estadística
moderna.
426
IVa parte:
Apéndices
427
Lista de símbolos introducidos
Aquí voy a poner una tabla con la lista de todos los símbolos introducidos, que contenga:
el símbolo, su nombre, y la página donde se introduce. También una columna con
pronunciaciones usuales.
429
430
Lista de definiciones
Dar click en cualquiera de los números azules te lleva a la página en la que aparece la
definición.
431
432
Soluciones de algunos ejercicios
.
• Solución del ejercicio 14.7.6:
C = {x : x ≠ x }, y
D = {x : x ≠ x }
433
434
Formulario de LC0
Reglas básicas y derivadas Las reglas básicas son las reglas de introducción y elimi-
nación de cada conectiva, que presento inmediatamente abajo, junto con la regla de
explosión:
A & ¬A
B
Las demás son reglas derivadas, pues se pueden demostrar a partir de las básicas.
Introducción Eliminación
A ¬A
.. ..
. .
¬ B & ¬B B & ¬B
¬A A
A
A&B
& B
A
A&B
A∨B
— —
A B
.. ..
A . .
∨
A∨B C C
— —
435
A
..
A⊃B .
⊃ A B
B
A⊃B
A⊃B A≡B
≡ B⊃A Φ[A]
A≡B Φ[ B]
436
Formulario de LC1=
437
Índice analítico
alfabeto notación
de LC1, 228 infijo, 294, 331
prefijo, 331
contrariedad, 258 sufijo, 331
convenciones
convención 6, 209 reglas
convención 8, 256 de eliminación, 268
convención 7, 221 de introducción, 268
convención 9, 257 relaciones
cuantificador adicidad, 205
alcance, 218 poliádicas, 316
cuadrado de oposición clásico, 258
cuadrado moderno de oposición, 264 sustitución uniforme, 251
dualidad, 255 en LC1, 251
mnemotecnia de equivalencias, 256, 257 validez, 50
reglas de eliminación e introducción, en LC1, 250
280 variable
cuantificadores asignación de, 376
orden, 230 individual, 215
restringidos, 233 libre, 218
dominio, 215, 221 ligada, 218
irrestricto, 221 verdad
restringido, 221 por vacuidad, 265
vacío, 221, 259, 375
interpretación, 221
lenguaje
de LC1, 229
de un sistema lógico, 228
metavariable, 209
metavariables, 268
modelo, 220, 375
438
Bibliografía
439
spr2017/entries/port-royal-logic/
Carey, Susan (2009) The Origin of Concepts. Oxford University Press.
Cederblom, Jerry & Paulsen, David (2011) Critical Reasoning. Wadsworth Publishing.
Church, Alonzo (1956) Introduction to Mathematical Logic, Princeton University Press.
Collins, Peter (2005) «Exclamative clauses in English». Word, 56(1): pp. 1-17.
Copi, Irving (1979) Lógica Simbólica. Compañía Editorial Continental.
Copi, Irving & Cohen, Carl (2013) Introducción a la Lógica, 2da ed. Trad. Jorge Ale-
jandro Rangel Sandoval. Limusa.
Dasgupta, Shamik (2016) «Can we do without fundamental individuals? Yes». En
Elizabeth Barnes, ed.: Current Controversies in Metaphysics. Routledge.
Díaz Herrera, Patricia (2014) «El problema de la individuación y la persistencia a tra-
vés del cambio». En Patricia Díaz, Jesús Jasso, eds.: Problemas Contemporáneos de Filosofía.
UACM.
Dudley, Edmund (2019) «Critical thinking as a life skill». Oxford University Press English
Language Teaching Global Blog, 7 de junio de 2019: https://oupeltglobalblog.com/
2019/06/07/critical-thinking-edmund-dudley/
Correia, Fabrice (2017) «Real Definitions», Philosophical Issues.
Estrada González, Luis (2005) «La lógica y la comprensión del lenguaje». Elementos:
Ciencia y cultura, 12(59): pp. 23-27.
Estrada González, Luis (2010) «¿Cuánta filosofía hay en una tabla de verdad?»,
La Pluralidad de los Mundos: http://difusiondefilosofia.blogspot.com/2010/11/
cuanta-filosofia-hay-en-una-tabla-de.html
Estrada González, Luis & Cohnitz, Daniel (2019) An Introduction to the Philosophy of
Logic. Cambridge University Press.
Fine, Kit (1994) «Essence and Modality», Philosophical Perspectives. [Está por aparecer
una traducción al español de este artículo, hecha por mi, en la colección Cuadernos de
Crítica, Instituto de Investigaciones Filosóficas, UNAM.]
Fine, Kit (2012) «Guide to Ground». En Correia & Schnieder (ed.): Metaphysical Groun-
ding: Understanding the Structure of Reality, pp. 37-80. Cambridge University Press.
Ferrater Mora & LeBlanc (1962) Lógica Matemática.
Ferreirós, José (2001) «The road to modern logic—an interpretation». Journal of Sym-
bolic Logic.
Fodor, Jerry (1998) Concepts: Where cognitive science went wrong. Oxford.
Frege, Gottlob (2016) Estudios sobre lógica, semántica y filosofía de las matemáticas. Mar-
garita Valdés (comp.); varios traductores. Instituto de Investigaciones Filosóficas, UNAM.
440
Garrett, Brian (2006) ¿Qué es eso llamado metafísica?. Alianza.
Gigerenzer, Gerd & R.Selten (eds.) (2001) Bounded Rationality: The Adaptive Toolbox.
MIT Press.
Goldman, Alvin (1986) Epistemology and Cognition. Harvard University Press.
Gómez Torrente, Mario (2000) Forma y modalidad: Una introducción al concepto de con-
secuencia lógica. Eudeba.
Gödel, Kurt (1990) [1947] «What is Cantor’s continuum problem?» En S. Feferman, J.
Dawson, S. Kleene, G. Moore, R. Solovay, & J. van Heijenoort (eds.): Kurt Godel: Collected
Works, Vol. II: Publications 1938-1974: pp. 176-187. Oxford University Press.
Grice, H.P. (2005/1975) «Lógica y conversación». En La Búsqueda del Significado, ed.
Luis M. Valdés Villanueva. Tecnos.
Groarke, Leo (2020) «Informal Logic». The Stanford Encyclopedia of Philosophy (Spring
2020 Edition). Edward N. Zalta (ed.). URL = https://plato.stanford.edu/archives/
spr2020/entries/logic-informal/
Hume, David Tratado de la Naturaleza Humana
_________ Investigación sobre el conocimiento humano
Haack, Susan (1991) Filosofía de la Lógica. Traducción de Amador Antón y Teresa
Orduña, Cátedra.
Hampton, James (1999) «Concepts». En R. Wilson & Frank Keil (eds.): The MIT Ency-
clopedia of the Cognitive Sciences, pp. 176-179. The MIT Press.
Hilbert, David () Fundamentos de las Matemáticas.
Hughes & Cresswell (1993) Introduccion a la Lógica Modal. Tecnos.
Hunter, Geoffrey (1971) Metalogic: An Introduction to the Metatheory of Standard First
Order Logic. University Of California Press.
Jané, Ignacio (1994) «Lógica de Orden Superior». En Enciclopedia Iberoamericana de
Filosofía, Vol. 7: Lógica; editorial Trotta.
Johnston, Mark (1992) «Constitution Is Not Identity». Mind.
Kant, Immanuel (2013) Crítica de la razón pura. Traducción de Pedro Ribas, 2da edi-
ción. Taurus.
Kahneman, Daniel (2012) Pensar rápido, pensar despacio. Debate.
Kleene, Stephen (1952) Introduction to metamathematics. North-Holland.
Kneale, Martha & Kneale, William (1980) El desarrollo de la lógica. Trad. Javier Mu-
guerza. Tecnos.
Lewis, David () Counterfactuals. Oxford University Press.
441
Leslie, Sarah-Jane (2013) «Essence and natural kinds: When science meets preschoo-
ler intuition». Oxford Studies in Epistemology 4: 108-66.
Lopes et al. (2011) ‘Improved Application of Paraconsistent Artificial Neural Net-
works in Diagnosis of Alzheimer’s Disease’ Neuroscience International, Vol. 2.
Lowe, E.J. (2012) «What is the source of our knowledge of modal truths?» Mind,
121(484):919-950.
MacFarlane, John (2017) «Logical Constants». En Edward N. Zalta (ed.): The Stan-
ford Encyclopedia of Philosophy (Winter 2017 Edition): https://plato.stanford.edu/
archives/win2017/entries/logical-constants/
Machery, Edouard (2009) Doing Without Concepts. Oxford University Press.
Mendelson, Elliott (1997) Introduction to Mathematical Logic, 4a. ed., Chapman & Hall.
Michaelis, Laura (2001) «Exclamative Constructions». En M. Haspelmath, E. König,
W. Österreicher & W. Raible (eds.): Language Universals and Language Typology: An Inter-
national Handbook: pp. 1038-1050. Walter de Gruyter.
Mill, Stuart (1843) Sistema de Lógica Inductiva y Deductiva. Traducción de Eduardo Ove-
jero.Madrid, 1917. Consultado en: https://bvpb.mcu.es/es/consulta/registro.do?
id=409180, noviembre de 2020.
Morado, Raymundo (manuscrito) «Conectivas Lógicas». Disponible en www.filosoficas.
unam.mx/~Tdl/01-1/0301morado.doc
Moro Simpson, Tomás (1975) Formas Lógicas, Realidad y Significado. EDAF.
Nagel, Ernest & Newman, () El teorema de Gödel.
Nahin, Paul (2012) The Logician and the Engineer: How George Boole and Claude Shannon
Created the Information Age, Princeton University Press.
Palau, Gladys, et al. (2004) Lógicas Condicionales y Razonamiento de Sentido Común,
Gedisa.
Pazos, Alicia (2003) «Usos del lenguaje». En María Alicia Pazos y Sandra Lucía Ra-
mírez Sánchez, Conectivas y usos del lenguaje: Hacia un discurso argumentativo. UACM.
Peña, Lorenzo (1993) Introducción a las Lógicas no Clásicas, Instituto de Investigaciones
Filosóficas, UNAM.
Pietroski, Paul (2007) «Logical Form». En Edward N. Zalta (ed.): The Stanford Ency-
clopedia of Philosophy (Spring 2016 Edition): https://plato.stanford.edu/archives/
spr2016/entries/logical-form/
Platón (2002) Eutidemo. Traducción de Ute Schmidt Osmanczik. Bibliotheca Scripto-
rum Graecorum Et Romanorum Mexicana, UNAM.
Possin, Kevin (2016) «Conductive Arguments: Why is This Still a Thing?». Informal
442
Logic 36(4): pp. 563-593.
Priest, Graham (2008) Introduction to Non-Classical Logic: From Ifs to Is. Oxford Univer-
sity Press.
Rayo, Agustín y Uzquiano, Gabriel (2007) (eds.) Absolute Generality. Oxford University
Press.
Russell, Bertrand () «Las matemáticas y los metafísicos», Misticismo y Lógica.
Russell, Bertrand (1914/1964) El conocimiento del mundo exterior: Fundamentos para un
método científico filosófico. Traducción de María Teresa Cárdenas. Ediciones Fabril-Los
Libros del Mirasol. (Se puede bajar legalmente la edición original de 1914 aquí: https:
//archive.org/details/ourknowledgeofth005200mbp)
Russell, Bertrand & Whitehead, Alfred (1910, 1912, 1913) Principia Mathematica, 3
vols. Cambridge University Press.
Sadock, Jerrold & Zwicky, Arnold (1985) «Speech act distinctions in syntax». En: Sho-
pen, Timothy (ed.): Language typology and syntactic description, 1: pp. 155-196. Cambridge
University Press.
Schaffer, Jonathan (2016) «The Metaphysics of Causation». The Stanford Encyclopedia
of Philosophy (Fall 2016 Edition), Edward N. Zalta (ed.), https://plato.stanford.edu/
archives/fall2016/entries/causation-metaphysics/.
Szpilrajn, Edward (1930) «Sur l’extension de l’ordre partiel». Fundamenta Mathemati-
cae, 16.
Schnieder, Benjamin (2011) «A Logic for ‘Because’ ». The Review of Symbolic Logic,
4(3): 445-465.
Tabak, John (2004) Algebra: Sets, symbols, and the language of thought. Facts on File.
Tao, Terence (2012) «The probabilistic heuristic justification of the ABC conjecture».
What’s new: https://terrytao.wordpress.com/2012/09/18/the-probabilistic-heuristic-justif
Tejeiro, Paula (2016) «Supervaluar o Revisar», Manuscrito, 39(3), pp. 149-169. URL =
http://dx.doi.org/10.1590/0100-6045.2016.V39N3.PT
Tennant, Neil (2017) «Logicism», En: Edward N. Zalta (ed.) Stanford Encyclopedia of
Philosophy (Winter 2017 Edition): https://plato.stanford.edu/entries/logicism/
Valdivia, Lourdes (1989) Introducción a la Semántica y Ontología de Gottlob Frege. UNAM.
van Ditmarsch, Hans & Parikh, Rohit & Ramanujam, R. (eds.) (2011) Journal of Phi-
losophical Logic: Special Issue on Logic in India, 40(5).
Vega Reñón, Luis & Olmos Gómez, Paula (eds.) (2011) Compendio de lógica, argumen-
tación y retórica. Trotta.
Wittgenstein, Ludwig (1921/2012) Tractatus Logico-Philosophicus. Traducción de Jacobo
443
Muñoz e Isidoro Reguera. Alianza Editorial.
Woods, John & Gabbay, Dov (2004) Handbook of the history of logic, vol. I: Greek, indian
and arabic logic. Elsevier.
Woods, John & Irvine, Andrew & Walton, Douglas (2004) Argument: Critical thinking,
logic and the fallacies (2nd ed.) Pearson Prentice Hall.
Zalta, Edward. Principia Logico-Metaphysica. Manuscrito de Abril de 2018, Stanford
University. https://mally.stanford.edu/principia.pdf
444