Academia.eduAcademia.edu

Estructura y metodos de la ciencia. Escritos básicos de epistemología.

2014, Libro con isbn de publicación ebook

Desde el principio mismo de la ciencia, existió la pregunta acerca de la naturaleza de la ciencia, y si había medios para obtener este conocimiento que parecía casi mágico, aunque no lo era. ¿Cómo podían predecirse los eclipses, y que estos ocurrieran cuando se dijo? ¿Cómo podía decirse lo que pade- cía un paciente, y cómo decir, acertadamente, su evolución? Estas preguntas fueron respondidas de distintas maneras a lo largo del tiempo. Platón se inspiraba en las matemáticas, y su respuesta fue que provenía del mundo de las ideas, ese mundo ideal. Aristóteles, hijo de médico y biólogo él mismo, pensó que las ideas residían en este mundo, que podían abs- traerse de las cosas, y que debían formularse mediante axio- mas indudables de los que se deducían teoremas, como buen fundador de la lógica. Deja de ser la reflexión de filósofos o científicos aislados, para darse en el seno de grupos estables que colaboran entre sí, que sobre bases comunes discuten en artículos especializados los distintos avances, en una forma que asemeja la de la propia ciencia. Sucede en la Viena de principios de Siglo XX, en el seminario de Morics Schlick, cuando se da a conocer en el Manifiesto del Círculo de Viena, que reunía a filósofos como Carnap, Ber- trand Russell, y científicos como Albert Einstein, cercanos al Wittgenstein del Tractatus, y a Popper, vieneses como ellos. La metodología, la epistemología, la filosofía de la ciencia que desarrollaron inicia una tra- dición que se continúa hasta hoy, y en la que nos reconocemos. Una tradición que no es an- glosajona, como tiende a pensarse, sino profundamente centroeuropea. Nuestra narración es la de esa aventura del pensamiento, que tiene sus propias respuestas a preguntas que poseen también su impronta. ¿Qué es la ciencia, y cuál es su estructura? ¿Cuál es su método? ¿Cómo se investiga?

Copyright ISBN Primera edición Octubre 2014 © Editor César Lorenzano 1 CAPÍTULO NOMBRE Capítulo 1 ISBN 2 Capítulo 2 Indice Capítulo 3 Prólogo Capítulo 4 Metodología de la investigación Indice Capítulo 5 El lenguaje de la ciencia Capítulo 6 La inducción Capítulo 7 El método hipotético deductivo Capítulo 8 El racionalismo crítico de Claude Bernard Capítulo 9 La concepción de la ciencia de Thomas Kuhn Capítulo 10 La metodología de los programas de investigación Capítulo 11 La concepción estructuralista de las teorías Capítulo 12 Epistemología y metodología Capítulo 13 El diagnóstico médico Capítulo 14 Fleck, el ancestro olvidado Capítulo 15 Addenda metodológica Capítulo 16 Introducción a la teoría de conjuntos y de modelos Capítulo 17 Introducción a la lógica El autor César Lorenzano 2 Contratapa 3 Prólogo LA CIENCIA, SU ESTRUCTURA Y SU METODO Desde el principio mismo de la ciencia, existió la pregunta acerca de la naturaleza de la ciencia, y si había medios para obtener este conocimiento que parecía casi mágico, aunque no lo era. ¿Cómo podían predecirse los eclipses, y que estos ocurrieran cuando se dijo? ¿Cómo podía decirse lo que padecía un paciente, y cómo decir, acertadamente, su evolución? Estas preguntas fueron respondidas de distintas maneras a lo largo del tiempo. Platón se inspiraba en las matemáticas, y su respuesta fue que provenía del mundo de las ideas, ese mundo ideal. Aristóteles, hijo de médico y biólogo él mismo, pensó que las ideas residían en este mundo, que podían abstraerse de las cosas, y que debían formularse mediante axiomas indudables de los que se deducían teoremas, como buen fundador de la lógica. Hipócrates fue un empirista sofisticado, y formuló la primera teoría acerca de la enfermedad con elementos de cientificidad. En cierto sentido, continuamos su tradición de estructurar el conocimiento en dos niveles conectados con leyes que permiten predecir; un nivel sofisticado observación y descripción de los signos y síntomas de la enfermedad: el arte y la ciencia de la semiología, sobre el que se eleva el segundo nivel que lo explica. Y la infaltable ley del pronóstico, su manera de predecir. Se suceden las épocas, y científicos y filósofos exploraron con la filosofía a la ciencia, y utilizaron a ésta para renovar la filosofía. Como no podía ser de otra manera, nuestra época acelera esa estrecha relación, y da nacimiento a la rama dedicada a develar los secretos de ese especial e intrigante conocimiento. 4 Deja de ser la reflexión de filósofos o científicos aislados, para darse en el seno de grupos estables que colaboran entre sí, que sobre bases comunes discuten en artículos especializados los distintos avances, en una forma que asemeja la de la propia ciencia. Sucede en la Viena de principios de Siglo XX, en el seminario de Morics Schlick, cuando se da a conocer en el Manifiesto del Círculo de Viena, que reunía a filósofos como Carnap, Bertrand Russell, y científicos como Albert Einstein, cercanos al Wittgenstein del Tractatus, y a Popper, vieneses como ellos. La metodología, la epistemología, la filosofía de la ciencia que desarrollaron inicia una tradición que se continúa hasta hoy, y en la que nos reconocemos. Una tradición que no es anglosajona, como tiende a pensarse, sino profundamente centroeuropea. Nuestra narración es la de esa aventura del pensamiento, que tiene sus propias respuestas a preguntas que poseen también su impronta. ¿Qué es la ciencia, y cuál es su estructura? ¿Cuál es su método? ¿Cómo se investiga? Desde su nacimiento, este tipo especial de filosofía recibió distintos nombres, variando en los distintos países. Filosofía de la ciencia como forma predominante, teoría de la ciencia o ciencia de la ciencia en Alemania, epistemología en Francia. En Argentina, de la mano de Gregorio Klimovsky coincidió con el nombre de su posgrado, Metodología de la Investigación, para conocerse ahora, sin que el cambio ocurriera sin que supiéramos cómo ni porqué, como Epistemología. Hemos preferido llamarla de momento Metodología de la Investigación, como fue en un principio con Klimovsky y Mario Bunge, que continuaron en Argentina la denominación dada por Karl Popper a su seminario de Londres. Como el autor inicia simultáneamente con la Philosophy of Science Association 1976 las investigaciones acerca del conocimiento médico con las herramientas de la filosofía de la ciencia, los ejemplos pertenecen mayoritariamente a esa rama del conocimiento con la que todos están familiarizados, lo que redunda en una mejor comprensión del texto. Además, en el análisis de las teorías preferimos mostrar su estructura mediante diagramas, tan rigurosos como las intrincadas fórmulas lógico matemáticas, pero mucho más comprensibles para quienes no están entrenados en esas disciplinas. Rindo así homenaje a quienes me formaron como filósofo de la ciencia y a los médicos filósofos que me precedieron, Claude Bernard, Canguihem, Ludwik Fleck, .... como alguien que tuvo la fortuna de apoyarse en los hombros de gigantes. 5 La estrategia de presentación que elegimos es la de hacer su introducción histórica, y luego presentar cada una de las metodologías (o filosofías de la ciencia) que aparecieron sucesivamente. Se comienza por la metodología inductivista, se continúa con la hipotético-deductiva, para pasar a considerar la crítica que le efectúa desde la historia de la ciencia la concepción de Thomas Kuhn y de Imre Lakatos, para terminar con la concepción estructuralista de las teorías. El relato adopta la forma dialéctica, es decir, que se desarrollan los argumentos centrales de cada metodología, mencionándose a continuación los inconvenientes que presentan. Posteriormente, se indica cómo se conservan algunos logros de la metodología anterior, cómo se superan los obstáculos que presenta, así la manera en que se logra la síntesis adecuada. Este proceso de superar, eliminar y conservar específico de la dialéctica se denomina aufgeben. Cada metodología supera a la anterior, eliminando sus contradicciones, hasta culminar en el momento actual a la metodología de la concepción estructural de las teorías desde el punto de las metodologías que utilizan elementos lógicos para definir su estructura, y a la concepción histórica de Thomas Kuhn. Ambos constituyen fértiles programas de investigación epistemológicos vigentes. 6 En cada una de las unidades metodológicas se presentan asimismo los pasos del método científico que autorizan, que la forma de presentar tanto proyectos de investigación como artículos científicos, así como la manera de analizarlos y evaluarlos. En el camino, se responde qué es el método hoy, qué es la ciencia, y cómo se investiga. Se introduce una unidad propedéutica, necesarios para comprender los argumentos de las distintas metodologías, que habla de los lenguajes de la ciencia. La estructura global de los escritos es la siguiente: 1. una introducción histórica a la metodología 2. un sector dedicado a las distintas epistemologías y metodologías: 3.1. inductivismo 3.2. hipotético deductivismo 3.2. la metodología médica de Claude Bernard 4. un sector dedicado a las epistemologías del giro historicista 4.1. Thomas Kuhn 4.2. Imre Lakatos 5. la concepción estruturalista 6. la relaciones entre epistemología y su pragmática metodologica 7. la estructura de la ciencia explicada mediante el análisis del diagnóstico médico 8. una introducción a la teoría de conjuntos y de modelos, como propedéutica para las concepciones semánticas o modelo teóricas 9. una introducción a la lógica para quienes quieran conocer sus principios más generales, y para tener una visión más completa de los argumentos lógicos de la metodología 10. El autor, César Lorenzano 7 INTRODUCCION HISTORICA 4 Puede ser un lugar común apuntar que la filosofía toda es, fundamentalmente, una reflexión acerca de la ciencia y de la sociedad. Habría quizás que matizar el punto, y añadir al menos el arte, y ese meditar acerca de los comportamientos humanos que es la ética. Metodología de la investigación Recordemos brevemente el lugar que la actividad científica y sus productos han ocupado en las preocupaciones de los más notorios filósofos, desde la más temprana antigüedad. Los presocráticos quitan los dioses de la naturaleza, la desmitifican, abriendo la posibilidad de explorar las causas naturales de los fenómenos. Platón, vivamente impresionado por el desarrollo de las matemáticas, moldea en ellas su teoría del conocimiento, basado en esencias o ideas eternas, a cuya visión privilegiada podía accederse. en esto consistiría el saber, con tanto éxito que, incluso en nuestros días, notables matemáticos -Whitehead, Gödel- son platonistas. La sensación del matemático de llegar a algo que ya está allí, algo que se descubre, y no que se construye o inventa, encuentra plena satisfacción en las intuiciones platónicas. Aristóteles, investigador original y fundacional de la biología, profundo pensador de la física, la astronomía y las matemáticas de su época, hace el primer esbozo de método científico, dedicado no tanto a las ciencias formales, como su maestro Platón, como a las ciencias empíricas, de los hechos. Sus postulaciones acerca del conocimiento y la naturaleza fueron retornadas en el despertar de la ciencia que significó la Edad Media tardía, así como la revolución renacentista en ciencia -de la que la actual es una continuación-, se afirma en un neo-platonismo. Bacon reflexiona, luego de las revoluciones científicas posrenacentistas, acerca de las nuevas ciencias de los hechos, cien- 8 cias no conocidas en la Grecia antigua, retornando a Occam, entre otros, para establecer firmemente al empirismo inglés, que se continúa en nuestros días, a través de Hume, con B. Russell y otros. Descartes es científico y filósofo. Kant escribe su Crítica de la razón pura pensando cómo es posible la física newtoniana, y las matemáticas que la sustentan. Hegel medita la historia, con sus cambios, revoluciones y permanencias, en su obra en ocasiones tan oscura, pero tan influyente en otros pensadores. Asimismo los científicos habían pensado los fundamentos de su propio quehacer. Newton ha legado máximas metodológicas, al igual que Galileo, Laplace o Mach. Sin embargo, esta reflexión acerca de la ciencia presenta una característica: es el fruto de pensadores aislados, que no interactúan unos con otros. En los años veinte, en Viena, se produce un hecho crucial para la filosofía de la ciencia. Moritz Schlick inaugura en su seminario, origen del llamado Círculo de Viena, lo que luego se visualizaría como el inicio de la profesionalizacón de esta rama de la filosofía. Por primera vez se reúnen científicos y filósofos de primera línea a discutir acerca de la ciencia, de tal manera que los trabajos de unos comentan los problemas y reflexiones planteados por los otros. Carnap, Schlick, Neurath, Feigl, Gödel, continúan los trabajos de Frege, Russell y Wittgenstein, sus predecesores y contemporáneos en la labor emprendida, y encuentran eco en la escuela polaca -Tarski entre ellos- y en Berlín -Reichenbach y colaboradores-. Su preocupación fundamental consiste en utilizar la lógica como herramienta precisa para entender la ciencia, y el conocimiento en general. Esta escuela es conocida bajo el apelativo genérico de empirismo lógico. Otro nombre con el cual se lo conoce es el de neo-positivismo. El nazismo, que los persigue por su ideología liberal o socializante, da punto final a su actividad en Europa continental con el asesinato de Schlick por un estudiante fanatizado por la prédica fascista. La emigración, el exilio de sus miembros a países anglosajones, hace que sus ideas se expandan. A partir de este punto, se transforma en la corriente hegemónica en filosofía de la ciencia, adquiriendo su actividad cada vez más similitud con la empresa científica que estudia. Libros básicos, artículos que continúan polémicas aclarando puntos problemáticos, congresos internacionales, completan la transformación de una filosofía, que era en sus orígenes individual, en el producto de una comunidad filosófica que avanza rápidamente en sus logros, ya que cada miembro no parte desde el comienzo, no tiene necesidad de construir desde cero su campo, sino desde bases comunes y aceptadas. Cuestiones tales como cuál es la estructura lógica de las teorías científicas, cómo se relacionan con la realidad, en qué consiste la explicación en ciencia, cuáles son las particularidades de la teoría de la relatividad, la psicología, la sociología, las matemáticas, la estadística, la física en general, son largamente debatidas, y encuentran respuestas siempre perfectibles. 9 Karl Popper, escribe en 1934 La lógica de la investigación científica, cuestionando y superando al neo-positivismo, con su visión hipotético-deductivista de la ciencia. El exilio en Nueva Zelanda lo aleja de los centros universitarios más importantes hasta la pos- guerra; su libro recién es traducido al inglés en 1957. Para ese entonces, su visión de la ciencia ha ganado adeptos y lo expresado en 1934 deviene casi lugar común. Ernest Nagel, que a fines de los cincuenta escribe una monumental obra en la que compendia los logros de la filosofía de la ciencia, adopta para el análisis lógico al neo-positivismo, pero la relación de las teorías con la realidad que expone es más hipotético-deductivista que empirista. Lo mismo hace Hempel. Otros autores, desde dentro y fuera del neo-positivismo, como Feyerabend, Hanson, Toulmin, Koyré y Bachelard, cuestionan parcial o totalmente la percepción de la ciencia derivada del Círculo de Viena, que ya comenzaba a denotar signos de agotamiento en su actividad, con repetición de temas y discusiones con sabor escolástico. Era el momento de una inflexión total en el camino de la filosofía de la ciencia. Aparece oportunamente, en 1962, la obra que iba a dar por concluida más de cuarenta años de labor hegemónica: La estructura de las revoluciones científicas de Thomas Kuhn. Obra de un historiador de la ciencia, demuestra que el desarrollo real de las teorías se aleja notoriamente tanto del neo-positivismo como del hipotético-deductivismo; que éstas eran artefactos mucho más complejos que los pensados en los análisis lógicos realizados hasta ese momento, que evolucionaban en el tiempo, al ser producidas, modificadas y totalmente cambiadas por una comunidad científica, agente histórico de la ciencia. En 1971, Joseph Sneed, abandonando la lógica de predicados, y mediante la teoría intuitiva de conjuntos, realiza precisos análisis formales de teorías complejas, haciendo notar que esta forma lógica explicaba la constitución y evolución histórica de lo que Kuhn había llamado primeramente "paradigmas". Coincidían así la historia de la ciencia y el análisis formalizante. La labor de la filosofía de la ciencia se reinicia con estas armas en otro plano distinto al ya superado. Con ellas efectuaremos el examen de las teorías médicas, y sus peculiaridades investigativas, dando por culminada esta serie. Pero antes precisaremos las categorías que aquí expusimos sucintamente desde el punto de vista histórico. En qué consistió y en qué se diferencia de ellas la moderna filosofía de la ciencia. 10 S ECC I Ó N 1 La aproximación clásica Intentaremos reproducir las argumentaciones que subyacen a las propuestas de incorporar la metodología -insisto, una vez más que se trata de la filosofía de la ciencia- a los programas de educación de estudiantes de ciencias, o de posgrados especializados con la idea de que esto conduce a una mejor ciencia. Transformar los productos de una actividad cultural, la filosofía, en instrumentos utilitarios de la labor científica. La idea es interesante, y como veremos, aunque equivoca en su implementación, contiene gérmenes que es necesario desarrollar. La primera diferenciación que es necesario exponer es entre dos posiciones antagónicas: la que sostiene la necesidad de una metodología -filosofía- de la ciencia y la que niega toda posibilidad que ésta siquiera exista. El razonamiento que conduce a la última posición manifiesta que en el interior de cada ciencia se dan las normas de cientificidad, y por ende, el método. Que no existe tal cosa como un método general, sino múltiples métodos, tantos como ciencias haya. El neo-positivismo pensaba que es posible encontrar un lenguaje común en el cual expresar toda la ciencia, y que la articulación de este lenguaje, la forma que adopta para la ciencia, marca esquema general del procedimiento científico, el método. Su intento teórico se denominó el de la ciencia unificada. Dicho lenguaje sería la lógica matemática -que valdría incluso para las teorías matematizadas, desde el momento en que también se buscaba reducir las matemáticas a la lógica, en lo que se llamó el intento "logicista"-, estructurando un léxico de objetos macroscópicos. Carnap inicia este programa de investigación bajo la fuerte impresión que provocaron en su juventud los esperantistas, quienes proponían un lenguaje común a toda la humanidad, para terminar con las separaciones artificiales entre los hombres, y conducir a una mejor comprensión, en el seno de un vasto movimiento socialista e igualitarista. Aunque obviamente la anatomía es distinta a la física cuántica o la química orgánica y se practica de manera distinta, y esto apoyaría a quienes suponían la imposibilidad de un método científico, sino métodos científicos, los sostenedores del Método, así, con mayúsculas, distinguían, con justa razón, entre método y técnicas, sosteniendo de este modo que todos los científicos tenían patrones de pensamiento comunes, factibles de analizar y sistematizar, deviniendo así método. Recién en el plano de las realizaciones específicas aparecerían las diferencias expuestas por los adversarios a la noción de método, y que lo serían en cuanto a técni11 cas. La disección sería la técnica y no el método de la anatomía, el análisis espectroscópico la técnica de la química, no su método. Encontrar y estandarizar estos patrones de pensamiento entre las teorías científicas, con sus problemas expuestos en el lenguaje claro, inequívoco, sin confusiones de la lógica matemática, fue una empresa filosófica de largo aliento, la de la concepción clásica, y condujo a hallazgos que permanecen como punto de referencia obligado. Una vez conseguidos, marcaban la diferencia entre ciencia y no-ciencia, garantizando que el producto de la actividad de los científicos fuera, efectivamente, científico. Esto, se pensaba, era la metodología, y eso era lo que buscaban tanto los implementadores de cursos como sus alumnos. La marcha de la filosofía de la ciencia iba a mostrar que lo que se exponía como seguridades era sólo el eslabón -incompleto y parcialmente falso- hacia otras metas. Con respecto al lenguaje de la ciencia, el primer sueño frustrado fue el de reducir las matemáticas a la lógica. Hacia los años treinta, luego de algunos éxitos iniciales, este intento se encontraba en un callejón sin salida debido, entre otros factores, a las conclusiones a las que se llegaba con el teorema de Gödel. No es la oportunidad de exponer detalladamente el fracaso del programa logicista en matemáticas. La lógica matemática no era, contra las expectativas despertadas, el cálculo fundamental de las matemáticas, sino un cálculo más entre todos. Con respecto a las ciencias de la naturaleza, la lógica matemática sirvió admirablemente para ilustrar problemas que tenían que ver con esas formas generales de pensamiento, por ejemplo, cómo se construye la confirmación o refutación de leyes, que veremos luego con detalle, o características de la explicación científica, pero no fue posible utilizarla en lo que se pensó que era su ámbito, el de formalizar teorías reales, y luego derivar conclusiones sobre la ciencia. No era, al menos, el lenguaje único de la ciencia. De allí que se pudiera hablar con propiedad de método, aunque las exposiciones dejaran en los científicos la sensación de lo todavía incompleto y de que no describían con total justeza sus procedimientos. Hacia los años cuarenta es reiniciado en matemáticas el intento logicista, desde otras bases, por Nicolás Bourbaki. Bajo este nombre colectivo, un grupo de los mejores matemáticos franceses publicaban una nueva búsqueda del lenguaje básico de las matemáticas. Lo encuentran en la teoría informal de conjuntos; los sucesivos artículos y libros muestran la potencia de este lenguaje y la fecundidad del experimento, ya que, paulatinamente, todas las ramas de las matemáticas terminan siendo expresadas en él. No sólo los cultores de las distintas porciones de las matemáticas tenían un lenguaje común, de forma que pudieran comprenderse rápidamente los logros y avances en cada una sin ser especialista en el tema; este lenguaje preciso y potente, también revolucionó la enseñanza: habían nacido, y para quedarse, pese a las protestas de los pedagogos antiguos, las matemáticas modernas. 12 La teoría de conjuntos es tomada por "Nicolás Bourbaki" para fundamentar, reescribir las matemáticas, como base de la enorme revolución técnica y teórica en esta ciencia. El programa logicista fue desarrollado, finalmente, en otro plano, y de una manera no soñada por Frege y Russell. La lección es aprovechada por la filosofía de la ciencia. En una extensión del proyecto Bourbaki a las ciencias naturales, Patrick Suppes comienza a sentar las bases para la formalización de teorías apelando, asimismo, a la teoría informal de conjuntos, con un éxito que convence a otros cultores de la filosofía de que este es el buen camino. Una teoría nada trivial, como la mecánica clásica, es formalizada en este lenguaje riguroso, mas sencillo. A los logros iniciales suceden otros. Luego veremos cómo, en el mismo espíritu, toda la riqueza y complejidad de las teorías es captada por la concepción estructural. Una vez más, la ruta señalada por el neo-positivismo es recorrida fructuosamente, y de otra manera. Se desarrollaba una base de teorías formalizadas, que permitía hablar con exactitud de ciencias específicas, llenando ese gran hueco existente en el desarrollo de la concepción tradicional. Pero estas formalizaciones, si bien permitían reconocer patrones de pensamiento en las distintas ciencias, alejaban cada vez más la noción de un esquema que permitiera llegar sin sorpresas a producir conocimiento científico. Tampoco existía tal cosa como un procedimiento mecánico que permitiera separar , por su mismo funcionamiento, la ciencia de la no-ciencia. La noción de método, como fue manejado anteriormente, se alejaba, y transformaba en otra herramienta. Narremos en qué consistía la metodología, tal como la practicó la concepción tradicional, para aquilatar la distancia que nos separa de ella, e intentar desde el nuevo lugar un relanzamiento de los estudios en metodología de la ciencia, con la certeza de contribuir de esta manera al avance científico, como lo logró Bourbaki en matemáticas luego de casi cuarenta años. 13 S ECC I Ó N 2 ¿Qué cosa es la metodología científica? Para elucidarlo, comenzaremos aclarando algunos malentendidos que la rodean, y que tienden a confundir a los que se inician en su estudio. Ya establecimos que metodología se denomina a la epistemología o filosofía de la ciencia de la que se deriva, se tenga conciencia de esto o no, los esquemas metodológicos que se utilizan habitualmente en la presentación de proyectos, o en la redacción de los resultados de una investigación. Veremos primeramente lo que no es. Posteriormente, presentaremos una distinción clásica entre contexto de justificación y contexto de descubrimiento, que expresan aquello que es y no es la filosofía de la ciencia. Si bien es una distinción que ha perdido terreno, todavía puede aportar elementos a discusiones contemporáneas. Lo que la metodología no es El primero de los equívocos consiste en confundirla los métodos y técnicas que son propias de cada disciplina, y que se utilizan para estudiar el campo de conocimiento que les pertenece les atañe. Sabemos, por ejemplo, que la experimentación con animales es propia de la fisiología (aunque no solo de ella), la disección de la anatomía, el análisis espectrográfico de la química, la exploración con telescopio de la astronomía, etc. La metodología es una estrategia de pensar la ciencia que ha evolucionado desde el Círculo de Viena a nuestros días con la que se analiza a las distintas disciplinas científicas, y de la que se derivan sucesivos esquemas metodológicos. En este contexto, las metodologías específicas son utilizadas cuando se pone a prueba lo que se plantea hipotéticamente. Incidentalmente, cabe mencionar que el más actual de los equívocos consiste en confundirla con la metodología estadística, una excelente herramienta para mediar entre la teoría y los datos, así como para explorar diversos campos de estudio y sugerir relaciones que deberán ser a su vez puestas a prueba. Demás está decir que a su vez ha sido desde los comienzos de la epistemología objeto de investigaciones para establecer su fundamentación. Tampoco es la forma de llegar a descubrimientos científicos. Desafortunadamente, debemos decir que no es, pese a los deseos de quien se inicia en la investigación, una herramienta para descubrir, no señala el camino de los hallazgos científicos, importantes o no. 14 El problema de los contextos y lo que es El problema de los contextos suele atribuirse a Hans Reichenbach, quien establece en “Experience and prediction” de 1938 la distinción entre los contextos de descubrimiento y de justificación, desconociendo que ya en 1934 Popper la presenta en los mismos términos que Reichenbach. El contexto de descubrimiento son todas aquellas circunstancias por las cuales se llega a un hallazgo científico. Existe circunstancias personales -suerte, habilidad especial, estar en un sitio determinado, poseer una tenacidad dada-, circunstancias históricas -ser discípulo de Houssay en la Argentina de los años treinta hasta los sesentas-, trabajar en un laboratorio con un costoso y raro acelerador de partículas, vivir en un cierto país, etc.-, y circunstancias sociales -pertenecer a una cierta clase social, estar influido por ciertas ideas, etc.-. Aunque interesantes, y pueden estudiarse a fondo desde la historia o la sociología de la ciencia, e incluso desde la historia biográfica, no pueden sistematizarse, no pueden organizarse de forma lógica de tal manera que saber cuál es la combinación exacta que lleva a un descubrimiento dado. Esta falta de sistematización hace que no sea el objeto de la metodología. No existe tal cosa como un método para descubrir las leyes y los hechos de la ciencia. El contexto de justificación, que puede sistematizarse siguiendo las pautas de la lógica, es el objeto propio de la metodología, y hace que de una manera fiable pueda decirse que aquello que dice la ciencia es verdadero o falso, correcto o incorrecto, adecuado o inadecuado. ¿Nada más que eso? Nada más y nada menos. Todo conocimiento debe dar razón de lo que afirma. Si no lo hace, no pasa de ser mera opinión. El método científico es el que permite dar esas razones. La separación tajante entre descubrimiento y justificación tiene el curioso efecto de separar la manera en que se llega a algo, de aquello que lo justifica. Según esta concepción, el origen de un conocimiento no es una razón para confiar en su adecuación. Centralmente, se sostiene que un conocimiento sea correcto no depende de quien lo dice -sea un individuo o una autoridad política o religiosa-, sino de la metodología con la cual se lo justifica. No es casual que la preocupación contemporánea por el método provenga de los tiempos históricos en los que la ciencia se separa de la religión, cuando deja de reconocerse a la Biblia, o a los clásicos aceptados por la Iglesia como fuente de conocimiento científico. En realidad, se rechaza como criterio de verdad no sólo a la Iglesia, sino a toda autoridad terrenal o divina. Esta percepción por parte de los científicos y de quienes se interesan en la ciencia es una consecuencia natural de la aceptación del modelo copernicano para el sistema planetario, y del consiguiente abandono de la creencia en la centralidad de la Tierra en el universo, como lo sostenían la Iglesia y el poder, y del posterior triunfo de la física de Newton. En el plano de 15 la medicina, el descubrimiento de la circulación sanguínea por parte de Harvey corroe a la medicina tradicional de Galileo, otro de los pilares de la ciencia aceptada, introduciendo la experimentación como fuente de conocimiento. El desarrollo de la historia de la ciencia puso sobre el tapete que sólo la experiencia humana puede justificar el conocimiento, y que por fuera de ella, la autoridad conduce al error y al estancamiento. Francis Bacon (Londres 1561-1626) es consciente de esto cuando sostiene que es la inducción basada en la experiencia la que justifica la ciencia, y propone quizás por primera vez en los tiempos contemporáneos una metodología científica. El método científico como reflexión sobre la ciencia El otro gran malentendido acerca del método científico, es que el mismo se conoce practicando ciencia, que basta hacer investigación científica para conocerlo. Esto no es así. C omo surge del breve recuerdo histórico que hicimos, es Bacon, un filósofo, quien analiza la ciencia de su época, y concluye que los progresos que experimenta se deben a que, muchas veces sin saberlo, los científicos siguen una metodología especial, la inductiva. De acuerdo a esta caracterización, ciencia es lo que hacen los científicos, y método científico es la manera en que se justifican sus hallazgos, según lo analizan fundamentalmente filósofos, y en ocasiones científicos, pero no en cuanto tales, sino como metodólogos, como epistemólogos (la epistemología es la rama de la filosofía que se ocupa de la teoría del conocimiento, científico en este caso). A fin de que se comprenda adecuadamente lo que esto implica, quisiera hacer una analogía entre la ciencia y el lenguaje. Sabemos que basta nacer en un hogar educado para hablar correctamente un idioma. No es necesario conocer las reglas gramaticales para hacerlo. En realidad, las reglas gramaticales y otras que rigen el uso correcto de un idioma son un producto del análisis de los expertos en el lenguaje, los gramáticos y otros. Si esto as así, si se puede hablar correctamente sin conocer las reglas de uso del lenguaje, y hacer ciencia sin conocer la metodología científica, ¿para qué estudiarlas, para que saber en qué consisten? La respuesta es similar en ambos casos. Incluso quien habla correctamente, puede tener dudas acerca de la corrección de alguna forma lingüística que emplea, de alguna grafía. Si no existieran las reglas gramaticales y ortográficas, no sabría cono salir de dudas. Para los escolares, saber cuales son las normas que rigen el lenguaje constituye un atajo para aprender a hablar y escribir con corrección. Aunque tanto la gramática como la ortografía hayan aparecido como una consecuencia del análisis del lenguaje, hayan sido posteriores al mismo. Existe la situación paradojal que sean los que estudian el lenguaje quienes digan finalmente a quienes hablan y escriben correctamente, porqué lo hacen, cómo lo hace, y qué deben hacer para continuar haciéndolo sin deformar el idioma. 16 De la misma manera, el conocimiento sobre la ciencia que procura esa disciplina filosófica especial que es la epistemología (o metodología) enseña a los científicos cómo investigan, porqué hacen determinada cosa, y en ocasiones, cómo deben proceder en caso de dudas. A los aprendices de científicos, les facilitan el proceso de aprendizaje de la ciencia, al hacer consciente aquello que sus maestros practican de manera no enteramente reflexionada. Le enseñan la estructura de pensamiento en la que basan sus investigaciones, que está implícita en las mismas, pero que debe analizarse y estudiarse para hacerse evidente. El método científico, en este sentido, es la gramática de la ciencia. Puede hacerse ciencia sin conocerlo, pero generalmente, ayuda a hacer mejor ciencia, más rigurosa, mas precisa. Como la ciencia misma, lo estudia una disciplina especifica, que es practicada por una comunidad especializada asimismo específica, que tiene sus propios métodos de estudio y de análisis, insertos es una historia, una tradición común que los hace reconocibles a través del tiempo. Como la ciencia, conoce de avances y cambios, en la medida en que emplea con más rigor sus herramientas de estudio, e incorpora otras. Si sintetizamos lo expuesto hasta el momento tenemos que: i. el método científico no coincide con las distintas metodologías propias de cada disciplina, sino con una secuencia ordenada de pasos; ii. el método científico es un método para justificar aquello que se sostiene desde la ciencia, y no para descubrir nuevos hechos o leyes científicas; iii. el método científico es producto de una reflexión especializada sobre la ciencia, y no de la práctica científica como tal; iv. el método científico posee una historia, y una forma actual aceptada. La pregunta típica desde la metodología –epistemología- ante cualquier afirmación que se presume científica es la de inquirir si se encuentra fundamentada por la experiencia observable. A su vez, esta pregunta fundamental puede desglosarse entre al menos tres. La primera de ellas pregunta por la calidad de la experiencia –si es una experiencia adecuada y pertinente-; la segunda, por el tipo de relación que se establece entre lo que se observa, y lo que se afirma; la tercera, si lo que se observa permite sostener adecuadamente lo que se afirma. Agregamos ahora que el método científico toma en consideración sólo aquello que se afirma, que se enuncia. No se refiere a ideas o conceptos, sino a lo objetivo, lo que es público de la ciencia: aquello que se enuncia. Por lo tanto, el análisis del lenguaje de la ciencia es central para la metodología. 17 En el próximo escrito lo analizaremos, para caracterizar a continuación a los distintos métodos que se han sucedido en la historia de la metodología, comenzando por el inductivo y sus problemas. 18 5 El lenguaje de la ciencia En el capítulo anterior habíamos mencionado que el análisis de la ciencia se realiza tomando en cuenta sólo aquello que es público, y por lo tanto puede ser sometido a estudios y discusiones objetivas. Esto significa trasladar el punto de vista desde las ideas y el espíritu de la ciencia –como se prefería hacerlo hace casi más de un siglo- a aquello que se expresa en un lenguaje definido, el lenguaje de la ciencia, y que se encuentra recogido en libros y artículos especializados. Por supuesto, no queremos decir que la ciencia es sólo lenguaje, sólo discurso –como lo pretende alguna filosofía posmoderna-, puesto que se trata de un lenguaje que no se encierra en sí mismo, sino que intenta dar cuentas de problemas de la realidad, y se encuentra, por lo tanto, anclado en la experiencia, que es la que da fundamento a lo que se expresa con él. En este capítulo presentaremos las características del lenguaje de la ciencia, aquello que lo diferencia de cualquier otro tipo de lenguaje, y su particular organización. A continuación caracterizaremos con estos elementos a la primera metodología científica que se propone en la historia, la inductivista. Cuando veamos los pasos de que constan tanto los proyectos de investigación, como los artículos científicos –que por otra parte se encuentran organizados según las metodologías científicas-, haremos alusión continuamente a estas consideraciones, ya que como es obvio, unos y otros se redactan en el lenguaje de la ciencia, cuyas peculiaridades es necesario conocer. Las funciones del lenguaje y el lenguaje de la ciencia 19 Debemos decir, en primer lugar, que el lenguaje cumple distintas funciones. Existe el lenguaje interrogativo, aquel con el que formulamos preguntas tales como ¿qué sucedió el 25 de mayo de 1810?, o ¿qué comió anoche el paciente? Existe asimismo el lenguaje directivo, aquél con el damos órdenes. Cierre la puerta, o tome este medicamento cada 6 horas, son ejemplos del mismo. Otro tipo de lenguaje es el expresivo, aquel con el que comunicamos distintos estados de ánimo, y con el que decimos cosas tales como ¡qué barbaridad! Lo siento mucho. Qué bello paisaje!. Pues bien. El lenguaje en que se manifiesta el conocimiento científico recibe el nombre de informativo, pues con él procuramos comunicar lo que sabemos. Dicho lenguaje está formado por enunciados. Utilizamos esta expresión como sinónimo de proposición, o de afirmación, aunque en este último caso podría pensarse que su uso implica un cierto asentimiento a lo que se dice. La característica principal de los enunciados, y que los hace aptos para volcar en ellos al conocimiento científico, es que es verdadero o falso. La distinción es sumamente importante, pues toda la metodología científica se dirige a establecer la verdad o falsedad de lo que se dice. Como habíamos mencionado, nace en un contexto histórico en el que no se puede apelar más a la autoridad religiosa o civil –fuente de toda razón y justicia, como de expresa en las oraciones- para fundamentar el conocimiento, sino a la experiencia humana. Una vez establecido que el lenguaje de la ciencia es el informativo, y está integrado por enunciados, avanzaremos en la consideración de sus elementos básicos, los términos o palabras con los que se forman los enunciados, para distinguir entre ellos a los más básicos y a los más complejos. Una distinción que permite ver sus relaciones, y cómo en esas relaciones se juega la posibilidad de decir de la verdad o falsedad de las afirmaciones de la ciencia. Los términos de la ciencia Diferenciaremos en los términos que forman a los enunciados de la ciencia –los ladrillos básicos con los que se construye el edificio científico- entre: i. aquellos que son lógicos ii. los que son empíricos. Los términos empíricos nombran a aquellas cosas que se estudian en ciencia, y a sus propiedades y cualidades. Los dividiremos a su vez entre: i. términos observacionales ii. términos teóricos 20 según sea la índole de lo que nombran. (Se llaman en la jerga lógica categoremáticos.) Los términos lógicos, en cambio, no nombran a nada en particular. (En la jerga lógica, sincategoremáticos). Veamos sus características. i. términos lógicos: Su función es la de conectar entre sí a distintos enunciados (“llueve y truena” por ejemplo, en el que “llueve” es un enunciado y “truena” otro, conectados por “y”), o para expresar a cuántos nombran los términos empíricos. Un ejemplo de estos términos lógicos es “algunos”; otro es “todos”. Retengámoslos, pues con ellos caracterizaremos a los enunciados que son la base de la comprensión de la metodología científica. Otros términos lógicos muy interesantes son “si ...... entonces”, pues con ellos se conectan enunciados de tal manera que forman una secuencia causal. “Si el paciente toma el medicamento, entonces baja la fiebre” puede ser un ejemplo mínimo tomado de la práctica médica en la que se establece una relación causal entre dos sucesos, tomar el medicamento y bajar la fiebre. Presentándolos de manera formal, el signo de “algunos” es el siguiente: “ ”, que se lee “existe o existen”; habitualmente se presenta en una secuencia de símbolos que comienza así: (existe algún o algunos x, siendo x una variable para designar cualquier objeto). Este símbolo es el característico de enunciados que llamaremos existenciales. En cuanto a “todos”, el símbolo que lo representa en lógica es el siguiente: “(x) ” que al igual que “algunos”, se escribe habitualmente seguido de una x, tal como aparece a continuación: x , que se lee “para todo x ....”, siendo la x una variable que designa a cualquier objeto. También puede representarse en otra notación con la variable x entre paréntesis: (x). En cuanto a los conectivos lógicos, se sugiere ver el apartado que corresponde a las nociones básicas de lógica, a fin de comprender la función de los signos y, o, no, si .... entonces –llamado condicional-, que se representan así: y: “.” o: “v” no: “-” si .... entonces: ; en en otra notación: ii. términos observacionales: 21 En las primeras metodologías, los términos observacionales son los únicos que se consideran realmente empíricos. Se trata de aquellas palabras con las que se nombran las cosas y las propiedades más o menos directamente observables, tales como: alverjillas rojas y blancas (como las que menciona Mendel en su clásico experimento), luna, sol, pasto verde, agua, aparato de ultrasonografía, etc. Desde una perspectiva más actual, aquello a que nombran los términos observacionales no son tan directamente observables, ni son de la experiencia cotidiana. Sabemos desde la medicina lo arduo que es aprender a ver, y cómo se aleja de la experiencia cotidiana aquello que debemos ver. Incluso existe una disciplina especifica –la semiología- que enseña a ver aquello que deben ver, y describir los médicos. Sabemos que para la semiología, algo tan simple en la experiencia común como una mancha en la piel debe diferenciarse para ser descripta como una mácula, una pápula, un eritema, etc., y según la distribución y extensión que tenga, como morbiliforme, etc. Lo mismo sucede en diagnóstico por imágenes, y con mayor motivo que en clínica médica. No corresponde a nada de la experiencia común el que se pueda distinguir al corazón en una sombra blanca en el centro de una placa de tórax, o al sistema vascular pulmonar en las sombras que se alejan de ella dibujando el ramaje de un árbol. Sin embargo, constituye el andamiaje básico con el que se hace el diagnóstico por imágenes. En la notación lógica, cuando se habla de un individuo –sea de lo que sea- lo representamos por letras tales como las siguientes: a, b, c, etcétera. El perro Sultán, el paciente Oscarcito se representan de esta manera. Cuando se habla de un conjunto de individuos sin pormenorizar –una clase-, habíamos visto que utilizábamos la letra: x. Cuando se habla de una cualidad –un predicado-, se la representa con las letras P, Q , etcétera. En nuestro ejemplo, simbolizan a pápula, eritema, etcétera. iii. términos teóricos: Pronto se ve que la ciencia presenta términos que designan cosas y relaciones que no son directamente observables. Es sabido que los electrones y las demás partículas subatómicas así como el átomo mismo no pueden observarse. Tampoco la energía (en física), la neurosis (en psiquiatría), la valencia (en química), etc. Se advierte, además, que estos términos que se llaman teóricos, son los más característicos de las teorías científicas, aquello que las hacen distintas al conocimiento común. Esto hace que con el tiempo deje de insistirse en el carácter o no de observable de los términos teóricos, para centrarse en que constituyen el vocabulario propio que introduce cada teoría científica. Lo inadecuado del criterio de si lo que nombra es observable o no deja de tener relevancia cuando no se descarta que algún avance tecnológico permita “verlo”. 22 Así sucede, por ejemplo, con los cromosomas, en que las primeras versiones de la teoría genética de la herencia nombraban a factores aportados por ambos progenitores, pero que aunque explicaban los rasgos de los hijos basada en una combinatoria de los mismos, no se sabía dónde residían ni qué eran, y que en años posteriores se sitúan en el núcleo de los gametos, e incluso pueden fotografiarse. Desde el punto de vista lógico, no hay diferencias en los símbolos con los que se los representa. Pueden incorporarse símbolos especificos, haciendo la debida definición. Los enunciados de la ciencia Con las palabras –términos- de la ciencia se construyen oraciones informativas –enunciados- de distintos tipos. Ellos son los que pueblan las páginas de libros y artículos científicos. Distinguiremos tres niveles de enunciados. i. enunciados de Nivel I: Están formados por términos observacionales, que se refieren algún (o algunos) objeto (u objetos) observables, que presentan alguna o algunas propiedades observables. Un ejemplo de estos enunciados podría ser el siguiente: “El paciente de la cama 4 presentó temperatura alta esta mañana”. Cuando hablan de “algunos” –un número corto de ejemplares-, habitualmente se lo denomina una muestra. Como se refieren a situaciones perfectamente identificadas –con una precisa ubicación espacial y temporal-, la verdad o falsedad de lo que afirman puede ser constatada sin mayores esfuerzos ni dudas. Constituyen el nivel de los datos de la ciencia. A partir de ellos, las distintas metodologías infieren la verdad o falsedad de los enunciados siguientes. Presentaremos en notación lógica algunos enunciados de Nivel I característicos: P (a): el individuo a posee la cualidad P (Este paciente –Oscarcito- presenta una erupción morbiliforme) a R b: los individuos a y b están relacionados por la relación R. (Oscarcito estuvo con Juancito; Oscarcito es hijo de Joaquín, son ejemplos de relaciones. ii. enunciados de Nivel II: Los enunciados de Nivel II se encuentran formados por términos observacionales, pero que en vez de referirse a uno o algunos, se refieren a “todos”. “Todos los cuerpos que se calientan se dilatan” puede ser un ejemplo de estos enunciados. “Todos los pacientes a los que se administra paracetamol bajan la temperatura”, puede ser otro. Son enunciados que rigen 23 para todo tiempo y lugar, para todos los miembros del universo al que se refieren. Se denominan por este motivo enunciados universales. Aquí encontramos por primera vez a las leyes científicas, que son representadas por enunciados de este tipo. Como una particularidad suya, no puede establecerse su verdad por simple inspección – pese a que se trata de objetos y propiedades observables-, ya que es imposible tener ante la vista a la totalidad de una población, en todo tiempo y lugar, puesto que es –potencialmenteinfinita. Por este motivo, es crucial la relación que establecen con enunciados de Nivel I, un hecho del que se ocupa la metodología. La notación lógica de una ley científica es la siguiente: ( x) (Px Qx), que se lee así: para todo x, si presenta la propiedad P, presentará la propiedad Q). En nuestro ejemplo, para todo paciente, si presenta manchas de Koplic, presentará una erupción morbiliforme. Los enunciados universales son imposibles de verificar –dada la extensión ilimitada en tiempo y en espacio de objetos a los que se refiere-, pero fáciles de refutar, puesto que basta un solo caso falso para rechazar el universal, que ya no será verdadero para todos, como lo sostiene. Existe un curioso tipo de enunciado, cuyo término lógico característico introdujimos anteriormente. Se trata del enunciado llamado existencial, que a diferencia del universal habla de uno o algunos, pero con igual nivel de generalidad que éste, pues asimismo su dominio se extiende por todo tiempo y lugar. En notación lógica, un enunciado existencial podría ser el siguiente: ( E) (P x), que se lee: existe algún x que posee la propiedad P. Como veremos al hablar del método hipotético-deductivo, juega un papel importante en esta metodología. Por el momento sólo lo introduciremos para su consideración, haciendo notar que al contrario de los enunciados universales, son muy fáciles de verificar, ya que basta encontrar un caso que cumpla la propiedad P para que sea verdadero. Sin embargo, es imposible de refutar, puesto que aunque permanentemente se encuentren casos en los que no se cumple, un futuro caso podría cumplirla. Pese a sus dificultades, pueden guiar las investigaciones, como uno muy conocido de fines de siglo XIX, que expresaba que existen sustancias que matan a los microbios, pero no dañan al organismo humano. Pese a los continuados fracasos, Paul Ehrlich, científico alemán que obtiene el Premio Nobel en 1905 por sus estudios sobre la inmunología, logra la primera 24 sulfamida, el Prontosil, que se constituye en el primer antibacteriano general, salvando millones de vida y preludiando a los antibióticos. Debemos diferenciar los enunciados generales, como lo hace Popper entre los estrictamente universales, las auténticas leyes de la ciencia, y los enunciados universales numéricos, cuyos miembros se pueden enumerar, como sucede con un universo estadístico. Aquí “todos” habla de “todos los votantes de Argentina”, o “todos los niños de Latinoamérica”, que aunque abarque un número muy grande de casos, no es infinito como en las leyes. iii. enunciados de Nivel III: Los enunciados de Nivel III están formados por términos teóricos, y se refieren en el caso de las leyes teóricas, a “todos” los miembros del universo en el que se aplican. “Todos los átomos poseen un núcleo de neutrones, y están rodeados de electrones”, pudo ser un ejemplo cuando se sostenía el primer modelo atómico. “Todos los paranoicos resuelven inadecuadamente el complejo de Edipo”, sería un ejemplo si esta fuera una ley psicoanalítica legítima. Términos i. lógicos ii. empíricos a. observacionales b. teóricos Enunciados Nivel I: uno o algunos, de términos observacionales es el nivel de los datos, de la muestra Nivel II: todos, de términos lógicos y observacionales es el nivel de Leyes Observacionales puras Nivel III: todos, de términos lógicos y teóricos es el nivel de las Leyes Teóricas puras Enunciados Mixtos: de términos lógicos, observaciones y teóricos, Reglas de correspondencia 25 Aunque según una versión de la metodología en toda teoría científica existe un núcleo de enunciados de términos teóricos puros, no cabe duda de que en las leyes de la ciencia se mezclan términos que son teóricos con términos que no lo son. El ejemplo más notable lo constituye el segundo principio de Newton ( f = m . a ), en el que fuerza (f) y masa (m) son propios de la teoría, pero la aceleración de un cuerpo puede constatarse (observarse) sin recurrir más que la medida de distancia que recorre un móvil, y del tiempo que demora en recorrerla. En la medicina hipocrática, puede considerarse que existe una ley fundamental que expresa (aproximadamente), que tales o cuales signos (y síntomas) observables (según la semiología médica) son causados (en todos los casos) por alteraciones en los humores. En la medicina actual, se expresa que en todos casos los signos y síntomas son causados por alteraciones en la anatomía y fisiología de los órganos. En ambos casos, los signos (y síntomas) se consideran observables, mientras que “humores” y “anatomo-fisio-patología” son introducidas por cada una de las teorías médicas mencionadas, la de Hipócrates, y la actual, y por lo tanto son teóricas a su respecto. Enunciados mixtos Son enunciados formados por términos teóricos y términos empíricos. Sirven para dar una interpretación empírica a los enunciados teóricos puros teóricos, conectándolos términos teóricos con términos observacionales. Pueden llamarse también “Reglas de correspondencia”, o en otra terminología, “Diccionario”. Un ejemplo de la medicina actual podría ser el siguiente: “La resolución del proceso de inflamación en los tejidos bronquiales da como resultado la desaparición de los roncus y sibilancias bronquiales”, en el que “inflamación de los tejidos bronquiales” aparece como más teórico, puesto que no es observable para el clínico, mientras que los roncus y sibilancias, los sonidos que hacen los bronquios inflamados pertenecen a un lenguaje observacional especializado. La notación lógica de los enunciados teóricos puros y mixtos no difieren mayormente de los enunciados de Nivel II. Síntesis Si sintetizamos lo visto hasta el momento tenemos que: i. el lenguaje en el que se expresa la ciencia es el lenguaje informativo ii. sus elementos más simples, el tipo de palabras –términos- que lo integran, se distinguen entre términos lógicos, observacionales y teóricos iii. las oraciones –enunciados- que pueden formarse con ellos, son de distintos niveles, que van desde el nivel de los datos (I), al de las leyes empíricas (II), y de las leyes teóricas (III) 26 iv. Los enunciados teóricos pueden ser teórico puros, o mixtos. Si bien la notación lógica de leyes científicas específicas puede ser considerablemente más compleja que los ejemplos muy simples que manejamos, dado que presentan el mismo esquema básico de representación en lo que sigue del curso no iremos en lo posible más allá de esta notación básica. La metodología científica desde el punto de vista del lenguaje de la ciencia Se descarta, como expusimos, la versión que hace de la ciencia lo que está en la mente de los científicos, o un conjunto de “ideas” porque no se sabe con exactitud de qué se habla cuando se las menciona. En cambio, los enunciados de la ciencia son públicos, y su referencia es clara. Podemos expresar ya el problema metodológico por excelencia en su versión lingüística, entonces, a partir de estas consideraciones. Es el siguiente: si sólo podemos conocer la verdad o falsedad de los enunciados que exponen los datos de los que dispone la ciencia, ¿cómo pueden sostenerse las leyes científicas, que hablan de lo que ocurre en todo tiempo y lugar, y acerca de lo cual no podemos tener ninguna experiencia? ¿cómo se justifica el paso de enunciados de Nivel I a enunciados de Nivel II? En la metodología inductivista, la verdad de los datos (enunciados de Nivel I) constatada por la experiencia, permite establecer la verdad de las leyes empíricas (enunciados de Nivel II), haciendo una generalización. Según Bacon –el primero en ocuparse de la metodología de la ciencia-, la ciencia es inductiva. Agregamos a nuestra síntesis anterior el siguiente punto: la relación de inducción entre el Nivel I y el Nivel II permite justificar –para el inductivismopor los datos de la experiencia a las leyes científicas. En el próximo capítulo caracterizaremos adecuadamente la metodología inductivista, sus aciertos, los problemas que presenta, y cómo debió ser reemplazada por la metodología hipotético-deductiva. 27 6 La inducción En el capítulo anterior, habíamos caracterizado al método inductivo como aquel que nos permite pasar de Enunciados de Nivel I que hablan de propiedades observables de uno o varios ejemplares, a Enunciados de Nivel II, que hablan de la todos los ejemplares en estudio en todo tiempo y lugar –llamando a los enunciados con estas características, leyes-. El razonamiento por medio del cual se generalizan los resultados encontrados en pocas ocasiones se denomina inducción, y fue presentada por Francis Bacon (filósofo nacido en Londres en 1561 y muerto en la misma ciudad en 1626) como el método propio de la ciencia. Habíamos mencionado asimismo que se propuso un método para la ciencia una vez que la historia hizo que no fuera posible que la religión o la autoridad pudiera invocarse como fuente de conocimiento. Pues bien. El método inductivo garantizaría que el conocimiento científico fuera verdadero. En realidad, no podía menos que ser así. Si se parte de hechos conocidos de primera mano por observación de los mismos –y por lo tanto verdaderos- no se puede menos que llegar también a generalizaciones –leyes- verdaderas. 28 Este razonamiento tiene su base más firme en el conocimiento cotidiano. En la vida de todos los días se hacen permanentemente inducciones, incluso a partir de una sola observación. Después de todo, nuestra misma supervivencia depende de que sepamos cuales son las cosas y circunstancias que permanecen estables en nuestro entorno, a fin de que podamos movernos en él con seguridad. Las calles que recorremos siempre llevan al mismo sitio, nuestro automóvil responde siempre de la misma manera, la facultad de medicina se encuentra siempre en el sitio en el que la conocimos cuando concurrimos a ella por primera vez. Tenemos que estar seguros de nuestra comida, del afecto de quienes nos rodean, de la comodidad de nuestro hogar. Adquirimos estas seguridades de manera inductiva, porque tenemos constancias de que así es, de que así son las cosas, por una experiencia cotidiana de que ocurren de esta manera y no de otra, incluso –como en el caso de la facultad de medicina- cuando lo hayamos experimentado por una única vez. Estas son leyes muy simples, pues toda situación constante puede ser expresada a la manera de una ley, ya que establece que siempre algo es de cierta manera, y fueron obtenidas de manera inductiva (recordamos el ejemplo más simple de ley, que consta en todos los textos: todos los cuervos son negros). Sin embargo, pronto se advirtió que las inducciones no llevan inexorablemente a leyes verdaderas. No llevan de la verdad en los Enunciados Nivel I, a la verdad de los Enunciados de Nivel II. Inducciones tan simples como las del cariño de nuestro perro, se ven desmentidas cuando nos muerde (es sabido que la mayoría de las mordeduras de perro ocurren en el hogar, a miembros de la familia). Ejemplos cotidianos, un poco más elaborados muestran lo mismo. Es sabido, por inducción, que el pan alimenta. No obstante, en el sur de Francia, el pan provocaba la locura de quienes lo consumían (un hecho registrado en la obra de teatro de Carlos Gorostiza “El pan de la locura”); se descubrió que se debía al cornezuelo de centeno cuando el grano tiene determinado grado de humedad. Sabemos que el sol sale todos los días; cuando llegaron relatos de viajeros que contaban que hacia el norte, muy hacia el norte el sol no moría con el día, nadie les creyó; tan firme era la inducción cotidiana. En ciencia sabemos, por ejemplo, que aunque se pensó que la penicilina curaría siempre a la neumonía, llegó el momento en que dejó de hacerlo. Otra inducción fallida. Bacon, que trata de fundamentar a la verdad en la ciencia a partir de la inducción, como no puede dudar de aquello que se observa, ni de la misma inducción que propone como solución al problema del conocimiento científico, piensa que el error se debe a diversos ídolos de que existen en la sociedad, y que entorpecen la inducción, mezclándose con el conoci29 miento verdadero. Estos ídolos son los prejuicios, los falsos conocimientos, los intereses. Este razonamiento basado en ídolos a los efectos de entender a los errores en la ciencia entra en el pensamiento social y económico con el nombre de ideología, como se denomina a la deformación de la percepción que experimentan quienes miran los fenómenos sociales desde el particular punto de vista de su grupo social –una visión que por lo tanto es parcial, y potencialmente falsa-, en vez de mirarlo desde todos los puntos de vista posibles, una condición básica de la objetividad requerida por el conocimiento científico (basta pensar en la percepción diferente de los fenómenos sociales según se los mire desde los organismos internacionales, o desde los desocupados; desde los bancos, o desde los ahorristas defraudados). Después de Bacon, se acepta que la inducción no es infalible, y que puede conducir de un conocimiento limitado a algunos casos verdaderos, a leyes que no son verdaderas. Lejos de ser un inconveniente, en realidad se piensa que es el mecanismo por el cual se llega a mejorar el conocimiento científico: cuando el resultado de una inducción se muestra falso, se lo corrige mediante nuevas inducciones. Sabemos ahora porqué la penicilina no cura todas las neumonías, y sabemos también qué antibiótico corresponde dar en cambio, en cada paciente determinado. Desde una lectura inductivista, el aumento del conocimiento científico se realizó mediante la aplicación consecuente de este método. A la luz de estas consideraciones, la inducción fue vista, sin dudarlo, como el método propio de la ciencia. Pronto se vio que los pasos del método inductivo podían ser completados añadiéndole una serie de maniobras adicionales a fin de hacerlo más eficaz. A ellas nos referiremos a continuación. 30 S ECC I Ó N 1 Los métodos de la inducción Los métodos inductivos: concordancia y diferencia El método inductivo clásico se denomina inducción por enumeración. Consiste en hacer constar las ocasiones –numerosas- en que a una circunstancia dada, sigue un siempre un mismo efecto. En las investigaciones de Claude Bernard, el gran investigador francés, sobre el curare, había abundantes constancias de que a la herida por una flecha envenenada con curare sigue indefectiblemente la muerte del animal o persona que la recibe. La inducción consiste en formular una ley general que exprese: “Todo animal herido con curare morirá envenenado”. Se hace ver que la ley adopta la forma de un enunciado general –habla de todos-, en el que hace una predicción acerca de lo que sucederá. El predecir un suceso es la meta del conocimiento, y por supuesto, de la ciencia: esas presunciones son la base del éxito de las acciones de los hombres en su medio natural y social. Muy tempranamente se vio uno de sus principales defectos: si se registra como dato relevante sólo aquello en lo cual sucede algo en circunstancias determinadas –sus instancias positivas-, prácticamente puede inducirse una ley de innúmeros hechos que nadie pretende que formen parte de la ciencia. Curaciones milagrosas, levitaciones, ovnis, fenómenos paranormales, todos ellos tienen numerosas instancias positivas, registradas por testigos, que llevan a que –en el contexto de la inducción simple- se formulen leyes que se piensa no son tales. 31 John Stuart Mill La manera de controlar a la inducción simple consiste en una serie de métodos cuya autoría se atribuye a John Stuart Mill (1806-1873). Tiende a no mencionarse que al menos dos de ellos, los más conocidos, pertenecen a la tradición médica desde los tiempos de Hipócrates, quien fue el primero en mencionarlos textualmente. Me refiero a los métodos de la concordancia y de la diferencia. El primero de ellos, método de la concordancia, estipula que si hay una serie variable de factores siempre que ocurre un determinado fenómeno, se atribuye una relación causal a aquel que aparece en todas ellas. Un ejemplo de esto podría ser el caso de un médico que es llamado porque se intoxicaron algunos de los miembros de la familia. El interrogatorio permite ver que todos ellos comieron una serie de alimentos de una mesa tendida, aunque algunos unos, y otros posiblemente otros, pero los que enfermaron comieron, todos ellos, una ensalada de pescado, mientras los demás no lo hicieron. El método de la concordancia permite decir que la causa de la intoxicación es esa ensalada. Una investigación que sigue los cánones de Stuart Mill permitió encontrar un factor común en aquellas ciudades en las cuales los habitantes registraban una media inferior a la nacional de enfermedades dentales, más allá de su situación geográfica o económica. Este factor era la existencia de cantidades mayores a las habituales de fluor en el agua. El paso inductivo fue inferir que el fluor previene las caries, y proponerlo como tal, agregándolo al agua potable allí donde falta o es escaso. 32 Tiene el inconveniente de que no siempre se encuentra un único factor que comparten todos aquellos que presentan un fenómeno dado, y no se puede discriminar a cuál atribuirlo. Se lo hace con el segundo método inductivo, del que nos ocupamos a continuación. El método de las diferencias consiste en que si se sabe que la producción de un fenómeno determinado se encuentra precedida por una serie de factores, y el fenómeno no se produce cuando falta uno de ellos, se infiere que el mismo es la causa, o una parte indispensable de la causa del mismo. Un buen ejemplo puede constituirlo la investigación bacteriológica, cuando se encuentra que una enfermedad infecciosa se produce invariablemente en presencia de un microorganismo determinado, y no se produce en su ausencia. Debido a que se complementan en encontrar la causa de un fenómeno, habitualmente ambos métodos tienen una expresión común en lo que se conoce como el método –conjunto- de las concordancias y las diferencias. Para quienes lo desconozcan, recordamos que hace más de dos mil años antes que Stuart Mill, Hipócrates expresó: “Las enfermedades son el resultado de una amplia variedad de causas y debemos considerar causas seguras de una afección, todas aquellas cosas cuya presencia es necesaria para que aparezca, y cuya ausencia determina su desaparición.” No es difícil advertir que es otra manera de formular el método de las concordancias y las diferencias. Como observamos, hasta ahora los métodos tienen que ver con evaluar qué sucede si se eliminan algunos de los factores en juego: en la concordancia, se eliminan los accesorios; en la diferencia, el principal. Nos referiremos a continuación en un método en el cual la eliminación de factores no juega ningún papel. Se trata del método de las variaciones concomitantes, el que afirma que un fenómeno que varía cuando lo hace un factor determinado, indica que este último está conectado al primero por alguna forma de causalidad. No es ocioso mencionar que los distintos métodos de Stuart Mill (y de Hipócrates) se encuentran en la base de los métodos estadísticos, que se basan, por lo común, en la inferencia inductiva, a la que continúan en nuestros días. Pese a que la inducción fue considerada el método científico por antonomasia, y que la metodología estadística tiene mucho que ver con la inducción, esta creencia comienza a ser demolida cuando el filósofo escocés David Hume (1711- 1776) sostiene, con buenos argumentos, que la inducción misma –aquello que justifica a la ciencia, su método- no se encuentra justificada. Desarrollos posteriores muestran que la inducción no puede explicar a toda la ciencia. 33 Esto hace que hacia 1930, el filósofo vienés Karl Popper proponga que la ciencia no es -como se pensaba- inductiva, sino hipotético-deductiva. A su luz, incluso los más característicos métodos inductivos son revisados, y reordenados. Nosotros, médicos, debemos recordar que el método hipotético-deductivo fue planteado unos 70 años antes por el fundador de la fisiología moderna, Claude Bernard, en su clásico libro Introducción al método de la medicina experimental. La próxima sección está destinada a narrar cuáles son los problemas de la inducción, las consecuencias que tiene para la ciencia, y cómo estos problemas son resueltos desde la metodología hipotético-deductiva, de una manera que constituye un rechazo a la inducción como método científico. 34 S ECC I Ó N 2 La inducción y sus problemas En la sección anterior, presentamos al método inductivo y a sus principales características. Considerado el método de la ciencia, propone una secuencia de pasos en las investigaciones científicas que son las siguientes: i. observación de un hecho dado; desde la investigación fisiológica, Claude Bernard pasa de la observación simple, a la realización de “experimentos para ver” como medio de realizar las observaciones ii. generalización inductiva provisoria: propuesta de una ley; iii. variación de las condiciones, siguiendo las metodologías de Stuart Mill, fundamentalmente las de la concordancia y las diferencias, que ponen a prueba la inducción primera; iv. establecimiento más firme de la ley obtenida inductivamente. Aunque se consideraba sólidamente aceptado, al punto que incluso en nuestros días se lo menciona como uno de los método centrales de la ciencia, ya desde el Siglo XVIII comienza a ponérselo en duda, a partir de la obra del filósofo escocés David Hume (1711-1976). El cuestionamiento de Hume tiene que ver con la justificación misma del método inductivo, sin que todavía se piense en reemplazarlo. Recién con la aparición de la metodología hipotético deductiva a mediados del Siglo XX, se perciben claramente que existen otros problemas en la inducción. Si los enumeramos, son los siguientes: i. problema de porqué hacemos inducciones (justificación de la inducción) ii. problema de qué observar; iii. problema de los términos teóricos Nos referiremos sucesivamente a todos ellos. La justificación de la inducción 35 Hume constata que efectivamente se realizan inducciones, y se pregunta porqué las hacemos. Esta pregunta es similar con respecto a la inducción, a la pregunta metodológica de porqué hacemos las afirmaciones científicas, y cuya respuesta correcta es, como recordamos la siguiente: los enunciados de Nivel I (enunciados que hablan de cosas y propiedades observables en uno o un grupo pequeño de casos), porque los constatamos directamente; los Enunciados de Nivel II (leyes que hablan de sucesos observables en todo tiempo y lugar, habla de Todos, mientras que el nivel I habla de este o estos), por inducción, generalizamos a todo tiempo y lugar lo observado en el Nivel I. Debiera haber alguna razón para hacer inducciones –generalizaciones- a partir de lo que se observa. Debiera haber algún motivo por el cual a pesar de que sólo tenemos una experiencia pequeña y limitada, hablamos de algo que no conocemos, y que sucede en todo tiempo y lugar. Hablamos de todo el pasado, y de todo el futuro, en lugares a los que no conocemos, y en los que no estaremos jamás. (Esto es lo que hacen las leyes) Hume sostiene que sólo es posible si existe un Principio de la Inducción que permita pasar de enunciados de Nivel I a enunciados de Nivel II (leyes empíricas). El Principio de la Inducción que propone para considerar autorizada una inducción determinada expresa algo por el estilo: “Si se observa que un suceso ocurre de una misma manera en un número suficientemente grande de casos, se está autorizado a afirmar que sucede en todos los casos, en todo tiempo y lugar”. De esta forma, si se observa un número suficientemente grande de veces que las manchas de Koplik en la boca están siempre presentes antes de que brote una erupción sarampionosa, estamos autorizados a decir que eso sucederá siempre. Aunque presenta el problema de que no se precisa a qué se llama “un número suficientemente grande de casos” –dejándolo en la indefinición-, y de que se hacen inducciones válidas a partir de un solo caso, como el inducir que un martillo nos servirá siempre –descontando que no se rompa- para clavar clavos, aunque lo probemos una única vez, o que la casa de nuestro amigo siempre estará en el mismo lugar, no es a estos cuestionamientos a los que se refiere Hume con el “problema de la inducción”. Su observación es que este principio tiene que tener, a su vez, algún tipo de justificación. Existe una primera respuesta: i. se encuentra justificado por la experiencia, es una especie de ley. Pero si es así, debe ser afirmada pues se ha comprobado que así es, un número suficientemente grande de casos. Como se advierte, esta es una inducción, y Hume descarta esta justificación por su carácter circular. No es posible que el principio de la inducción que justifica a la inducción, se justifique mediante una inducción. 36 Descartado que no puede ser una ley de la experiencia, se abren dos opciones: ii. se trata de una ley lógica iii. se trata de un principio a priori Es sencillo ver que no se trata de una ley lógica. Como se sabe, las leyes de la lógica conservan la verdad en toda la secuencia que va de las premisas a la conclusión. Si las premisas son los casos observados, y la conclusión su generalización en forma de ley, era conocido que podía ser falsa. Las mejores leyes científicas fueron superadas, y su falsedad hecha evidente. Por lo tanto, la inducción puede conducir de la verdad de las observaciones, a una generalización falsa. No se trata, entonces, de un principio lógico. La tercera opción, que agota todo el abanico de opciones, es que sea un principio a priori. Con respecto a esto, Hume constata que para saber algo de un objeto es necesario explorarlo, investigarlo previamente. Su conocimiento ocurre en la experiencia, y no puede ser, por lo tanto, a priori. La conclusión de Hume es que el principio de la inducción al no ser de la experiencia, a priori, o de la lógica, se encuentra injustificado. Como una consecuencia de esto, el mismo conocimiento científico, aquello que debemos justificar, se basa en un principio injustificado. No es una casualidad que Bertrand Russel acuse a Hume de ser el iniciador el escepticismo contemporáneo. La salida que encuentra Hume a esto deja la sensación de no ser una respuesta legítima. Dice, simplemente, que nosotros, y todos los seres vivos, hacemos inducciones para movernos en nuestro medio. Se lo hace a la manera de un hábito, que hunde sus raíces en las leyes de la naturaleza. Como se ve, constata un hecho, pero no lo justifica. El problema que presenta Hume arroja dudas, desde entonces, sobre la legitimidad de la inducción, y es discutido extensamente. Entre quienes mantienen la creencia de que la inducción es el método de la ciencia, una posible salida consiste en asimilarla a la probabilidad estadística, en la que los casos reunidos dan apoyo estadístico –inductivo- a las leyes científicas. Sin embargo, como vimos en el artículo anterior, la estadística presenta el mismo problema que la inducción simple. La probabilidad, por otra parte, tomada en sus preceptos más generales, tiene su propio problema de justificación, ya que descansa en el principio de que los sucesos a los que se atribuye la probabilidad de ocurrir, son equiprobables, es decir, tienen la misma probabilidad de que ocurran. La noción de que la probabilidad de que salga un número en un dado sea de uno en seis, depende de que el dado no esté cargado hacia uno de ellos, haciendo que se rompa esa equiprobabilidad, y por lo tanto, haciéndola imposible de calcular. Pese a todo el esfuerzo realizado, no hay, aparentemente, manera de escapar a los cuestionamientos de Hume. 37 ¿Qué observar? Si bien se sostiene que la inducción comienza por la observación, el método no brinda ninguna indicación acerca de lo que se debe observar. Popper, años después, lo expresa de la siguiente manera: “"Pero si se me ordena 'registre lo que experimenta ahora', apenas sé como obedecer esta orden ambigua: ¿he de comunicar que estoy escribiendo, que oigo llamar un timbre, vocear a un vendedor de periódicos, o el hablar monótono de un altavoz? (...) Incluso si me fuera posible obedecer semejante orden, por muy rica que fuese la colección de enunciados que se reúnen de tal modo, jamás vendría a constituirse en una ciencia: toda ciencia necesita un punto de vista y problemas teóricos". Quienes asesoramos a jóvenes investigadores, sabemos que una de las principales dificultades que tienen es la de saber cuál es el sector de la realidad que deben investigar. No es con la metodología inductivista como van a resolver su problema. ¿Existe inducción de términos teóricos? Habíamos mencionado que toda teoría científica posee términos que no remiten a objetos o relaciones que sean inmediatamente observables, los términos teóricos, que son lo más característico de la ciencia con respecto al conocimiento común. Atomo, valencia, gen, clase social, inconsciente, pertenecen a la física, la química, la genética, la sociología, la psicología, y no son observables, al menos de una manera directa. Pues bien. Como la inducción propone leyes mediante la generalización de hechos observables, no hay modo de que llegue a plantear leyes con términos teóricos, que no corresponden a hechos observables. Estamos, entonces, ante un nuevo cuestionamiento a la inducción, y esta vez mostrando su fracaso en justificar las leyes más importantes de la ciencia, aquellas que poseen términos teóricos. En la terminología que adoptamos, no puede llegar a Enunciados de Nivel III. Como máximo podría llegarse inductivamente a enunciados empíricos de Nivel II, como uno que dijera que “Todos los cuerpos se dilatan”, luego de observar la dilatación de algunos cuerpos. Pero no a los enunciados de la teoría de Newton, de Einstein, la genética, o la teoría de Freud. Se admite que la única explicación posible es que desde la observación a las leyes hay además de generalización, un salto creativo que lleva a leyes con términos teóricos. No es sencillo conciliar el salto creativo con la inducción. Hay entre ambos una contradicción insalvable. 38 39 S ECC I Ó N 3 Empirismo, inducción y neo positivismo El neo-positivismo Es posible decir sin equivocarse que toda la filosofía de la ciencia –epistemología- contemporánea, de la que somos su continuación, nace con el neo-positivismo, una corriente filosófica que aparece en Viena en 1920, luego de que el grupo que lo funda se da a conocer con un Manifiesto inaugural bajo el nombre de Círculo de Viena. Hasta ese momento, la reflexión acerca de la ciencia la realizaban filósofos aislados –como Platón, Berkeley, Hume, Descartes, Kant, Hegel-, o científicos aislados –como Helmhotz, Claude Bernard, Newton-. Con el Círculo de Viena, pasa a ser la reflexión de un grupo notable de científicos y filósofos, en el cual las opiniones de unos son comentadas, corregidas o ampliadas por otros, y los resultados expuestos en revistas especializadas, libros, y en reuniones científicas y filosóficas, pareciéndose cada vez más a la misma actividad científica, que se caracteriza por la interacción entre los miembros de quienes practican la investigación. Entre los científicos de más nombre que firman el Manifiesto se encuentran Alberto Einstein –suficientemente conocido-, y Bertrand Russell, fundador de la lógica moderna, y autor con Albert Whitehead de un monumental tratado de lógica y matemática conocido como Principia Mathematica, aparecido poco antes de finalizar el Siglo XIX. Entre los filósofos, aunque menos conocidos, mencionaremos a Rudolf Carnap, Moricz Schlick –profesor de la Universidad de Viena, en cuyo seminario se funda el Círculo-, Otto Neurath, R. Waismann; también son miembros algunos lógicos notables, como Kurt Gödel, que revoluciona a la lógica y las matemáticas con un teorema célebre, y que con Alberto Tarski probablemente sean los lógicos más notables e influyentes del Siglo XX, además del propio Russell, que vive largamente en ese siglo, pero cuyos trabajos más importantes son anteriores a los de estos autores. Un filósofo inspira los primeros años del Círculo de Viena, aunque no pertenece formalmente al mismo. Se trata de Ludwick Wittgenstein. Son nombres poco conocidos entre los médicos –salvo los de Russell y Einstein- pero a los que es necesario recordar en todo su valor. Al partir de bases comunes, los resultados que se obtienen en el análisis de la ciencia se acumulan, progresando su conocimiento de una manera en la que no lo había hecho antes. 40 En los años 30, Schlick es muerto de un escopetazo por un estudiante fanatizado por la propaganda nazi, la universidad tomada por asalto, y finalmente la propia Austria unida a la Alemania nazi. Los miembros del Círculo de Viena se dispersan fundamentalmente por el mundo anglosajón, ocupando las principales cátedras de esos temas. La dispersión se traduce en una mayor influencia científica y filosófica, que hace de este grupo la corriente hegemónica en filosofía de la ciencia, una influencia que se extiende hasta nuestros días, cuando las corrientes actuales surgen no en un vacío, sino continuándolo, aun dentro de la oposición de algunos de sus principios. El nombre de neo-positivismo hace referencia a que considera –al igual que el positivismo de Auguste Compte (filósofo francés nacido en 1798 y muerto en 1857)- que el único conocimiento válido es el científico, y que ni el mito, la religión o la metafísica son fuentes legítimas de conocimiento, como se las consideraba anteriormente. Difiere del antiguo positivismo, en que utiliza las herramientas de la nueva lógica matemática para analizar el conocimiento científico. El empirismo Esta teoría del conocimiento plantea que lo que sabemos del mundo comienza con los datos que aportan los sentidos, los que posteriormente se asocian entre sí. Como se advierte, en el empirismo lo único que hay son impresiones sensoriales que se imprimen en el intelecto como si éste fuera una hoja en blanco -tábula rasa es el nombre tradicional con que se lo menciona, recordando la tablilla (pizarrón) en el cual escriben alumnos y maestros-. Quizás la única función que desde el empirismo se le atribuye a la inteligencia sea esa capacidad de unir las impresiones de los sentidos –asociarlas- según dice Hume, para construir a partir de allí el conocimiento de las cosas. Para que se comprenda acabadamente esta posición, de una gran sencillez conceptual, diremos que para otras corrientes epistemológicas el papel del intelecto puede ser más activo, comprendiendo otras funciones, e interviniendo –como veremos luego- incluso en la percepción de elementos, a los que organiza de una manera específica. Por aceptar que el empirismo es la teoría del conocimiento que corresponde al conocimiento común, y también a la ciencia, el neo-positivismo recibe asimismo el nombre de empirismo lógico. Agrega al empirismo tradicional mucho más que la simple asociación entre elementos, pues piensa que la forma mediante la cual los individuos construyen el conocimiento es con las reglas constructivas de la lógica. 41 Si lo expresamos en un lenguaje posterior al “giro lingüístico” que explicamos en artículos anteriores, a partir de los Enunciados de Nivel I -que corresponden a lo que perciben los investigadores- se construyen de manera lógica enunciados más complejos, con los que se describen tanto a los objetos de la experiencia común como las relaciones que guardan entre ellos. Posteriormente, en la versión inductivista del empirismo lógico, mediante la inducción se llega a las leyes, o Enunciados de Nivel II. Las leyes pueden conectarse unas con otras mediante la deducción lógica. Como el primer positivismo, que pensaba que el conocimiento pasaba por tres etapas sucesivas, en las que las fases teológica (mítica primero, luego religiosa), y metafísica anteceden al conocimiento positivo o científico, el neo-positivismo separa a los enunciados de la ciencia de los enunciados metafísicos, expresando que los primeros se caracterizan por ser verificables. En cambio, los enunciados metafísicos carecen de sentido. Un ejemplo característico que mencionan en ocasiones es “la nada nadea”, una expresión que pertenece a los escritos de Martín Heidegger, un metafísico alemán de sólido prestigio actual, pese a su carácter de filósofo oficial del nazismo. La ciencia aporta pruebas de la verdad de lo que afirma basada en la experiencia observable, la metafísica no. La línea de demarcación entre ciencia y metafísica está dada por la característica de los enunciados de la primera de ser verificable por la experiencia observacional Por este motivo, la ciencia se basa en los Enunciados de Nivel I, a los que llama también Enunciados Observacionales, para remarcar esta característica empírica de los mismos, y de la capacidad, por lo tanto, de poder decidirse si son verdaderos o falsos mediante la simple inspección de lo que ocurre. Veremos luego que en la terminología adoptada por el hipotético-deductivismo se llaman Enunciados Básicos, a fin de despegarlos de un criterio engañosamente sencillo basado en la observación. Buena parte de la literatura neo-positivista se ocupa de aclarar en qué consisten los Enunciados Observacionales. Aunque primeramente los datos que admite como tales se refieren sólo a impresiones de los sentidos, tales como color, tamaño, etcétera, pronto se advierte que no son suficiente, y entonces se opta por aceptar que los mismos se refieren a propiedades de objetos macroscópicos. Ambas formas de entender a lo más básico del conocimiento tienen su cuota de razonabilidad. El primer criterio, que propone que se trata de impresiones de los sentidos, da cuenta del hecho de que probablemente vemos distintas cualidades aisladas –color, forma, tamaño, superficie, etcétera- a las que una función de la inteligencia une para reconocer un objeto definido, nombrándolo como tal. Sin embargo, aun aceptando esta forma de empirismo para el conocimiento común, los Enunciados de Nivel I no pueden referirse a sensaciones; sabemos que los datos de la ciencia surgen de observar objetos macroscópicos naturales –animales, vegetales, seres humanos, mi42 nerales, elementos geográficos-, o de datos que aportan otra clase objetos macroscópicos, como lo son los aparatos de medida, analizadores electrónicos o digitales, y los que se incluyen en los distintos diseños experimentales. Este es el motivo por el cual se propuso el segundo criterio. Ya mencionamos el origen del nombre de neo-positivismo con que se conoce a la corriente en la que origina la filosofía de la ciencia, y sus diferencias con el positivismo primer. Diremos ahora que se llama asimismo empirismo lógico, por aceptar el empirismo como la teoría del conocimiento que corresponde a la ciencia, llegándose de enunciados observacionales a las leyes mediante la inducción. Su objetivo es fundamentar al conocimiento científico mediante la verdad de los enunciados de observación, al que se une el rigor formal de la lógica, diferenciándolo de la metafísica, esa rama de la filosofía que pretendía obtener conocimiento del mundo mediante la sola razón, mediante la especulación vacía. La ciencia aporta pruebas de la verdad de lo que afirma basada en la experiencia observable, la metafísica no. Defensa neo-positivista del empirismo frente al problema de la inducción Ante la evidencia de que las leyes de la ciencia pueden ser falsas, y que la inducción no es un método seguro para obtener leyes verdaderas, algunos de sus miembros optan por hablar de la probabilidad de las leyes –a la que ya nos hemos referido-. En otros, la defensa es más radical, ya que consiste en negar que las leyes sean enunciados auténticos. Si no son enunciados, no son, como lo son éstos, verdaderas o falsas. Pese a que parecen enunciados, se trata de instrumentos para que el pensamiento pueda pasar de un hecho observado a otro, de lo que se conoce a lo que sucederá. Recordemos que una ley dice –aproximadamente- que si sucede tal cosa, sucederá tal otra en todo tiempo y lugar. El instrumentalismo –la posición que sostiene que las leyes son instrumentos- expresa que habiéndose observado un hecho dado, se pasa a decir que tal otro sucederá en el futuro. En este sentido, no es un enunciado, sino una simple herramienta, una especie de regla gramatical con la cual construir un enunciado determinado. Las reglas –o los instrumentos-, lo sabemos, no son verdaderas o falsas; simplemente son útiles para los fines que se persigue con ellas. Las leyes, vistas como reglas, y no enunciados, no tienen contenido de verdad, no pueden ser verdaderas o falsas. La jugada instrumentalista permite evadir el hecho de que por inducción, se llega a leyes falsas. (Mencionamos que el neo-positivismo define a la ciencia como conocimiento verdadero. Si las leyes no lo son, lo más característico de la ciencia cae por fuera de esa definición.) Sin embargo, como se constata, no puede responder porqué si las leyes y las teorías científicas no expresan conocimiento del mundo –según el instrumentalismo sólo hay conocimiento de hechos expresados en Enunciados Observacionales-, la teoría atómica –que supuestamen43 te no describe nada real- permite crear una fuente de energía basada en los átomos, e incluso desarrollar una bomba. Esto significa que hay átomos, tal como lo describe la teoría. Como lo expresa Karl Popper, el clásico adversario del empirismo y del inductivismo, la ciencia permite expandir el mundo de lo conocido, y agregarle los universos de lo sumamente pequeño, tal que sólo se aprecia con microscopios de alto poder, o tanto, que ni siquiera puede verse con ellos, como los átomos, y sus distintos componentes. También agrega a nuestro conocimiento el mundo de las galaxias, los agujeros negros, y tantos otros, que sin teorías que no se limitan a lo que se observa, nos enseñan a observar y a utilizar para nuestros fines, aquello que no observamos directamente. No hay manera tampoco de escapar al problema de la inducción, ni a la potencial falsedad de las leyes de la ciencia tampoco desde el instrumentalismo, esa filosofía de la ciencia que fracasa en sus fines tanto como la misma inducción. La observación, más allá del empirismo En cuanto a la observación, desde la que comienza el método, es incluso más compleja de lo que supone el empirismo y el inductivismo. Consideraremos primero muy brevemente que es la inteligencia, y no es la simple percepción la que permite ver el mundo. Luego argumentaremos que esta forma de percibir no es espontánea, sino que es aprendida. Con respecto a las relaciones entre la inteligencia y la observación daremos dos ejemplos. Si desde dos metros de distancia, y desde la izquierda observamos una mesa, y luego nos preguntamos de qué forma es, inmediatamente contestamos que rectangular –oponiéndola a cuadrada o redonda-. Sin embargo, no la vemos rectangular, sino, debido a la perspectiva, como una especie de trapecio. Decimos que le vemos de una cierta manera, pues sabemos que es así. Lo mismo sucede si preguntamos si la fotografía de una habitación –o de lo que sea- es igual a lo que vemos desde el lugar en que está emplazada la cámara. La respuesta inmediata es que sí. Pero apenas hacemos la prueba constatamos que el ángulo de visión humana nítida es muy estrecho, apenas una cuarta parte de lo que abarca un lente normal. Es la inteligencia, nuevamente, la que hace que nuestra imagen interior sea más amplia, como si uniera entre sí a los pedazos nítidos de percepción, para que tengamos presentes una relación más adecuada de los objetos, aunque la percepción sea estrecha. Finalmente, esto tampoco es suficiente para comprender a la observación científica. Es una percepción organizada –Gestalt, es su nombre correcto-, con lo que se expresa que no es por datos aislados que luego de asocian, sino que desde el principio es en bloque, en conjunto de aquello que se percibe, permitiendo distinguirlo lo que efectivamente es. En los ejemplos más sencillos, se percibe una mesa, un pato, o una magnolia como tales, globalmente, sin que tengamos una percepción por partes que luego se juntan. 44 Inmediatamente luego de mencionar estos casos sencillo, se advierte que tiene que ver con lo que se conoce de ellos. Si no conocemos una magnolia, no la percibimos como tal, y numerosos detalles integran esta planta se nos escapan. En esta versión, es el conocimiento el que estructura a la percepción. Conocemos como médicos este ver a un paciente en su totalidad, a simple golpe de vista, y distinguir simultáneamente aquello que lo aqueja. Se lo denomina habitualmente “ojo clínico”, y su posesión caracteriza a los médicos con experiencia, una experiencia que les enseña ver lo que otros no alcanzan a percibir, aún con mayor agudeza visual. Desde el punto de vista del diagnóstico por imágenes, sabemos de las dificultades para enseñar a ver lo que hay en una simple placa de tórax, los errores de percepción en los que incurren los aprendices, y que sólo la guía de quienes saben pueden corregir. Las “cavernas apicales” que son simples imágenes formadas por la primera costilla, los “tumores mediastínicos” que son pulmonares marcadas, la “fibrosis” que es simple trama pulmonar, son algunos de estos casos, que se acentúan al pasar a estudios dinámicos como los digestivos. No siempre se es consciente de la enorme dificultad perceptiva que implica el diagnóstico por imágenes. Es necesario en primer lugar, el conocimiento acabado de la anatomía, y estar en posesión de un sistema de transformaciones que permita pasar de las imágenes del libro de anatomía, a las imágenes –tan diferentes, en ocasiones- que captan las placas radiográficas; algo que se acentúa en la ecografía, con sus cortes tomográficos a veces tan atípicos, con los que componemos en nuestro psiquismo una imagen tridimensional sin la cual no podríamos interpretarlos, completando la información de la misma manera en que sabemos de todo lo que hay en un cuarto “a simple golpe de vista”, aunque, como lo dijimos anteriormente, el ángulo de percepción es mucho más estrecho. Es la inteligencia, el conocimiento adquirido en una práctica guiada, lo que permite integrar las imágenes en un todo coherente pese a que se parte de una información visual incompleta, comparada con la de la auténtica anatomía y su correlato en las enfermedades, la anatomía patológica. Como sabemos, es la finalidad de la especialidad el distinguir la anatomía y la anatomía patológica de los pacientes en las imágenes en placas o en papel que resultan final que brinda los equipos de diagnóstico. El método hipotético-deductivo, que será el tema del siguiente capítulo, posee otra teoría del conocimiento, así como otra manera de distinguir la ciencia de lo que no es ciencia. Desde la metodología hipotético deductivista que propone, se responde a estos problemas, diciendo: i. la ciencia no es inductiva, sino hipotético-deductiva ii. las hipótesis son las que guían la observación iii. las hipótesis son una libre creación de los científicos 45 Su éxito en resolver los cuestionamientos a la inducción es tan grande, que actualmente se acepta que es el método específico de la ciencia, desde el cual se programan las investigaciones, o se analizan los trabajos publicados. Su análisis ocupará los siguientes capítulos. 46 7 Método hipotético deductivo El hipotético-deductivismo es una de las más -sino la más- influyente filosofía de la ciencia de nuestros tiempos. No sólo fue aceptado como un fértil punto de vista por una comunidad filosófica que produjo bajo su influencia innúmeros escritos, y lo expuso desde distintas perspectiva en congresos y reuniones, sino que devino asimismo el método standard, habitual de la ciencia; la manera canónica, aceptada y sancionada de presentar tanto los proyectos de investigación, como los informes una vez concluidos. Alcanzó esa posición merced a la resolución de una manera a la vez audaz y rigurosa de los problemas más hondamente sentidos por científicos y filósofos interesados en ciencia. Dichos campos problemáticos eran, sobre todo: i. el criterio que permitiera separar a la ciencia de otras actividades intelectuales a las que estuviera íntimamente ligada, tales como la religión, y la filosofía, y de las que debió deslindarse para preservar su desarrollo autónomo. A éste se lo conoció como el problema de la demarcación. ii. el método que permitiera justificar la corrección de las afirmaciones centrales de la ciencia, las leyes. Este fue llamado el problema de la justificación. Para resolverlos, el hipotético-deductivismo devino una visión completa, coherente de la ciencia, el conocimiento común, y la historia de la ciencia, superando el marco exclusivamente metodológico. Suele fecharse su aparición en 1934, cuando Karl Popper edita en Viena La lógica de la investigación científica. (Logik der Forschung. Julius Springer Verlag. Viena. Con piede imprenta "1935". Fue más conocida la versión inglesa, The Logic of Scientific Discovery. Hutchinson & Co. Londres. Basic Books Inc. Nueva York. 1957. Versión española: La lógica de la investigación científica. Tecnos. Madrid. 1962.) 47 Popper establece una distinción entre las formas en que se llega a postular una hipótesis -problema atinente a la historia de la ciencia, la psicología, la sociología, o la biografía del científico-, de los procedimientos destinados a ponerlas a prueba. Las asimila a las oposiciones kantianas entre cuestiones que hacen a los hechos -jus facti- y las que hacen a las normas -jus juri-. Declara que las primeras no poseen reglas, y por lo tanto no son susceptibles de tratamiento lógico. En cambio, sí es posible con los métodos empleados en las contrastaciones a las que deben someterse. La terminología más conocida es la de Hans Reichenbach, quien los llama contexto de descubrimiento y contexto de justificación. Es menos conocido que el método hipotético-deductivo fue explicitado por Claude Bernard usando incluso la misma terminología unos setenta años antes que Popper. El hecho de que lo hiciera un científico en un libro dirigido a científicos, con un título tan poco atractivo para filósofos como Introducción al Estudio de la Medicina Experimental contribuyó sin duda a que fuera casi -por no decir totalmente- desconocido en los medios filosóficos, incluyendo en ellos al mismo Popper. (Bernard, Claude. Introducción al estudio de la medicina experimental. París. 1865. Hemos utilizado la edición de: El Ateneo. Buenos Aires. 1959). Sin duda fue éste un factor decisivo para que se le atribuyera la paternidad del hipotéticodeductivismo a Popper, aunque la obra de Claude Bernard no fuera la de un pensador aislado y luego olvidado. Por el contrario, tuvo la más amplia difusión entre investigadores médicos, fisiólogos, biólogos, bioquímicos, guiándolos metodológicamente prácticamente hasta nuestros días, a más de cien años de su muerte. Incluso desde campos alejados de lo biológico se lo cita como un punto de referencia insoslayable. El ejemplo más notable es el del sociólogo contemporáneo Pierre Bourdieu, quien pese a escribir una de las obras más densas de fundamentación de las ciencias sociales, además de vastas investigaciones empíricas, no puede eludir a Claude Bernard cuando fija su propia posición. Dice: (La fotografía. Un arte intermedio. Nueva Imagen. México. 1979. p. 16) que la ciencias sociales debieran tomar ejemplo del rigor de C. Bernard, siguiendo sus prescripcioones metodológicas. Dejaremos de lado otros antecesores del hipotético-deductivismo, menos acabados en su concepción, menos cercanos a Popper, menos influyentes u olvidados, como Fresnel, Hartley, LeSage o Whewell y centraremos nuestro relato en la obra de Popper, con algunas referencias a Claude Bernard. (Ver: Fresnel, Augustin. Memoire sur la diffraction de la lumiere. París. 1819. Hartley, D.Observations of man, his frame, his study, and his spectations. Londres. 1791. 48 LeSage, G. Varios escritos , y la recopilación y comentario de su obra en : Prevost, P. Notice de la vie et des ecrits de George- LeSage. Génova. 1804. Whewell, William. Philosophy of the inductive sciences founded upon their History. Londres. 1847. Pueden encontrarse otras precisiones históricas sobre antecedentes del hipotético-deductismo en la obra de Larry Laudan: Laudan, Larry. Science and Hypothesis. Historical Essays on Scientific Methodology. Reidel Publishing Co. Dordrecht. Boston. Londres. 198l.) El clima social e intelectual en que aparece la obra de Popper Karl Popper Es casi innecesario recordar que la Viena de principios de siglo en que se gesta el hipotético-deductivismo era un hervidero de nuevas ideas científicas, culturales y sociales. Es la ciudad de Sigmund Freud, y también de su adversario psicoanalítico, Alfred Adler. De Arnold Schoenberg cuando impulsa la música moderna. De Ernst Mach, quien critica la mecánica de Newton y enseña filosofía e historia de la ciencia. Es la ciudad socialista, que experimenta en todos los campos culturales, sitiada y finalmente tomada por el nazismo. En ella, alrededor de 1923, se nuclean en el seminario que dirige Moritz Schlick, continuador de la cátedra de Ernst Mach, figuras como Rudolf Carnap, Herbert Feigl, Otto Neurath, Victor Kraft, Friedrich Waissmann, o Kurt Gödel. Cercanos a las ideas que allí se desarrollan, y en ocasiones inspirándolas, son miembros del seminario aunque no vivan en Viena, F. Ramsey, H.Reichenbach, Karl Hempel, Bertrand Russell y el mismo A. Einstein. Científicos, filósofos, lógicos, matemáticos de primera línea que reflexionan acerca de la ciencia, su estructura, y su función en el mundo. Un manifiesto marca su aparición pública como movimiento filosófico que pretende la hegemonía de su campo. 49 Se titula: La concepción científica del mundo: el Círculo de Viena. Será la exposición doctrinaria del movimiento epistemológico que se conoce como neo-positivismo o empirismo lógico, pues añadía a la firme creencia de que todo conocimiento entra por los sentidos - continuando el empirismo de Hume, J.S. Mill, y Mach-, la noción de que su estructuración tenía la impronta de la lógica matemática de Bertrand Russell. Su visión de la ciencia se encuentra fuertemente influida por el Tractatus de Wittgenstein, también vienés como ellos. (Ver: "Wissenchaftliche Weltauffassung: Der Wiener Kreis". ("The Scientific Conception of the World: The Vienna Circle"). En: Neurath Otto. Empiricism and Sociology. Reidel Publishing Co. Boston. 1973. pp. 299 a 318. B. Russell y A.Einstein, aunque no vivían en Viena, mantenían una estrecha relación con el Círculo, y firman el Manifiesto. Puede leerse como introducción a los principales temas del neo-positivismo, además del Manifiesto: Ayer, A.J. Languaje, Truth and Logic. Gollancz. Londres. 1936. Edición española: Lenguaje, Verdad y Lógica. Martinez Roca. Barcelona. 1971. Ayer, A.J. (ed.) Logical Positivism. The Free Press of Glencoe. Chicago. 1959. Edición española: El positivismo lógico. F.C.E. México. 1965. Wittgenstein, Ludwig. Tractatus Logico-Philosophicus. Alianza Universidad. Madrid. 1973) En este medio social, cultural, filosófico se gesta el hipotético-deductivismo de Popper, quien en l919, con apenas 17 años, asiste asombrado al éxito de las predicciones de Einstein acerca del comportamiento de la luz al acercarse a un fuerte campo gravitatorio, preedicciones que fueron corroboradas durante un eclipse solar por dos expediciones científicas británicas que se instalaron en sitios geográficos distantes uno del otro. El episodio, por lo inusual y espectacular, fue comentado por la prensa de todo el mundo, marcando para siempre al joven Popper, quien encuentra en este rigor que lleva a someter a prueba una teoría científica, enfrentándola a las condiciones más estrictas que pudieran refutarla, y salir airosa, el signo distintivo de la ciencia, aquello que la separa de lo que no lo es. Aunque había simpatizado con el socialismo y con el marxismo, compara desfavorablemente la actitud de los seguidores de Marx, y también de Freud y Adler, con la arriesgada apuesta de Einstein. Mientras los primeros veían en cada suceso -fuera el que fuese- una corroboración de sus teorías, sin que imaginaran siquiera que alguno de ellos pudiera contradecirlas, éste indica taxativamente las condiciones en que las consideraría refutadas. Acababa de encontrar el núcleo central de su teoría de la ciencia, el que le permitirá separar ciencia de pseudociencia, entre las que engloba al marxismo y al psicoanálisis. 50 Continuará desarrollando su pensamiento dentro de estos grandes carriles directivos, para culminarlo en 1934, con la publicación de su libro. Corría el año 1926 cuando, con sus posiciones epistemológicas ya maduras, comienza a relacionarse -y a discutir intensamente- con el Círculo de Viena, con el que se siente tan afín en intereses y tan distante teóricamente. Sus miembros tenían, como es natural, su propia respuesta a los grandes interrogantes que mencionáramos anteriormente. A la pregunta de qué separa a la ciencia de otro tipo de propuestas que pretenden generar también conocimiento, contestan trazando una línea de demarcación: el criterio de verificación. Los enunciados de la ciencia deben ser verificables por la experiencia, por los sentidos. En verdad, la demarcación se da entre enunciados con significado -los verificables-, y los no significativos o sin sentido -los no verificables-. De tal manera, la ciencia -y los enunciados empíricos en general- poseen sentido. Por fuera de la cientificidad, de la significación, sitúan a la metafísica, sosteniendo que al no ser verificables, sus enunciados carecen de sentido. Lo hacen oponiéndose -en el contexto de una gran disputa filosófica que se da a comienzos de siglo- a la postura que pretende crear conocimiento válido de la realidad basada sólo en las construcciones -los desvelos- de la razón. El propósito de fundamentar el conocimiento con el mayor apego posible a la experiencia -tomando como modelo del mismo a la ciencia-, los lleva a adoptar un empirismo estricto, combinado con el rigor constructivo y analítico de la lógica. A la pregunta de qué manera procede la ciencia para justificar lo que dice -sus enunciados-, contestan: por experiencia directa si son acerca de hechos, por inducción a partir de éstos si son leyes. Del mismo contexto teórico del neo-positivismo surgían las dificultades que afrontaban ambas respuestas. Con respecto a la verificabilidad, era evidente que las leyes no podían ser verificadas, puesto que era imposible constatar que algo ocurriera para todos los casos, en todo tiempo y lugar, como éstas lo expresan. (Recordemos que la forma más común de una ley científica es : (x) (Px → Qx) "Para todo x,si le sucede p, entonces le sucederá q"; un ejemplo que usaremos más adelante dice: "Para todo animal con páncreas, si se lo extirpa, entonces desarrollará diabetes.") Paradójicamente, lo más característico de la ciencia, sus leyes, caían por fuera de la cientificidad. 51 La inducción se encontraba bajo el fuego de las objeciones de Hume -uno de los autores favoritos de los neo-positivistas-,quien la encuentra injustificada, con argumentos que sonaban irrebatibles. Como muchos inductivistas lo advirtieron, era consciente, además, de que la inducción no conducía hacia la Verdad. B. Russell hará notar que si el procedimiento central en las teorías empiristas del conocimiento -la inducción- es injustificado, entonces no habría motivos valederos para oponerse al escepticismo más extremo. No podría erigirse en basamento para una concepción científica del mundo. (Popper atribuye el arraigo de la errónea teoría inductiva de la ciencia a que los científicos de- bían demarcar su actividad de la pseudociencia, como también de la teología y de la metafísica, y habían tomado de Bacon el método inductivo como criterio de demarcación. Encontraban en él, y en el empirismo, una fuente de conocimiento comparable en fiabilidad a las fuentes de la religión de las que acababan de separarse. En: op. cit. p. 105. Para la crítica de Hume a la inducción, véase: Hume, David. Tratado de la Naturaleza Humana. Paidós. Buenos Aires. 1974.) Estimando a la ciencia tanto como lo hacía el neo-positivismo, Popper supera los inconvenientes apuntados al apartarse radicalmente de sus propuestas. Dirá que la demarcación no separa lo que posee significado de lo que no lo tiene, y por consiguiente a la ciencia de la metafísica, sino a la ciencia de la pseudociencia. Al contrario de lo sostenido por el neo-positivismo, afirmará que los enunciados de la metafísica son habitualmente comprensibles -poseyendo por lo tanto sentido-, y que sus especulaciones en más de una ocasión han mostrado ser valiosos antecedentes conceptuales de teorías científicas maduras. Por consiguiente, la metafísica, en vez de ser opuesta a la ciencia, puede ser incluso su precursora. Además, era obvio que el criterio confirmacionista de la inducción no permitía sortear el duro escollo que suponen para el auténtico conocimiento las pseudociencias. Su propuesta será, en consecuencia, anti-empirista, anti-verificacionista, anti-inductivista. El conocimiento científico, en el sentir de Popper, es refutacionista e hipotético-deductivista, configurando lo que llamó racionalismo crítico. Sólo podrá avanzar si intenta refutar seriamente las teorías que propone la razón en respuesta a problemas interesantes, deduciendo aquellas situaciones que la ponen a prueba con más dureza. Son conjeturas, hipótesis que permanecen como tales hasta que son refutadas. 52 Debieron haber sido tan inusuales las posturas de Popper en sus inicios -aunque ahora parezcan casi lugares comunes-, que relata que la primera vez que las expuso en una reunión de la Aristotelian Society de Londres en 1936, el auditorio las tomó por una broma o por una paradoja, y estalló en carcajadas, según lo narra en su autobiografía. (op. cit. pp. 147 y 148.) Su respuesta lo es tanto de un criterio de demarcación, cuanto de cómo la experiencia limitada del ser humano dice algo plausible acerca de las leyes, que van más allá de toda experiencia para extenderse a aquello desconocido, lo que sucederá, o lo que se encuentra distante en el tiempo o el espacio. Pero por encima de ello, permite entender lo que para Popper constituye el mayor desafío a una epistemología de la ciencia: las condiciones que hacen al incremento del conocimiento. Gran parte de su encanto intelectual reside en la provocación implícita de acentuar los aspectos negativos de la actividad cognoscitiva, contra las evidencias del sentido común y lo aceptado por los científicos desde los lejanos días en que Bacon demarcara con la inducción a las ciencias naturales de la religión. Sus puntos de vista terminan siendo aceptados por varios miembros del Círculo de Viena, entre ellos Carnap y Hempel, ya hacia 1932. (El acuerdo de estos autores con Popper puede leerse en: Carnap, Rudolf. Philosophy and Logical Syn- tax. Kegan Paul. Londres. 1935. Hempel, Karl. Erkenntnis, 5. 1935. esp. pp. 249-54.) Victor Kraft, rememorando la época, dice que para entonces Popper había reemplazado a Wittgenstein como principal influencia en el Círculo. (Kraft, Victor. Popper and the Vienna Circle. En: Schilpp, P.A. (ed.) op. cit.) El nazismo, que obliga a los intelectuales vieneses a emigrar -o morir-, y sobre todo el destino de Popper en la lejana Nueva Zelanda, tan incomunicada que una simple carta demoraba cerca de tres meses en llegar a Estados Unidos o Europa, pesa sobre la suerte del hipotéticodeductivismo. Se lo conoce durante años fundamentalmente en la versión de los miembros del Círculo de Viena, quienes emigrados al mundo anglosajón, adquieren un peso preeminente en sus universidades más prestigiosas. Al difundirlo, ellos lo tiñen con sus propias concepciones, entre las cuales la inducción sigue siendo central, ahora bajo la forma de apoyo inductivoa las hipótesis, que asimilan a menudo al cálculo probabilístico. 53 El confirmacionismo y el empirismo de los que renegara Popper, se cuelan en el hipotéticodeductivismo. Ya de regreso a Europa continuará su lucha teórica con el neo-positivismo desde la London School of Economics, reafirmando que las hipótesis no se confirman, sólo se refutan, que la inducción es un mito inncesario para la ciencia, y que el empirismo es una doctrina epistemológica errónea. Para ese entonces, La lógica de la investigación científica estaba casi olvidada, y su primera versión alemana prácticamente inencontrable. Edita, para hacer conocer el centro de sus intereses filosóficos, una versión inglesa en fecha tan tardía como 1957. Tiempo sobrado para que se propagara el mito de un Popper positivista, y que su metodología se confundiera con la del Círculo de Viena. Curiosamente, idéntico equívoco con respecto al primer positivismo ocurriría con la obra de C. Bernard: fue calificado de positivista, sin que aparentemente se advirtieran las facetas hipotético-deductivas de su pensamiento. (Popper, Karl. The Logic of Scientific Discovery., Hutchinson & Co. Londres, Basic Books, Inc., Nueva York. 1957.) Pero esto, parafraseando a Kipling, es sólo historia. Sólo contexto de descubrimiento. Aunque iluminador de ciertos aspectos del hipotético-deductivismo, sabemos que el conocimiento de la génesis no reemplaza al de la teoría acabada, sus interrelaciones, sus peculiaridades. Es hora de que hablemos de su estructura conceptual, de las razones epistemológicas que lo sustentan -su razonabilidad teórica-, y de su adecuación al campo específico al que se dirige, la ciencia y su desarrollo, -es decir, su razonabilidad empírica-. Presuponemos que la filosofía de la ciencia consiste en teorías sobre la ciencia -interpretaciones sobre la ciencia, diría Moulines-, que se comportan con respecto a su propio campo de aplicaciones de manera similar a la ciencia con el suyo. En este contexto es natural que describamos a la ciencia como su terreno "empírico" de justificación. El hipotético-deductivismo sobrevivirá si resiste la crítica teórica de otras concepciones de la ciencia, y la crítica empírica de su adecuación a la ciencia. Mencionamos especialmente el desarrollo de la ciencia, tal como lo querría Popper, quien insiste siempre en que su principal preocupación no es tanto cuál es la estructura de la ciencia -la ciencia acabada-, cuanto su evolución, el aumento del conocimiento. 54 S ECC I Ó N 1 La estructura del método. I. El Método HD simple La estrategia que seguiremos será la de presentar un modelo simplificado del método hipotético-deductivista -o dogmático-, en el que aparecerán nítidamente todos sus elementos constitutivos, para presentar a continuación un modelo más complejo -o liberalizado-, más ajustado a la actividad científica. Debemos a Lakatos la estrategia de presentar al hipotético-deductivismo en dos etapas. Contrariamente a lo que podría creerse de cierta lectura de Lakatos, pensamos que el modelo simplificado no es una mala imagen del hipotético-deductivismo. Por lo contrario, en él aparecen con toda su fuerza los argumentos centrales de Popper -y por cierto, también los de Claude Bernard-. Es solamente eso, un modelo reducido, que explica ciertos aspectos del conocimiento científico, pero en el que puede demostrarse fácilmente que deja de lado otros que son fundamentales. Es necesario completarlo, haciéndolo más complejo, para que abarque las facetas más significativas del quehacer científico. Recordemos el esquema del método inductivo, con el propósito de introducir, por oposición, los supuestos básicos del hipotético-deductivismo, a la manera en que Popper nos cuenta que escribió su Lógica del descubrimiento. (Búsqueda sin término. p. 112.) 55 Se parte de observaciones expresadas mediante enunciados observacionales, que describen un cierto estado de cosas. La reiteración de un número suficientemente grande de casos en los que sucede E permite, por inducción, llegar a enunciados generales -leyes o teorías-, L del esquema. La ciencia, entonces, comienza por los hechos, para llegar a las leyes. El hipotético-deductivismo invierte radicalmente el esquema, y al hacerlo elimina el papel de la inducción. Sostiene que la dirección correcta es de las teorías hacia los hechos. Popper hace notar que los sentidos están abiertos a una infinidad de estímulos, a innúmeros hechos que solicitan la atención, y que su registro indiscriminado mostraría un conjunto infinito, incoherente, absurdo, de enunciados. Sólo adquieren sentido, se ordenan, a partir de un cierto punto de vista, de una cierta teoría que separa los que son relevantes de los que no lo son. No se parte de la observación indiscriminada para inducir luego una teoría. Es la teoría la que muestra qué hechos se deben observar. Dice Popper: "Pero si se me ordena 'registre lo que experimenta ahora', apenas sé como obedecer esta or- den ambigua: ¿he de comunicar que estoy escribiendo, que oigo llamar un timbre, vocear a un vendedor de periódicos, o el hablar monótono de un altavoz? (...) Incluso si me fuera posible obedecer semejante orden, por muy rica que fuese la colección de enunciados que se reúnen de tal modo, jamás vendría a constituirse en una ciencia: toda ciencia necesita un punto de vista y problemas teóricos". Los hechos se deducen de la teoría y, finalmente, la pondrán a prueba de la manera más rigurosa posible. 56 En esquema: Nos dice, además, que una teoría es una libre creación del espíritu humano, un intento audaz de solucionar problemas interesantes, producto de la intuición. Tenemos ya definidos los principales elementos del método hipotético-deductivo simplificado: Veamos ahora más de cerca estos elementos, sus características, y las razones de haber optado por la deducción frente a la inducción. El comienzo del método: el problema Constituye el gatillo disparador de la secuencia metodológica que esquematizáramos anteriormente. Popper en su etapa más tardía, la de la Autobiografía, hace notar que los problemas no nacen en el vacío. Por el contrario son, al igual que la observación, producto de un encuadre teórico que hace que sean vistos como tales, excluyendo incluso en este punto al empirismo de lo dado, ya que no hay problemas sin teorías previas. Dirá en algún momento que los problemas surgen como consecuencia de la tensión entre el saber y la ignorancia, cuando se percibe que algo no está en orden entre nuestro supuesto conocimiento y los hechos. 57 (Popper, Karl. op. cit. p. 178; "La lógica de las ciencias sociales". En: La lógica de las ciencias so- ciales. Grijalbo. México. 1978.) Asimismo dirá que la crítica que efectúan la razón y la experiencia -el método H-D- a las teorías esbozadas como solución al problema, abre un abanico de nuevos interrogantes antes impensados, es decir, conduce a nuevos problemas. El hecho de que a partir de las soluciones puedan presentarse nuevos problemas, al tiempo que explica la fertilidad de la ciencia, transforma en circular el esquema lineal que mostráramos anteriormente. Su comienzo podría situarse en cualquiera de sus miembros, con la única condición de conservar el orden de la secuencia. Habitualmente Popper insiste en el carácter empírico o práctico de los problemas -según surjan de la propia realidad o de la relación que entable el hombre con ella-, con un énfasis menor en los problemas teóricos que pudieran presentar las mismas teorías. Quizás sea debido al rechazo por parte de Popper a la "clarificación conceptual" de la ciencia que propusiera el neo-positivismo, englobándola dentro de las consecuencias de buscar una teoría del significado. Aunque especifica que no la desdeña si es usada para eliminar confusiones que puedan surgir de un uso poco cuidadoso de las palabras. Es un punto que explorarán hasta sus últimas consecuencias otras filosofías de la ciencia, particularmente la de Thomas Kuhn y más recientemente la de Larry Laudan. (Kuhn, Thomas. La estructura de las revoluciones científicas. F.C.E. México. 1971. Laudan, Larry. El progreso y sus problemas. Encuentro Ediciones. Madrid. 1986. ) El salto creativo: la intuición. En este punto, como en otros, es muy marcada la diferencia con la metodología inductivista, puesto que para el hipotético-deductivismo las leyes no se obtienen al generalizar observaciones, sino que existe un proceso creativo en su formulación que excede lo meramente observado u observable. Carnap, quien fuera un inductivista sofisticado, también había aceptado de Popper el salto creativo en la formulación de las teorías y leyes científicas. (Ver, por ejemplo: Carnap, Rudolf. Fundamentación lógica de la física. Sudamericana. Buenos Aires. 1969.) Otorgan razonabilidad a esta afirmación al menos dos tipos de argumentos. Si consideramos el lenguaje en que se expresa la ciencia, es evidente que enuncia sus leyes empleando términos -palabras- que le son propios, y que no designan, habitualmente, objetos observables -gen, masa, átomo, especie, etc.-, o que redefinen lo observable -aceleración, primate, satélite, etc.-. 58 La inducción, que opera mediante la generalización de hechos cotidianos, mal puede ser invocada para explicar la aparición de estos términos. Sólo pueden provenir de un acto de creación. Sólo pueden ser inventados. Lo creativo se evidencia además en el material previo con el que se construyen las leyes: sueños -como el de Kekulé que ve mientras duerme una serpiente que se muerde la cola, y propone por semejanza el anillo ciclo-hexano para representar las moléculas de elementos orgánicos-; mitos -como el de Edipo o de Electra en la psicología freudiana-; relatos legendarios -como los que permitieron descubrir Troya-; teorías metafísicas -como la del átomo en la filosofía griega que inspira a Rutherford y otros científicos atómicos-; ciencias incompletas que bordean el mito o la pseudociencia - como la alquimia que se prolonga en la química moderna-. Esta compleja red de sueños, relatos míticos, trasfondos metafísicos, observaciones, analogías, visiones entrecruzándose y fertilizándose mutuamente, oscuro magma donde se gesta la creación, se denomina genérica y globalmente intuición. La observación de hechos particulares y la inducción a partir de ellos que caracteriza al inductivismo,son una instancia más de las que se vale la intuición para postular una hipótesis, ni mejor, ni más privilegiada que otras. No justifica las hipótesis, simplemente las sugiere. Comienza ahora el método hipotético-deductivo propiamente dicho: una vez en posesión de la hipótesis, a la que se llega por mil caminos, y como respuesta a un problema planteado por la naturaleza o la sociedad, ha sonado la hora de ponerla a prueba con todo el rigor posible. Las hipótesis y la deducción. Popper, conjuntamente con sus contemporáneos, adopta el giro linguístico en sus análisis del conocimiento en general y del científico en particular. En consecuencia, aceptarácomo conocimiento aquel que se encuentra expresado, de manera oral o escrita, mediante proposiciones. No lo que se piensa o lo que se cree, sino lo objetivo, lo que se comunica. La solución que el científico propone al problema planteado será, por lo tanto, una enunciado -una proposición-, no una idea o una creencia. Como toda proposición, será verdadera o falsa, aunque su verdad o falsedad se desconozca inicialmente -de allí su carácter hipotético- y haya que ponerla a prueba a fin de corroborarla o refutarla. Habitualmente se trata de un enunciado general, de una ley que tentativamente se supone verdadera, con el valor de una apuesta que inicia el juego de la ciencia, y que mantendrá su vigencia mientras no se demuestre su falsedad. Las reglas del juego serán, según Popper, las que fija la lógica deductiva. Al introducirlas como única forma inferencial en el seno de la ciencia, elude el riesgo de hacer de ésta una ac59 Cuadrado de las oposiciones (x) ( Px Qx ) A E Contraditorios I O ( E ) ( Px . - Qx ) de “para todo valor de x, si posee la propiedad p, poseerá la propiedad q", se infiere inmediatamente su conntradictorio "existe al menos un x que posee la propiedad p y no posee la propiedad q tividad injustificada, irracional, puesto que sus principios son auténticas leyes lógicas, cosa que no sucede con el principio que guía a la inducción. Al hacerlo aparecen con nitidez algunas consecuencias impensadas que el método H-D acepta, y que pueden ser consideradas paradojales a la luz del sentido común y de la anterior metodología inductivista. Popper comienza haciendo notar que los enunciados generales -las leyes o hipótesis- mantienen una curiosa relación lógica con otro tipo de enunciados, deducibles inmediatamente de ellos: los que en vez de hablar de "todos", hablan de "algunos" o "algún". En principio, presentan una total asimetría con respecto a sus posibilidades de verificación o de refutación. Así, mientras los primeros son imposibles de verificar, los segundos son imposibles de refutar. Para mostrarlo, apelamos nuevamente al argumento que se refiere a los enunciados universales, y a la imposibilidad de recorrer el infinito universo de su aplicación: la verificación es, así, impracticable. 60 Con respecto a los enunciados existenciales, como se llaman técnicamente los que se refieren a propiedades de algún o algunos miembros de un conjunto, es evidente que decir, por ejemplo, "Hay una sustancia que cura el SIDA", o "Hay una sustancia que cura el cáncer", no logra ser refutado por ninguna experiencia negativa, aunque se reiteren inacabablemente: siempre es lógicamente factible que ocurran en cualquier momento. La refutación es, en este caso, imposible. De acuerdo al criterio de demarcación que hiciera entre ciencia y metafísica, estos enunciados, que parecieran estar más cerca de la experiencia son, paradojalmente, metafísicos, puesto que no son refutables. Sin embargo, agrega luego, de esta relación depende la posibilidad de establecer lo acertado o no de la propuesta efectuada por el científico al enunciar su hipótesis. Esto es así porque, según las reglas de la lógica,de un enunciado universal es posible deducir, de manera inmediata, un enunciado existencial que se le oponga, que lo contradiga: aquel que afirme que existe al menos un elemento que no posee la propiedad que le atribuye el universal. Los lógicos tradicionales establecieron relaciones entre los valores de verdad de las proposiciones de la forma "todos", "algunos", "ninguno" en el clásico Cuadro de Oposición, que permitía hacer una inferencia inmediata de una proposición a otra, sin necesidad de otra premisa. El mismo Cuadrado puede construirse con la notación lógica cuantificacional. De acuerdo a él, de "para todo valor de x, si posee la propiedad p, poseerá la propiedad q", se infiere inmediatamente, que su contradictorio es "existe al menos un x que posee la propiedad p y no posee la propiedad q". Así "Todos los perros a los que se extirpa el páncreas desarrollan diabetes" es contradicho por el enunciado: "Existe al menos un perro que no tiene páncreas y no es diabético". Formalmente: ( a) (Pa . - Qa) "Existe al menos un ejemplar (Fido, en la Facultad de Medicina de Buenos Aires), que tiene la propiedad P (no posee páncreas), y no tiene la propiedad Q (no es diabético)" Un ejemplo lo mostrará más claramente. Si el enunciado general es: "Todos los perros a los que se quita el páncreas -pancreatoprivos- desarrollan diabetes", el enunciado existencial que lo contradice es el siguiente: "Algunos, o al menos un perro es pancreatoprivo y no es diabético." Como resulta evidente que si este último es verdadero, el primero es falso, la relación entre ambos tipos de enunciados, mediados por una inferencia deductiva inmediata hace a la esencia misma del hipotético-deductivismo: la posibilidad de refutar las hipótesis. 61 Y algo más que quizás no se veía tan claramente cuando en nuestro esquema poníamos, deduciendo de las hipótesis, los enunciados contrastadores: deben deducirse no cualquier tipo de enunciados, sino aquellos que puedan ser contradichos. No pide que se sea complaciente con las hipótesis, sino que se las trate con rudeza, que se intente refutarlas de la manera más dura posible, es decir,buscando deliberadamente sus contra- ejemplos. Es sencillo encontrar enunciados que confirmen una teoría, cualquiera sea ella; las pruebas positivas abundan incluso con respecto al valor curativo de creencias místicas o religiosas. Cuando leemos el supuesto valor curativo de los sacerdotes de Esculapio o de las peregrinaciones a Lourdes, pensamos en los placebos, más que en una teoría de los milagros. Por el contrario, debemos pensar siempre en qué condiciones nuestra teoría podría ser falsa, y contrastarla según estas condiciones. Sólo las refutaciones fallidas tienden a corroborarla, convirtiéndose así en casos positivos de la misma -instancias de la teoría-. Otra de las afirmaciones provocativas de Popper, derivada de la relación entre enunciados universales y existenciales contradictorios, es que una ley puede ser escrita en forma de prohibiciones -cosa largamente sabida en Derecho-, caracterizándose sobre todo por aquello que prohíbe. Como consecuencia inevitable, aunque altamente conflictiva para el sentido común, se encuentra el que una teoría posea mayor contenido empírico -hable de más cosas- mientras más prohíbe. Es suficiente comenzar a pensarlo para entender la profunda razonabilidad que involucra, y lo mucho que se aparta de la inducción y su problemática. Relacionada con la anterior afirmación, se emparienta otra igualmente provocativa: el contenido informativo aumenta cuanto más improbable sea una hipótesis, por el sencillo motivo de que si fuera más precisa -si dijera, por ejemplo, que un eclipse de sol tendrá lugar el 3 de mayo de 1997 a las 14.45 hs.-, sería más improbable que fuese verdad -por ser más estrecho el margen de error-, que si expresa de manera general que en el curso del año 1997 se producirá un eclipse, siendo obvio que brinda mayor información. Habíamos mencionado que un enunciado existencial es un enunciado metafísico, que mal puede poner a prueba, por sí, a una ley, a una hipótesis. Lo hace, porque él es deducible de otro tipo de enunciado que se encuentra apegado a la experiencia y es refutable, como debe serlo cualquier enunciado empírico. Se trata de enunciados que hablan de este o estos individuos, con las propiedades que estipula el enunciado existencial derivable, situados en un tiempo y lugar determinados. Es necesario agregar la observabilidad tanto de individuos como de propiedades, y la posibilidad real de su contrastación intersubjetiva, lo que implica, en la mayoría de los casos, la repetitividad del suceso. Popper los llama "existenciales singulares", para oponerlos a los otros existenciales. Reciben también el nombre de "enunciados básicos", ya que son sobre los que se apoya toda la 62 estructura cognoscitiva, poniéndola a prueba a través de la cadena de deducciones que los ligan a los enunciados universales. Constituyen la "base empírica" de las hipótesis, el cimiento mediante el cual la ciencia se encuentra anclada en la experiencia. Siguiendo con nuestro ejemplo, el enunciado: "Si a Fido y Sultán, los perros que se encuentran en el laboratorio de fisiología de la Facultad de Medicina de Buenos Aires, se les quita el páncreas, no desarrollarán diabetes", es el enunciado básico del que se deduce el existencial antes mencionado. No hay dudas que se podrá constatar si efectivamente tendrán diabetes o no una vez que se les extirpe el páncreas. De la hipótesis fundamental, deducimos hipótesis derivadas, algunas de ellas serán contradichas porenunciados existenciales contradictorios, que se deducen de enunciados básicos. Veamos ahora otra de las consecuencias paradojales que aparecen al optar por la deducción como procedimiento inferencial único de la actividad científica, y que al incidir en la verdad o falsedad que se les atribuye a las hipótesis fundamentales, expresa una nueva asimetría. La refutación de hipótesis y el Modus Tollens. Se acostumbra a definir la deducción como la forma de inferencia en la que partiendo de premisas verdaderas, se llega con el mayor rigor a conclusiones verdaderas. Si en el hipotético-deductivismo lo que conocemos es la verdad o falsedad de las conclusiones -enunciados básicos- luego de ser contrastados, ¿será posible saber de la verdad o falsedad de las premisas en las que se originaron -hipótesis fundamentales-, remontando en sentido inverso el camino habitual? La inferencia que permite refutar una hipótesis conociendo la falsedad de la conclusión, es una forma válida de razonamiento deductivo conocida desde el medioevo con el nombre de Modus Tollens, y que puede ser expresada de la siguiente manera: "Si ocurriendo p debe ocurrir q, y q no ocurre, entonces p no ha ocurrido". Formalmente: p → 63 q "Si p es verdadera, entonces q es verdadera" -q "q no es verdadera" _______ "se deduce que" -p "p no es verdadera" Las dos primeras son las premisas; la línea muestra que ha habido una deducción, que es precisamente la no ocurrencia de p. (Para una descripción más detallada del Modus Tollens, ver: Copi, Irving. Introducción a la lógica. EUDEBA. Bs.As. 1974) Aplicado a la contrastación de hipótesis, la primera premisa nos dice que si la hipótesis es verdadera, el enunciado básico que se deduce de ella -implicación contrastadora-, es verdadero. Si constatamos que es falso, también es falsa la hipótesis originaria. Veamos ahora cómo funciona el Modus Tollens con nuestro ejemplo. Sea una vez más nuestra hipótesis fundamental: "Todos los animales pancreatoprivos desarrollan diabetes"; el enunciado existencial que la contradice es: "Algunos perros pancreatoprivos no desarrollan diabetes", y el enunciado básico correspondiente: " Estos perros, Fido y Sultán, sin el páncreas, no desarrollan diabetes". Dado que si la hipótesis es verdadera, los enunciados que la contradicen son falsos, el enunciado q del esquema registra esta situación, expresando: "No es posible que a Fido y Sultán se les quite el páncreas y no desarrollen diabetes". Al hacerlo, adopta la forma de una prohibición. Sean así, la hipótesis fundamental el enunciado p del Modus Tollens, y q el enunciado contrastador, ya que, si sucede el primero, debe suceder el segundo. Si la experiencia muestra que Fido y Sultán logran finalmente regular los hidratos de carbono sin el páncreas, entonces el enunciado contrastador es falso (-q). La prohibición ha sido quebrantada. El Modus Tollens nos permite deducir ahora que la hipótesis fundamental es falsa, y que no es cierto que todos los animales sin páncreas desarrollen diabetes (-p). Sabemos, desde Claude Bernard, que los animales en cuestión desarrollarán diabetes, y que este será el resultado del experimento. El enunciado contrastador será verdadero. ¿Será también verdadera la hipótesis? Si lo expresamos formalmente, tal como lo hicimos con el Modus Tollens, veremos la siguiente forma de razonamiento: p→ q "Si p es verdadera, entonces q es verdadera" q "q es verdadera" ________ "se deduce que" 64 p "p es verdadera" Pues bien, esta no es una forma de razonamiento válida, ya que se puede demostrar fácilmente que existen casos en los que la las premisas son verdaderas y la conclusión es falsa. Parece un razonamiento válido, pero no lo es. Se trata de una falacia, la de afirmación del consecuente, destruyéndose con su incorrección la ilusión de afirmar por su intermedio la verdad de la premisa conociendo la verdad de la conclusión. La verdad de una consecuencia lógica no permite afirmar que la hipótesis de la que se partió sea verdadera. En el caso de la falacia de afirmación del consecuente, las tablas de verdad muestran la incorrección de la inferencia. (Véase asimismo Copi, Irving, op. cit. p. 265) La situación no varía si en vez de un enunciado básico verdadero se deducen -y se constatan- varios e incluso innumerables enunciados básicos verdaderos. Esto no le agrega un ápice de verdad a la hipótesis fundamental, ya que siempre estaremos, en caso de afirmarla, haciendo uso de la falacia de afirmación del consecuente. No diremos nunca que la hipótesis es verdadera. Diremos algo más débil, que está corroborada, con lo que se expresa que en el proceso de contrastación no le ha pasado nada, no ha sido refutada, aunque pudiera refutarse en el futuro. Paradójica enseñanza de la lógica que consagra una nueva asimetría, la que manifiesta Popper cuando sostiene, con una convicción indiscutible, que las leyes científicas se caracterizan por ser refutables, mas no verificables. Es una consecuencia inexorable de que, conservándose la verdad en toda la secuencia deductiva, desde las premisas a la conclusión -en esto consiste precisamente deducir correctamente, en partir de premisas verdaderas para llegar a conclusiones verdaderas-, si la conclusión es falsa, la premisa es necesariamente falsa. Esta es la racionalidad que se expresa en el Modus Tollens. En cambio, ya que partiendo de premisas falsas puede llegarse a una conclusión verdadera, la verdad de la conclusión no dice nada acerca de la verdad de las premisas. A esto apunta la falacia de afirmación del consecuente. A la pregunta de cómo justificamos las leyes, el hipotético-deductivismo responde que nunca las justificamos, permanecen para siempre como hipótesis; sólo las contrastamos severamente tratando de refutarlas, ysi se fracasa en este intento, se comienza a usarlas en la práctica científica, sin considerarlas verificadas, puesto que podrán ser refutadas más adelante. 65 S ECC I Ó N 2 II. El método HD liberalizado La esquematización que comentáramos anteriormente, con la clásica secuencia de problemas, formulación de hipótesis, intento serio de refutarla mediante sus consecuencias lógicas -enunciados básicos-, seguida de: i. rechazo de la hipótesis si lo observado en la naturaleza la desmiente; ii. aceptación provisoria si esto no sucede -corroboración de la hipótesissi bien posibilita una introducción adecuada a los principales argumentos del hipotético-deductivismo, ha sido llamada dogmática o ingenua, y provendría de una incorrecta simplificación del pensamiento de Karl Popper y de Claude Bernard. Lo dogmático consiste en la creencia de que los enunciados básicos cuando contradicen a las hipótesis fundamentales las refutan inexorablemente, siendo obligación del científico acatar el NO que le dicta la naturaleza, y rechazarlas de inmediato. Aun cuando podamos considerarla dogmática, representó un avance frente al inductivismo, que obligaba a partir de hechos desnudos y a inducir luego teorías verdaderas. Tres pretensiones que constituían exigencias imposibles de cumplir, al estar desvinculadas de la realidad de la investigación, y frente a las cuales incluso el refutacionismo dogmático representó una liberación para los científicos. El hipotético-deductivismo liberalizado refleja más fielmente aún la práctica científica. En ella, la refutación se encuentra demorada por instancias intermedias, que el refutacionismo ingenuo, con su acento puesto en los elementos lógicos de la contrastación de hipótesis, no había tomado en cuenta. Claude Bernard narra una experiencia que ilustra acabadamente el punto: "Hace mucho tiempo yo anuncié un experimento que sorprendió grandemente a los fisiólogos: el experimento consiste en producir a un animal la diabetes artificial mediante la puntura de la base del cuarto ventriculo. Yo me sentí tentado a probar esta punción como resultado de consideraciones teóricas que no necesito recordar; todo lo que necesitamos saber aquí es que lo logré a la primera tentativa, a saber que el primer conejo que operé se puso totalmente diabético. Pero luego hice el experimento repetidas veces (8 ó l0), sin obtener los mismos resultados. Entonces me encontré en presencia de un hecho positivo y de ocho o diez hechos negativos; sin embargo nunca pensé en negar mi 66 primer experimento positivo en favor de los experimentos negativos subsiguientes. Totalmente convencido de que mis fracasos se debían a que no conocía las verdaderas condiciones de mi primer experimento, persistí en mis trabajos tratando de descubrirlas. Como resultado, logré definir el lugar exacto de la punción y mostrar las condiciones en que debería colocarse el animal que había que operar; de modo que hoy podemos reproducir la diabetes artificial, siempre que nos coloquemos en las condiciones que sabemos que son necesarias para su aparición." Claude Bernard nos muestra, primeramente, coincidiendo con Popper, que el experimento surge de la teoría y no a la inversa ("yo me sentí llevado a probar esta punción como resultado de consideraciones teóricas que no necesito recordar"), y a continuación su tenacidad en persistir en su hipótesis primera, pese a repetidas situaciones refutatorias. Luego va a argumentar -y suponemos que debe haberse visto frente a tales situaciones en el curso de sus extensas investigaciones- que debería persistirse incluso en ausencia de un primer éxito casual como el que menciona: "Voy a añadir a lo anterior una reflexión que muestra cuántas fuentes de error pueden rodear a los fisiólogos en la investigación de los fenómenos vitales. Voy a suponer que en lugar de lograr inmediatamente poner diabético al conejo, habían aparecido al principio todos los hechos negativos; resulta claro que, después de fracasar dos o tres veces, debería haber llegado a la conclusión de que la teoría que me servía de guía era falsa,y que la punción del cuarto ventrículo no producía diabetes. Pero habría estado equivocado; con cuánta frecuencia se han debido equivocar los hombres y se deben equivocar aún a este respecto." No piensa, en el relato anterior, que su teoría esté refutada porque el experimento no fue exitoso en más de ocho ocasiones. Ahora nos dice que tampoco la hubiera considerado así aunque la experiencia hubiera salido mal dos o tres veces, incluso en ausencia de un éxito casual que animaraa seguir el camino emprendido. Y si, siguiendo los dictámenes del refutacionismo ingenuo lo hubiera hecho, si hubiera pensado que la confrontación con la naturaleza la refutaba, hubiera estado en un error. ¿Cometía acaso un atentado contra la racionalidad, contra la lógica cuando procedía de esta manera, como lo hubiera supuesto un refutacionista dogmático? El hipotético-deductivismo liberalizado es la respuesta metodológica que devuelve la razonabilidad al proceder del científico cuando defiende su hipótesis pese al fallo descalificatorio de la naturaleza, concediéndole una cuota mayor de libertad en su accionar. Ella surge delas condiciones propias de la situación experimental -que introduce una complejidad mayor al esquema del H-D-, y al cuestionamiento de lo indubitable de el o los enunciados básicos que refutan la hipótesis. 67 La problemática introducida por la situación experimental. ¿Qué sucede cuando entre el enunciado básico que describe un cierto estado de cosas y su refutación (o verificación) que refuta (o corrobora) la hipótesis originaria se interpone, con toda necesidad, el experimento, o en los casos más simples, la sencilla observación? Sucede que se introducen, necesariamente, otras hipótesis en la cadena deductiva, que marcan la diferencia entre el refutacionismo ingenuo y la realidad fáctica en que se mueve la ciencia y el investigador mismo. Son ellas: i. Hipótesis auxiliares acerca de los materiales empleados en el experimento: el animal, la aguja utilizada, el líquido inyectado, etc. ii. Hipótesis factoriales, que proponen que las variables estudiadas sean las únicas que inciden en el resultado de la experiencia: en el caso relatado por C. Bernard, el supuesto de que únicamente la punción en un solo sitio del cuarto ventrículo producía diabetes. A su vez, estas hipótesis adicionales pueden ser simples hipótesis aisladas, o formar parte de sistemas teóricos diferentes al de la hipótesis puesta a prueba, como podrían ser consideraciones acerca de la anatomía y fisiología del conejo. Ahora puede verse con claridad que lo que se contrasta no es sólo la hipótesis originaria, sino un conjunto de hipótesis, por lo que el experimentador se encuentra en condiciones tales que sin violar ninguna regla de racionalidad, pueda decidir que el resultado de la experiencia no refuta la hipótesis fundamental, sino a alguna de las hipótesis adicionales. Así se explica que pueda insistir una y otra vez ante el NO de la naturaleza, y finalmente triunfar. Para eludir la refutación, formula hipótesis ad-hoc, nombre genérico que recibe toda hipótesis introducida con el único fin de proteger los supuestos iniciales. En una correcta práctica científica, las hipótesis ad-hoc se aceptan sólo para ser puestas a prueba y corroboradas en un diseño experimental independiente. El código de honor científico, apoyado por el refutacionismo liberalizado, no prohíbe tratar de evitar la refutación ante resultados negativos mediante hipótesis ad-hoc. Sólo prohíbe que se las acepte sin contrastarlas. Su corroboración, puesto que se refiere a factores intervinientes en la zona de la realidad que explora la hipótesis principal, aumenta el conocimiento de la misma, jugando un rol que se juzga como progresivo, y en algunas variantes del refutacionismo, indispensable para el avance de la ciencia. (Así sucede con la metodología de Imre Lakatos en: Lakatos, Imre. Historia de la ciencia y sus reconstrucciones racionales. Tecnos. Madrid. 1974., "La falsación y la metodología de los programas de investigación", en: Lakatos, I. y Musgrave, A. (eds.) La crítica y el desarrollo del conocimiento. Grijalbo. Barcelona. 1975.) 68 Las fallas de Claude Bernard en sus intentos de provocar diabetes en los conejos, y su negativa a considerarlas refutatorias de la presunción acerca de un centro de control de la glucemia en el cuarto ventrículo, aduciendo problemas en su punción -lo que ponía en cuestión a un conjunto de hipótesis acerca de la anatomía del conejo, la habilidad en el manejo de la aguja, la profundidad requerida por la punción, etc.-, es una clara muestra de la fertilidad de la tenacidad de los científicos -obstinación irracional la llamaría el refutacionismo dogmático-, argumentando ad-hoc contra la respuesta de la naturaleza a los primeros requerimientos. No sólo puede objetarse la corrección del conocimiento acerca de las características que poseen los elementos involucrados en el experimento, como en el caso citado. Las objeciones ad-hoc pueden abarcar también a las hipótesis factoriales. Sabemos que una ley estipula que se cumplen ciertas relaciones entre elementos de un dominio , y que la experimentación busca corroborar el acierto de dichas postulaciones. Sin mencionarla, interviene en el proceso una hipótesis sumamente importante, que denominaremos con un nombre de larga historia en filosofía, la cláusula ceteris paribus, por la que se presume que en el campo problemático en estudio no inciden -además de los estudiados- otros factores. Ante una experiencia desfavorable pudiera aducirse ad-hoc, y sin caer en la irrazonabilidad, que han intervenido en el proceso algunos de los factores desconocidos. Así, por ejemplo, la mecánica de Newton puede decidir que la influencia de la masa de los astros es despreciable a los efectos de calcular la trayectoria de un péndulo o de un sistema balístico, y no incluirla en sus fórmulas. O la humedad del ambiente, o las ondas hertzianas que cruzan el espacio contemporáneo. Lo mismo sucede con la genética mendeliana o la molecular cuando establecen los rasgos hereditarios de una generación; la astrología no comparte, como sabemos, la cláusula ceteris paribus de estas disciplinas. Desde el Siglo V a. C. se conoce una manera de evaluar la pertinencia o no de un factor como causa de un cierto suceso que se investiga, y que Hipócrates, el primero en dárnoslo a conocer, menciona con las siguientes palabras: "Las enfermedades son el resultado de una amplia variedad de causas, y debemos considerar causas seguras de una afección, todas aquellas cosas cuya presencia es necesaria para que aparezca, y cuya ausencia determina su desaparición." (En: Laín Entralgo P. Historia universal de la medicina. Salvat. Barcelona. 1973.) El método de Hipócrates es recogido por la filosofía en la obra de Stuart Mill, que lo menciona como "método de las concordancias y las diferencias", de la siguiente manera: Método de la concordancia: 69 "Si dos o más casos del fenómeno que se investiga tienen solamente una circunstancia en común, la circunstancia en la cual todos los casos concuerdan, es la causa (o el efecto) del fenómeno en cuestión." (En: Copi, I. op. cit. p. 426.) Método de la diferencia: "Si un caso en el cual el fenómeno que se investiga se presente y un caso en el que no se presenta tienen todas las circunstancias comunes excepto una, presentándose ésta solamente en el primer caso, la circunstancia única en la cual difieren los dos casos es el efecto o la causa, o una parte indispensable de dicho fenómeno." (En: Copi, I. op. cit. p. 430.) Distintas palabras para expresar el mismo concepto hipocrático. Observemos que si bien el método permite efectivamente afirmar la pertinencia de una variable, no discrimina si en la contrastación se establece su única pertinencia, o la de su conjunción con otras variables que se desconocen de momento. La cláusula ceteris paribus está presente una vez más, pese a todos los refinamientos metodológicos. Cuando algunos resultados perturbadores parecieron contradecir las hipótesis de C. Bernard acerca del rol del páncreas y el cuarto ventrículo en la regulación del metabolismo de los hidratos de carbono, los científicos no las consideraron refutadas. Simplemente adujeron ad-hoc contra la cláusula ceteris paribus, la importancia de otros órganos en el proceso. Así, se pudo proponer y demostrar el papel de la hipófisis -no prevista por C.Bernard-, en el equilibrio de dicho metabolismo; siguieron luego experiencias similares en otras glándulas de secreción interna, en un proceso que condujo a una ampliación del conocimiento fisiológico. Una vez más, la apuesta ad-hoc ahora contra la hipótesis factorial, puesta a prueba rigurosamente, juega a favor del desarrollo de la ciencia. Hipótesis auxiliares acerca del material de trabajo, hipótesis factoriales, cláusula ceteris paribus, hipótesis ad-hoc forman parte del entramado teórico que se pone en juego cada vez que el científico comprueba la corrección o la falsedad de su hipótesis fundamental, debilitando el dogmatismo del método hipotético-deductivo, para transformarlo en liberalizado. Interpuestas entre ésta y la experiencia, demoran, amortiguan el poder refutatorio de los enunciados básicos, contribuyendo en el proceso a aumentar el conocimiento humano. Falta un último ingrediente en la liberalización del método: el cuestionamiento a la verdad indubitable de los enunciados básicos que conforman la base empírica de la ciencia. Ya se había establecido el carácter hipotético de las teorías científicas, así como de todo el complejo de hipótesis auxiliares que intervienen en ciencia, y con ello el falibilismo de todo conocimiento, por más sólidamente establecido que se lo considere. Es hora de llevar el falibilismo a sus últimas consecuencias, introduciéndolo también en los enunciados básicos. 70 El cuestionamiento de los hechos. El empirista construye su teoría del conocimiento y de la ciencia sobre la base firme de los hechos observables. Lamentablemente la inducción, herramienta lógica de su epistemología, le impide llegar hasta las leyes. Para el refutacionista dogmático, los hechos refutan a las teorías; al hacerlo arroja por la borda junto con las hipótesis falsas, porciones de conocimiento que pudieran ser válidas, e inhibe investigaciones legítimas derivadas de las hipótesis ad-hoc. El refutacionista liberalizado demuele cuidadosamente la seguridad en lo indudable de los hechos. Sin embargo, refleja más adecuadamente la actividad científica y estimula el aumento del conocimiento. El hecho experimental. La presencia del experimento en la casi totalidad de las contrastaciones más o menos complejas altera de manera radical la sencilla "observabilidad" de los hechos, puesto que el hecho no sólo es fabricado por el diseño experimental, sino que además los resultados -los datos- son leídos a través de una teoría interpretativa, con cuyo auxilio se construyeron los instrumentos de lectura. El color rojo que aparece en un papel tornasol permite leer la acidez de una orina sólo si se lo interpreta a la luz de una teoría muy simple, la que rige al mencionado papel. Menos inmediato y más complejo es el resultado que aporta un fotocolorímetro,pero el esquema es el mismo: una o más teorías nos aseguran que cierta desviación de la aguja quiere decir tal cosa, siendo tal cosa el hecho que el empirista y el refutacionista dogmático quieren ver como lo arquetípico de lo directamente observable y verificable, obviando las teorías interpretativas que llevan a asignar otro valor al rojo del papel, o al trazo del fotocolorímetro.Sea acidez o aumento de las gammaglobulinas, el dato no se encuentra en la simple observación, sino en la interpretación de lo observado. Es suficiente dudar de la teoría interpretativa, o de la correcta disposición del instrumento, para poder cuestionar -ad-hoc, una vez más-, la validez de los datos expresados en el enunciado básico, transformándolo de indudable en falible, una hipótesis más, la más básica, pero hipótesis al fin. Una situación quizás límite lo constituye la hipótesis de Prout, quien sostuvo en 1815 que todos los átomos están compuestos de átomos de hidrógeno -la unidad atómica de peso -, y que por lo tanto los pesos atómicos de todos los elementos puros eran múltiplos enteros del de hidrógeno. Todas las mediciones desmintieron esa afirmación durante casi un siglo, durante el cual los sucesores de Prout cuestionaron con éxito las sucesivas técnicas que permitían 71 purificar y pesar sustancias -contribuyendo con la crítica a su perfeccionamiento-; fué corroborada recién cuando en el laboratorio atómico de Rutherford se diseñaron técnicas físicas de purificación, en reemplazo de las técnicas químicas empleadas hasta ese momento. El cuestionamiento de los enunciados básicos que refutaban a Prout, cuestionando las teorías interpretativas que permitían construirlo, duró casi un siglo. (En: Lakatos, I. Historia de la ciencia y sus reconstrucciones racionales. Tecnos. Madrid. 1974.) El hecho observable. El hipotético-deductivismo va a avanzar aún más en instaurar el falibilismo incluso en esta última etapa de construcción del conocimiento: la que expresan los enunciados básicos que hablan, ya no de acidez o de la tasa de fosfatasas en sangre, sino de algo mucho más simple y directo, del color rojo en el papel, o del movimiento de una aguja en una escala numérica. Los argumentos son variados y tienden a establecer que ellos también son hipótesis acerca de la naturaleza que es necesario contrastar, y por lo tanto falibles, refutables -recordemos que si no lo fueran, no serían según el criterio de demarcación, enunciados empíricos-. El primero de ellos consiste en que los enunciados de observación están formulados en términos universales -conceptos-, que no pueden ser reducidos, por hablar de todos los caballos o los vasos, o el agua, a experiencias singulares por muy numerosas que sean, de la misma manera que las leyes no son un conjunto enumerable de sucesos idénticos; ambos son, lógicamente, conjuntos infinitos. Dirá Popper que los universales tienen el carácter de una teoría, de una hipótesis, ya que con la palabra "vaso" se denotan los cuerpos físicos que se comportan como se espera que se comporten los vasos, sucediendo lo mismo con la palabra "agua" o "caballo". Si el comportamiento es distinto al esperado, la hipótesis de que lo designado sea agua o vaso, se verá refutada. No sólo el enunciar aquello que se observa se encuentra impregnado de teoría. La percepción misma es mediada por teorías interpretativas tan tempranamente adquiridas unas, como la escala cromática, que parecieran haber nacido con nosotros; otras, como las que hacen al conocimiento de objetos macroscópicos, son teorías muy elementales, pero sin embargo, también adquiridas, también construidas. Esto le otorga el carácter potencialmente falible que suponíamos inherente a otros niveles de conocimiento. Percepción de un color ‑ teoría visual ‑ enunciado empírico son pasos plenos de hipótesis, y por lo tanto refutables. La epistemología genética de Jean Piaget apoya las afirmaciones de Popper de que incluso la percepción -ver rojo, caballo o vaso-, depende de teorías interpretativas básicas construidas mayoritariamente desde el nacimiento hasta los 6 años. Como lo expresara Popper, el conocimiento común es hipotético-deductivista. 72 Problema Intuición Hipótesis fundamental Hipótesis auxiliares Cláusula ceteris paribus Deducción Situación experimental Teorías interpretativas Deducción Enunciado básico Si falso, hipótesis ad-hoc Si los enunciados básicos son hipótesis, construidos con conceptos también hipotéticos que expresan cualidades observables hipotéticas, de contrastación por lo tanto infinita, y cuya verdad nunca podrá establecerse, ¿cómo podremos usarlos para poner a prueba las leyes e intentar refutarlas? Popper piensa que en algún momento de la cadena de contrastaciones es necesario decidir que los enunciados básicos con los que pretendemos poner a prueba la hipótesis fundamental ya han sido suficientemente corroborados, y pueden ser aceptados en consecuencia como si fuesen verdaderos. 73 Esto significa que aceptar la base empírica es una convención, aunque se trate de enunciados lo suficientemente sencillos para que los científicos puedan acordar su aceptación y poner fin a la secuencia infinita de contrataciones Es ahora, que han sido aceptados, cuando se encuentran en condiciones de corroborar o refutar la hipótesis fundamental. ¿Refutación? Actualicemos el esquema del H-D a la luz de la red de hipótesis y teorías que hemos presentado mediando entre la hipótesis fundamental y los enunciados básicos, para explicar la racionalidad (pragmática y lógica) del científico cuando decide sostenerlapese a fallos adversos de la experiencia, sin guiarse por las normas del refutacionismo dogmático: De la a) hipótesis fundamental, conjuntamente con una teoría interpretativa experimental -distinta a la que pertenece la hipótesis primera- y una cláusula ceteris paribus se deduce: Una situación experimental, en cuyo montaje intervienen d) hipótesis auxiliares acerca del material de trabajo, y a cuyo término se produce un datos sensoriales, los que son leídos a través de una teoría interpretativa básica, y expresado mediante un enunciado básico que describe la experiencia sensorial -del tipo de "el papel viró del blanco al rojo en contacto con la orina"-, expresado mediante términos universales, que implican nuevas teorías, ahora lingüísticas, y que, merced a la "traducción" efectuada por la teoría interpretativa experimental, es leído como un: enunciado básico contrastador, -que afirma, por ejemplo, "la orina posee un pH ácido"aceptado convencionalmente como verdadero, mediante el cual corroboramos o refutamos la hipótesis fundamental. Se plantea entonces la siguiente situación: si el enunciado básico la corrobora, entonces la cláusula ceteris paribus no nos permite afirmar que sea la única corroborada, y los motivos lógicos expuestos anteriormente nos vedan decir que sea verdadera. Si la contradice, el falibilismo de todo el conjunto de hipótesis y teorías empleadas hace que sea razonable suponer -antes de darla por falsa- que lo refutado es alguno de los eslabones que la unen al enunciado básico. 74 Alejados ya de la simplicidad esquemática del refutacionismo dogmático, ¿qué tiene de extraño que el científico defienda su hipótesis frente a un dato de la experiencia? Es pertinente formular una pregunta, ante la visión de un edificio hipotético-deductivista en el cual lo único que permanece firme son las leyes de la lógica, que -lo sabemos-, no proporcionan información, son trivialmente verdaderas: habiendo destruido la inducción y la verificación, ¿no correremos el riesgo de perder ahora también a la refutación ahogada por el conjunto potencialmente infinito de hipótesis ad-hoc que admite en todos sus niveles? ¿Significa esto que es imposible refutar una hipótesis fundamental, y nos hundimos una vez más en el escepticismo del que creíamos escapar? No en el refutacionismo liberalizado. En párrafos anteriores subrayamos, deliberadamente, la palabra decidir. Una decisión no es un elemento lógico, mas no por eso es arbitraria; se toma sopesando motivos, razonadamente; eliminando la subjetividad de la decisión en la discusión con otros científicos. Así, es posible decidir que el enunciado básico contrastador, observacional, se encuentra lo suficientemente corroborado como para aceptarlo; decidir que el material de trabajo pasó todos los controles de calidad adecuados en forma satisfactoria; decidir que las teorías interpretativas experimentales nos proveen de resultados fiables, ya que han sido usadas y probadas anteriormente; decidir dar por demostrada la ausencia de otros factores relevantes, y recién entonces considerar refutada la hipótesis principal. Decisión que compete, más que a un científico aislado, a un conjunto de investigadores que controla la secuencia experimental por medio de intercambios personales, comunicaciones públicas, repeticiones de experiencias, etc. De esta manera la comunidad científica, en su funcionamiento real, disminuye el riesgo inherente a toda decisión distribuyéndolo entre sus miembros, a través de la socialización de la discusión. Con todo, las decisiones adoptadas pueden revisarse en cualquier momento a la luz de nuevas evidencias empíricas, o nuevas inquietudes teóricas, y reiniciar así un proceso de contrastación nunca cerrado definitivamente, como lo muestra de manera reiterada la historia de la ciencia. Más allá del refutacionismo Una enigmática frase de Claude Bernard al final de su narración de la experiencia -frustrada en un comienzo- de provocar diabetes artificial a un conejo mediante la punción del cuarto ventrículo, nos colocará al límite del refutacionismo, sea dogmático o liberalizado. 75 Decía C. Bernard refiriéndose a dicha frustración: "Los hechos negativos, cuando se consideran aisladamente, nunca nos prueban nada, nunca pueden destruir un hecho positivo". (Bernard,C. op. cit. p. 213.) Evidentemente, lo que llama hecho negativo es un enunciado básico refutatorio. Si leemos a la luz de estas reflexiones el retraso de Saturno, que refutaba aparentemente a la teoría de Newton -sólidamente asentada en infinidad de "hechos positivos", resultados confirmatorios en todos los campos de la mecánica-, era natural que los científicos buscaran otra explicación al suceso que excluyera la falsedad de la teoría newtoniana, lo que condujo al descubrimiento de Neptuno. Añade a continuación: "Un hecho crudo no es científico, y un hecho cuya causalidad es irracional debería ser expulsado de la ciencia." (ibid. p. 218.) Aunque no ignora la existencia de estos hechos, los califica de incomprensibles mientras no muestren las condiciones que los determinan, so pena de caer "en el reino de lo indeterminado, a saber de lo oculto y maravilloso", con lo que el razonamiento experimental "estaría continuamente detenido o inevitablemente llevado al absurdo". ¿Qué quiere decir C. Bernard con "hecho crudo"? Aquel cuya causalidad se ignora. Sólo pertenece a la ciencia, entonces, cuando se conoce a qué ley obedece, y ésta debe ser, necesariamente, otra distinta a la que refuta. En síntesis: un hecho refuta una hipótesis cuando es consecuencia observacional de otra hipótesis. Lo que refuta una hipótesis es otra hipótesis, a través de enunciados básicos que la corroboran. Así, un mismo hecho refuta a la primera, mientras corrobora a la segunda. Esta situación ha recibido el nombre de experiencia crucial, puesto que permite decidir entre dos hipótesis alternativas acerca del mismo campo de estudio. Popper concuerda totalmente con este punto de vista, y le da una vuelta de tuerca cuando compara teorías complejas como las de Newton y Einstein. No bastaba que una explicara un fenómeno mientras que la otra fallaba en hacerlo, como sucedía con el adelantamiento del perihelio de Mercurio, que refutaba a la primera, siendo un resultado natural de los cálculos de la segunda. Debía tener mayor contenido empírico, explicar sucesos en un rango de fenómenos más amplio. Fue necesario que la teoría de Einstein predijera la incurvación de los rayos lumínicos cuando pasan cerca de una masa gravitatoria considerable, hecho no previsto por la teoría newtoniana, y que fuera corroborado en el curso de la experiencia que marcó a Popper en 1919. Lakatos dirá que el juicio no se emite en el momento del choque crucial entre teorías, sino que es diferido hasta contemplar más de la evolución de ambas, demorando históricamente el reemplazo de una por otra. Lo que en principio no se considera una experiencia crucial, llega a serlo cuando se contempla retrospectivamente el desarrollo de las teorías. Aunque qui76 zás nos encontremos aquí no en el límite del hipotético-deductivismo, sino por fuera del mismo, donde no nos acompaña el pensamiento de Popper o de C. Bernard. Hemos pasado, casi inadvertidamente, de la contrastación de hipótesis aisladas -para el que parecía especialmente diseñado el refutacionismo liberalizado-, a la contrastación de hipótesis alternativas y luego a la elección entre teorías más amplias con desarrollos que abarcan numerosos rangos de fenómenos que las corroboran o las desafían. Sus evoluciones en el tiempo y el reemplazo de unas por otras comienzan a ser impensables incluso en el marco del hipotético-deductivismo más liberalizado. Nos encontramos en este momento en una inflexión dentro de la filosofía de la ciencia que marca el cambio de la problemática iniciada por el neo-positivismo a una nueva manera de entender la actividad científica: el avance de la ciencia como desarrollo de paradigmas, estrategia de reflexión inaugurada en 1962 por Thomas Kuhn en La estructura de las revoluciones científicas, que cierra un capítulo brillante de la historia, para iniciar otro. 77 S ECC I Ó N 3 El lenguaje de la ciencia según Popper En el capítulo correspondiente, había presentado el lenguaje de la ciencia. Se presentaba como un proceso constructivo que iba desde lo más elemental, los términos, a las leyes. En el presente capítulo se sintetiza la concepción del lenguaje de la ciencia de Popper, y sus profundas diferencias con la versión neo positivista. Iniciemos una breve recapitulación de los elementos de esta última, para que nos sirva de punto de partida para que en la comparación sea más evidente la originalidad del pensamiento de Popper. Según el neo positivismo, el lenguaje consta de: Términos. i. lógicos ii. empíricos: observacionales - teóricos Con ellos se construyen enunciados. Enunciados Nivel I: cuantificado para uno o algunos, con términos observacionales. Es el nivel de los datos o de la muestra Nivel II: cuantificado universalmente -todos- con términos observacionales. Es el nivel de las leyes observacionales. Nivel III: cuantificado universalmente, con términos teóricos. Es el nivel de las leyes teóricas (puras) Reglas de correspondencia: conectan el lenguaje teórico con el observacional. En esta sucinta caracterización del lenguaje de la ciencia según el neo positivismo, advertimos que se construye siguiendo su postura epistemológica empirista e inductiva. La diferencia entre términos observacionales y teóricos es empirista -se observa o no-. Los niveles se construyen de tal manera que de los datos se llega a las leyes -criterio inductivo-. 78 Al menos los datos son verificados por la observación -criterio empiristaPopper, que no es empirista ni inductivista, necesariamente tenía que presentar otra concepción del lenguaje de la ciencia. Comienza, entonces, no por el camino empirista, ascendente desde enunciados observacionales a leyes, sino a la inversa, por las leyes, a las que denomina: ENUNCIADOS UNIVERSALES 1. Estrictamente universales 2. Numéricamente universales Los estrictamente universales no pueden ser traducidos por un número finito de enunciados singulares y es verdadero en todo tiempo y lugar (difiere su caracterización de los enunciados cuantificados universalmente de los Niveles II y III, en la notación lógica “(x)” que refiere a todos los elementos de una clase determinada por “x”, y que según Popper se adopta este criterio desde el neo positivismo es propuesta para la técnica de la inferencia -inductiva-. ). En los estrictamente universales no aparecen nombres individuales. Tienen la característica de ser refutables, pero no verificables. La negación de un enunciado estrictamente universal equivale a la negación de un enunciado estrictamente existencial, y viceversa. Lo que quiere decir es que las leyes, más que afirmar algo, se comportan como sabemos que lo hacen las leyes, prohibiendo un cierto estado de cosas. Uno de los ejemplos que menciona es: “No existe una máquina de movimiento perpetuo.” Los numéricamente universales, cuyos miembros pueden enumerarse y corroborarse si lo que predicada de ellos es así. La ciencia trata de los primeros, no de los segundos. Esta división entre los enunciados universales, dejando fuera de la ciencia en razón de estructura lógica a los numéricamente universales, da solución a un problema que quizás todavía no se había planteado, y que era el siguiente: Si la forma lógica de una ley es : (x) ( Qx entonces Px) no se puede distinguir entre una ley tal como “todos los cuerpos se dilatan con el calor”, y el enunciado “todas las herramientas de la caja de Juan están oxidadas”, que posee la misma forma lógica, pero no es una ley científica. 79 Se la llamó generalización accidental, y diferenciarla generó innúmeras discusiones y artículos. Uno de los intentos es el de afirmar que una ley científica apoya un contrafáctico ... sin que a ciencia cierta pueda todavía determinarse la índole de los contrafácticos. Uno de los autores más conocidos, Lewis, apela a mundos lógicamente posibles en los que en uno funciona, en otros, no, etc. Un mundo lógicamente posible es aquel en el que no se viola el principio lógico de no contradicción. No me voy a detener en los detalles de la propuesta, pero convengamos con Carnap que mundos lógicamente posibles hay infinitos -como bien lo ilustra la literatura-, pero mundo de la experiencia es uno sólo, y es en este mundo en el que debemos saber si el enunciado general para las herramientas de Juan es una ley científica, como lo indica su forma lógica, o si no lo es, aunque tenga esa forma. La distinción de Popper entre enunciados universales hace que la caja con herramientas oxidadas no presente ningún problema para la filosofía de la ciencia y su lenguaje Una reflexión adicional. Para Popper, cuyo criterio de cientificidad es la refutabilidad, no hay duda que los enunciados estritamente universales lo son. En cambio, los numéricamente universales son -potencialmente- verificables, y no refutables. Este es el motivo por el cual desde el empirismo puede pensarse que son científicos, y tratar de diferenciarlos de las leyes propiamente dichas. Su criterio de cientificidad es la verificación y por ende su generalización vía inducción. Algo impensable para Popper. ENUNCIADOS EXISTENCIALES De la forma existe un x tal que ...., tienen la característica que son verificables -si se encuentra el tal x- y no refutables, dado que al igual que los estrictamente universales legislan para todo tiempo y lugar. Popper los caracteriza como enunciados de “hay ...” Según la propia propuesta de Popper, no son científicos, pero juegan un lugar importante en la ciencia -existe una sustancia que cura el cáncer, puede no ser científica, pero guía las investigaciones-. Y como vimos, también en el método científico popperiano. ENUNCIADOS BASICOS Los enunciados básicos se deducen de los universales sólo si están acompañados de condiciones iniciales, Son el equivalente de los enunciados observacionales del neo positivismo, el lenguaje básico que pone a prueba la hipótesis. Pero al no ser empirista, su caracterización no puede ser que refieran a objetos y/o propiedades observables. 80 Popper los caracteriza no diciendo que refieren a observables, sino que poseen la propiedad lógica de la observabilidad. Agrega a la enunciación ya conocida, las características de tiempo y lugar del suceso, y al menos un nombre de individuo. Mientras que se definían como enunciados que referían a un individuo o a varios con propiedades observables -lo que no indica cuando ni cómo- Popper estipula que sucederá en tal tiempo y lugar, y eso lo hace obverbable, se lo observe o no, lo haga una persona, o sea registrado por un instrumento. Los telescopios actuales registran una placa fotográfica, pero no hay nadie que observe los astros. La placa a su vez posee la característica de la observabilidad, pues está allí para observarse, se lo haga o no. (Popper atribuye a Winston Churchil la distinción del registro de lo observable por medio de instrumentos). Esta observación final -no es lo mismo observación que enunciado de observación- para ser objetiva debe ser intersubjetiva. Afirman que un evento dado acontece en un espacio tiempo individual. Estos enunciados básicos son, como podían ser de otra manera dentro de la metodología hipotético deductiva, hipótesis que pueden ser refutadas. Una vez más, difiere Popper de la terminología neo positivista cuando tiene que caracterizar a los términos con los que se forman las leyes. Recordemos que los enunciados estrictamente universales -las leyes- son aquellos formados por términos universales. Al igual que los enunciados estrictamente universales, los términos universales no pueden ser agotados por ningún número de eventos. Cuando decimos que algo es agua, es porque suponemos que se comportaría -si lo pusiéramos a prueba- como lo hace el agua. Podríamos estar equivocados, y ser vodka, o peor, lavandina, como de hecho sucede en accidentes caseros. Son hipótesis, como las leyes. Otra distinción que establece Popper poco más adelante, es que los universales son disposicionales. Por disposicionales se entiende que poseen la capacidad de comportarse de cierta manera, pero sin que esto ocurra por el momento. El azúcar es soluble; pero no está disuelta; el vidrio es rompible, pero no está roto. Lo que dice Popper, es que un hueso es rompible, pero no está roto hasta que no se pone de evidencia que lo está (pensemos en alguien que actúa en ante un accidente). Si ahora volvemos al ejemplo del agua, cuando pensamos que Borges toma agua en sus conferencias -en realidad, lo hacía antes de darlas- estaríamos equivocados, el vaso contiene ginebra, lo que Borges toma, como buen porteño de su tiempo. No sólo es una hipótesis, algo que ya comentamos. Le atribuimos al agua la disposición de tener tales o 81 cuales características. Ambos argumentos convergen en la propuesta de considerar hipótesis a los universales. 5. LOS NOMBRES INDIVIDUALES Son indispensables en la concepción de lenguaje de Popper para distinguir a los enunciados básicos, a los que caracteriza porque contienen términos de individuos, y a estos últimos porque en su definición sin indispensables nombres propios. Ese es Bachín, mi perro (podría agregar, para construir un enunciado básico) ese que juega en el jardín. Aquí Bachín es un nombre individual. Pero si le enseño a Agus mi nieto la palabra perro, y le muestro a Bachín, Bachín ya no es un nombre individual, sino el miembro de una clase, la de los perros. Enseño a Agus el universal perro. El ejemplo cambia las palabras del ejemplo de Popper porque me es más grato hablar de Agus, y por supuesto de Bachín, que del perro Lux de Popper. Popper sabe mucho antes de que diera sus ejemplos Wittgenstein en las Investigaciones filosóficas, que las palabras se aprenden señalando lo que llama ejemplares paradigmáticos. Tampoco sirven para caracterizar a los individuos sus descripciones, que parecerían pertenecerle sólo a ellos, pues describiría a la clase de todos todos los individuos con tales o cuales propiedades y relaciones. LOS ENUNCIADOS BASICOS COMO HIPOTESIS Si los enunciados básicos que ponen a prueba una teoría son hipótesis, quiere decir que pueden ser refutados. Esto ya lo habíamos visto en el capítulo anterior. Voy a agregar algo más, que completa la concepción del lenguaje de Popper. En un apartado, Popper nos dice que lo que sucede en el mundo no puede refutar un enunciado, por el motivo que son ontológicamente diferentes. Las palabras difieren de las cosas (diremos que afirmar que coinciden es una de las características del idealismo). La palabra piedra no se puede comparar con una piedra. La palabra piedra dicha es una vibración, escrita es un conjunto de letras sobre un papel. La piedra es sólida y mucho más pesada que que las vibraciones o el papel. Las letras, cuya materialidad es la tinta, es todavía más liviana. La palabra redonda no es redonda. Si digo el papel está sobre la mesa, la palabra papel no está sobre la palabra mesa. 82 Si esto es así, ¿cómo se puede refutar un enunciado? Popper acota: lo único que puede refutar un enunciado es otro enunciado. Por lo tanto, si quiere refutar mi enunciado, construya otro que sea refutatorio. Y presente las evidencias del caso. Si son convincentes, podemos aceptar que mi enunciado ha sido refutado. Si no lo son, aceptamos convencionalmente el mío. Como en el sistema jurídico, lo aceptamos a la luz de las evidencias disponibles. Pero si aparecen nuevas evidencias, podemos revisar el acuerdo, y cambiarlo. Neopositivismo Términos: i. observacionales ii. teóricos i. ii. iii. iv. Enunciados observaciones (datos) leyes observacionales leyes teóricas enunciados mixtos (reglas correspondencia) Popper i. ii. iii. iv. Enunciados estrictamente universales numéricamente universales existenciales básicos Términos: i. universales ii. nombres individuales Versión coherentista de la verdad Puntualicemos que la posición de Popper constituye un rechazo de la concepción semántica de la verdad que viene desde Aristóteles (la verdad es decir de lo que es que es, y de lo que no es, que no es) por la cual de la comparación entre lo que se dice y lo que es establere la verdad o falsedad de lo dicho. Popper -así como otros filósofos- hizo notar sus dificultades, y sin presentarla por completo, nos habla de una concepción alternativa de la verdad, la visión coherentista de la verdad. El 83 conocimiento consta de un conjunto de enunciados compatibles entre sí (esta versión tampoco es completa), sin que haya alguno que sea contradictorio. Si se admite alguno que lo sea, reemplaza a otro (s), y el conocimiento sigue siendo coherente. Terminamos aquí con Popper. Al menos el Popper que prefiero. El Popper de origen socialista, solidario con sus colegas neo positivistas al punto de ir a Nueva Zelanda y no a Inglaterra cuando debieron huir del nazismo para dejarle su lugar a su colega Waisman; el que publica La sociedad abierta y sus enemigos como su contribución a la lucha antitotalitaria (se comparta o no lo que dice); el hipotético deductivista y falibilista duro, sin lugar para la metafísica en la filosofía de la ciencia, rechazando la concepción semántica de la verdad y las teorías del significado provenientes de Frege. El de la no determinación del curso de la historia. En honor a la verdad (sea esto lo que sea, aunque sospecho que aquí es un simple recurso retórico) debo decir que a medida que pasan los años, Popper cambia, y no para mejor, como los buenos vinos. Acepta la concepción semántica de la verdad. Deviene junto con Hayeck uno de los principales fundadores del neo liberalismo. Adscribe a las posiciones metafísicas, idealistas de Hegel y Frege, continuándolos en la ciencia al postular un Tercer Mundo ideal donde moran las teorías y el conocimiento científico. Me quedo, y espero que ustedes disfruten tanto como yo la aventura de conocer el 84 pensamiento de un filósofo original, audaz, que por añadidura escribe con buen estilo. El Popper que llega aproximadamente hasta los años 40, y no lo desestimen porque hubo otro, del mismo nombre, que usurpó su lugar y con el que no coincidimos en absoluto 8 El racionalismo crítico de Claude Bernard Claude Bernard (1813-1878) médico, es el fundador con sus investigaciones señeras a la fisiología, base junto con la teoría celular de Virchow de toda la medicina científica. Escribe el tratado metodológico Introducción al estudio de la medicina experimental, conocido y seguido por todos los investigadores biomédicos. El fisiólogo Bernardo Houssay, premio Nobel 1947 y iniciador de la escuela fisiológica argentina, autodidacta en medio donde la investigación biomédica estaba ausente, acostumbraba decir que aprendió a investigar con el texto de Claude Bernard. EL RACIONALISMO CRITICO DE CLAUDE BERNARD Se suele atribuir a Karl Popper el haber presentado la primera versión completa y fundamentada del método hipotético-deductivo. En el presente artículo intento mostrar que esta epistemología fue expuesta casi sententa años antes por un científico notable, Claude Bernard, quien hacia mediados del siglo pasado inaugurara, con una revolución científicas que todavía repercute en nuestros días, el nacimiento de la fisiología, la primera de las ciencias biológicas en lograr su madurez teórica. Pese a su interés historiográfico, su recuerdo no satisface una simple curiosidad por el pasado, puesto que su pensamiento -expuesto bajo el poco prometedor título de Introducción al estudio de la medicina experimental- conoce ediciones muy recientes, y permanece vivo para todos los investigadores en el área de la biomedicina y de los premios Nobel de ciencia que lo han recomendado a sus discípulos durante ge- 85 neraciones. Y, por lo tanto, se constituye en una pieza maestra para comprender las peculiaridades epistémicas de las ciencias biológicas, explicándonos asimismo la buena predisposición de quienes las investigan para hacer suyas las reglas metodológicas popperianas. Más aun. De la actualidad de Claude Bernard habla el indudable papel que desempeñó en la creación de la escuela francesa regulacionista de la economía, a partir del conocimiento que sus iniciadores tuvieron del esquema de teoría de la fisiología, que trasladan a otro campo de conocimiento. Además, es una hipótesis altamente plausible el que Freud haya conocido sus obras durante su entrenamiento como fisiólogo en París, y empleado sus prescripciones metodológicas cuando construye la teoría psicoanalítica. Sin embargo, el hecho ha permanecido desconocido para la comunidad epistemológica, pese a algunos señalamientos de Peter Medawar en el homenaje a Karl Popper, que le dedica dos citas y apenas media página para mencionar que las hipótesis eran un elemento central para la concepción de la ciencia de Claude Bernard. Popper, por su parte, responde ante esa mención, y la de otros autores -como William Whewell-, que ignoraba que hubiera quienes lo antecedieran en su camino. Es curioso que Medawar no advirtiera que las hipótesis -para Claude Bernard- son algo más que una referencia puntual, pues se integran a un refinado hipotético-deductivismo, expuesto, para sorpresa del lector inadvertido, casi con mismas palabras con las que lo hace Popper. Quizás se deba a un prejucio que lo sitúa en la corriente positivista de la época. Sostendremos que su hipotético-deductivismo, como el de Poper, se opone al positivismo, y por idénticos motivos, en primer lugar, un antiinduccionismo resuelto, como el que expresa diciendo: “Cuando pensamos que vamos de un hecho especial a un principio, a saber, haciendo una inducción, realmente estamos haciendo una deducción”; o,“resumiré diciendo que a mí me parece que sólo hay una forma de razonamiento, la deducción mediante el silogismo.” Una forma tan tajante de rechazar la inducción sólo encontraría parangón en Karl Popper, cuando dice: “Ahora bien, en mi opinión, no existe nada que pueda llamarse inducción”. Introduje -deliberadamente- dos citas paralelas de Claude Bernard y de Karl Popper. No son las únicas que podrían hacerse coincidir casi término a término, si nos lo propusiéramos. A fin de remarcar las coincidencias entre ambos autores, adoptaré la estrategia de presentar la secuencia standard de pasos del método hipotético-deductivo segun Karl Popper, mencionando a continuación el pensamiento de Claude Bernard en cada uno de ellos. Para los que quieran comparar sus lenguaje, citaré a pie de página la correspondente enunciación de Popper. La lección de Claude Bernard. 1889. La 86 El inicio del método, el problema Claude Bernard especifica con toda claridad que el inicio de la investigación, el paso inicial que dispara el método hipotético-deductivo, es una incógnita, un problema que tiene su origen puede tener su origen tanto en la observación, como en la teoría. Aunque en estos puntos su coincidencia con Popper es completa, es menester aclarar que éste tiende a pensar más en términos de problemas empíricos, sin marcar con igual importancia a los teóricos. La invención de las hipótesis: la intuición Sabemos que una vez identificado un problema, para el método hipotético-deductivo no existe una lógica del descubrimiento, ni un método para llegar a las hipótesis con las que se intenta solucionarlo. Ese proceso por el cual se sugieren respuestas, se lo llama intuición. Claude Bernard lo dice con las siguientes palabras: “A propósito de una observación dada, no pueden darse reglas fijas para hacer nacer en el cerebro una idea exacta y fértil. El método experimental no puede dar ideas nuevas y provechosas a los hombres que carecen de ellas”, agregando a continuación: “El sentimiento o la intuición da lugar a la idea experimental o hipótesis”. 87 Pese a la coincidencia entre ambos autores, haremos notar que existe alguna divergencia en cuanto al margen de libertad que le asignan al proceso intuitivo en la formulación de hipótesis. Mientras que para Popper es un procedimiento abierto, en el cual la experiencia no juega un papel más importante que los sueños o los mitos, para Claude Bernard es su fuente principal: “La idea experimental no es en absoluto arbitraria, o puramente imaginativa: tiene que apoyarse en la realidad observada, es decir, en la naturaleza”, dice, mencionando una de las características de su método experimental, que se inicia a menudo con un “experimento para ver”, realizado sin demasiados preconceptos, sólo para explorar el campo de estudios. Faltaría muy poco para que llamara abducción, -como lo hace Pierce- a la inferencia que lleva desde los hechos o la teoría, a una hipótesis plausible que explique los fenómenos. El método: hipótesis, deducción, contrastación Para el método hipotético-deductivo, las hipótesis se ponen a prueba deduciendo a partir de ellas consecuencias observacionales, cuya verdad o falsedad informan sobre la verdad o falsedad de las hipótesis de las que se partió. El fuerte papel que juega el concepto de hipótesis en el sistema metodológico de Claude Bernard -en momentos en que todavía pesaba sobre éste el anatema newtoniano de “hipótesis non fingo”-, queda reflejado en los siguientes párrafos, que contienen, como en el pensamiento de Popper, la impronta de un racionalismo crítico: “La gente que condena el uso de las hipótesis y de las ideas preconcebidas en el método experimental, comete el error de confundir la invención de un experimento con la observación de sus resultados.” “La esencia del razonamiento experimental será siempre una idea que introducimos en un trozo de razonamiento experimental con el fin de someterla al criterio de los hechos, a saber, del experimento.” Poco más adelante, Claude Bernard completa su concepción del método experimental, en el que reconoceremos elementos propios del hipotético-deductivismo popperiano: la formulación de hipótesis, la necesidad de deducir de ella, la demarcación entre la ciencia y la metafísica o la escolástica. “El objeto del método experimental es transformar este concepto a priori (o hipótesis) en una interpretación a posteriori, fundada en el estudio experimental de los fenómenos. El metafísico, el escolástico y el experimentador, todos trabajan con una idea a priori. La diferencia está en que el escolástico impone su idea como una verdad absoluta que él ha hallado, y de la cual deduce entonces consecuencias por lógica solamente. El experimen88 tador, más modesto, por lo contrario, formula una idea como interrogación, como interpretación, como una anticipación más o menos probable de la naturaleza, de la cual deduce lógicamente consecuencias que, de momento a momento, confronta con la realidad mediante el experimento”. La experimentación es imprescindible, pues: “Las deducciones, aún completamente lógicas, son siempre dudosas, y por lo tanto tiene que recurrirse necesariamente al experimento para verificar las conclusiones del razonamiento deductivo”. Claude Bernard sabe, como nosotros, que la corrección de la deducción no garantiza la verdad de la conclusiones, y que si éstas son erróneas, las premisas también lo son, haciendo suyo el provocativo planteo de Popper de que las hipótesis son refutables, mas no verificables. Para aquellos que quisieran ser complacientes con sus propias hipótesis, buscando las instancias que podrían corroborarlas, el hipotético-deductivismo es descorazonador: la ética del investigador exige que sean deducidas todas aquellas circunstancias que podrían refutarlas, pero que no lo hacen; sólo de esta manera, poniéndolas a prueba de la manera más rigurosa, es posible seguir manteniéndolas, sin que esto signifique que han sido verificadas. La exigencia de Claude Bernard no es menor que la de Popper: “El resultado de esto es que cuando exponemos una idea o un teoría en la ciencia, nuesto objeto no puede ser el conservarla tratando de buscar todo cuanto pueda ir en su apoyo y apartando todo cuanto la debilita. Por el contrario, debemos examinar con el mayor cuidado los hechos que aparentemente podrían acabar con ella, porque el progreso real siempre consiste en cambiar una teoría vieja que comprende pocos hechos, por una nueva que comprende más”. Haremos notar que en este párrafo expone -junto con la noción de que se deben hacer todos los esfuerzos para refutar las hipótesis- un criterio de progreso en ciencia como aumento del contenido empírico que tiende a coincidir con el de las corrientes actuales de la filosofía de la ciencia. Para Popper, la refutabilidad de las hipótesis persiste aunque hayan sido ampliamente corroboradas. Claude Bernard lo sabe, expresando que “las teorías son sólo hipótesis verificadas por hechos más o menos numerosos, pero ni aún así son todavía finales, ni nunca debe creerse en ellas absolutamente”, expresándolo en un momento en que se suponía que la teoría de Newton era indiscutiblemente verdadera. Sus palabras son las siguientes: “Todas las teorías que sirven de punto de partida para los físicos, químicos y con más razón aún para los fisiólogos, son ciertas hasta tanto se descubran hechos que no incluyen o que las contradicen”. “Cuando halla- 89 mos un hecho que contradice una teoría interesante, tenemos que aceptar el hecho y abandonar la teoría aún cuando la teoría esté apoyada por grandes hombres y aceptada generalmente”. No quisiera concluir sin dejar de mencionar que Claude Bernard, al igual que Popper, no fue nunca un refutacionista ingenuo -en el sentido de que la experiencia obligara a abandonar una hipótesis a la primera contradicción-, sino que admitía que el científico persistiera en ella, aduciendo ad-hoc contra las evidencias, hasta que las experiencias permitieran hacerla triunfar, o finalmente, lograra integrar el hecho refutatorio en una teoría alternativa, ya que según él, “un hecho negativo -refutatorio, agregamos nosotros- cuando se consideran aisladamente, nunca nos enseñan nada”, y que “en realidad, tiene que haber error o insuficiencia en la observación, porque el aceptar un hecho sin causa, es decir indeterminado en sus condiciones necesarias, es ni más ni menos que la negación de la ciencia”. No es necesario abundar demasiado, ni recordar las experiencias en las que Claude Bernard continúa la investigación atribuyéndole el error no a la hipótesis que pone a prueba, sino a las circunstancias que rodean al diseño experimental -condiciones anatómicas de los animales de experimentación, pureza de las drogas, otros factores no tenidos en cuenta, etcétera-, poniendo a prueba estas hipótesis ad-hoc hasta encontrar la falla, a fin de corregirla. O si esto no sucede, integrar el hecho refutatorio en una hipótesis alternativa, con lo cual la experiencia se constituye en crucial -en la terminología epistemológica actual-, ya que permite decidir entre una u otra. La demora en la refutación, desdeñando en primera instancia el hecho refutatorio si la hipótesis es altamente plausible, es acompañada por la convicción de que los hechos no tienen importancia si no son provienen de una hipótesis o punto de vista que los ordene conceptualmente. Sabemos de la firme posición de Popper al respecto, que concuerda con su antiinductivismo y antiempirismo. Claude Bernard manifiesta que: “La idea anticipada o hipótesis, es entonces, el punto de partida necesario de todo razonamiento experimental. Sin ella, no podríamos hacer ninguna investigación ni saber nada; sólo podríamos ir amontonando observaciones estériles. Si experimentamos sin una idea preconcebida, nos moveríamos al azar”. Es interesante remarcar que cada punto de su metodología hipotético-deductivista se encuentra ilustrada por claros ejemplos extraidos de sus propias investigaciones. En rigor, se encuentra íntimamente ligada a su experiencia como científico, al punto que epistemólogos tan sutiles como George Canguilhem tienden a pensar que es allí, entrelazada a la práctica científica como adquiere su real valor, y no en un planteamiento abstracto que la desconoce. Por supuesto, concordamos con lo que hace el propio Claude Bernard cuando abstrae un esquema formal nacido en medio de la práctica de laboratorio -y, agregamos, de su minucioso co90 nocimiento de la metodología positivista- y lo generaliza para toda la ciencia experimental. Por otra parte, no de otra manera procede la ciencia, que toma esquemas de una disciplina y los traslada a la otra, a fin de formular hipótesis y teorías que parecen nuevas en nuevos campos. Permítaseme, por lo tanto, incluir en este escrito uno de esos ejemplos en los que vemos, en acción, el hipotético-deductivismo de Claude Bernard. Esta investigación comienza por la observación de un hecho casual, que despertó su curiosidad de científico, y que consistió en que la orina de unos conejos que estaban sobre su escritorio era -insólitamente- clara y ácida como es la de los carnívoros, en vez de ser turbia y alcalina, como habitualmente. Claude Bernard piensa que para que se diera este fenómeno, sus condiciones de nutrición debieran ser similares, debido a que, al no haber comido en mucho tiempo, el ayuno los había transformado en carnívoros forzosos que viven de su propia carne. Para poner a prueba esta hipótesis, alimenta con pasto a los conejos, en los que reaparece una orina turbia y alcalina. La acidez reaparecía con el ayuno, y desaparecía con la alimentación, como lo sugería la primera intuición. Pero todavía no probaba si realmente se debía a que se alimentaban de carne, ya que no se sabía si el organismo del conejo produciría orina ácida en esta circunstancia. En el siguiente paso, ofrece sólo este alimento a los conejos -que lo aceptan de buen grado-, transformándolos en carnívoros reales, obteniendo una vez más orina límpida y ácida. Claude Bernard cree que su hipótesis ha sido firmemente asentada, y que todos los animales en condiciones de ayuno, son carnívoros -o, para decirlo con mayor corrección, tiene el metabolismo de los carnívoros-. De allí surgen otras hipótesis, y otros experimentos. Pero seguirlas nos llevaría más allá de nuestras intenciones. Con lo expuesto, creemos haber justificado nuestra afirmación de que, pese al olvido de la filosofía de la ciencia oficial, fue Claude Bernard quien introdujo los conceptos -e incluso las palabras- que caracterizan al método hipotético-deductivo, desde las investigaciones teóricas, experimentales y metodológicas que acompañaron a la fundación de la fisiología. Es hora de que le tributemos nuestro reconocimiento. Bibliografía básica Bernard, Claude, Introduction à l´étude de la médicine expérimentale, Paris, Bailliére, 1865. Leçons de physiologie expérimentale appliquée à la médicine, 1955-56. Las citas en el texto corresponden a la versión española: Introducción al estudio de la medicina experimental, Buenos Aires, El Ateneo, 1959. 91 Théphilo de Bordeu, Recherches sur les maladies chroniques, VI, Analyse medicinale du sang, 1775. Canguilhem, George, “La constitution de la physiologie comme science”, Introducción a Charles Kayser (ed.), Physiologie, Flammario, Paris, 1963. 92 9 La concepción de la ciencia de Thomas Kuhn Introducción Hacia 1960, Thomas Kuhn publica un libro, "La estructura de las revoluciones científicas" (1962, v.e. 1971), que obliga a replantear los supuestos existentes acerca de la ciencia. Al decir de Javier Muguerza (1975) -quien escribe la introducción de un volumen en el cual los principales especialistas discuten este texto- “era una de esas obras que estaba haciéndose esperar”, añadiendo que “venía a llenar un vacío”. Este volumen contiene las Actas de Coloquio Internacional de la Ciencia celebrado en Londres en 1965, en el que participaron, entre otros, I. Lakatos, K. Popper, P. Feyerabend, S. Toulmin, J. Watkins y el propio Kuhn. En 1969, tuvo lugar otro importante congreso en Urbana, destinado a discutir la “nueva filosofía de la ciencia”. Participaron, entre otros, C. Hempel, P. Suppes, B. Cohen, van Fraassen, D. Schapere, T. Kuhn. La introducción al volumen que recoge las ponencias la escribe F. Suppe (1974); un importante ensayo en el que llama a la filosofía de la ciencia anterior, “concepción heredada”. Ambos congresos son un índice de la importancia que la comunidad filosófica le asignó a la obra de Thomas Kuhn. Estaba en el aire la idea de que la concepción tradicional de la ciencia -luego de un período prolongado de intensas realizaciones- se encontraba en un punto de su desarrollo que podría describirse como de crisis, cuestionada por diversos autores que pensaban que sus supuestos básicos -empirismo estricto, inductivismo, progreso acumulativo- no reflejaban adecuadamente al conocimiento científico. Además, al no haber podido formalizar ninguna teoría importante, y limitar los análisis lógicos a enunciados científicos simples -en el supuesto de 93 que todo lo que se dice de ellos pudiera trasladarse sin pérdida a las teorías- se generaban dudas acerca de las afirmaciones epistemológicas realizadas, puesto que dependían de que ese supuesto fuera correcto. La ciencia parecía ser mucho más compleja de lo que mostraban esos sencillos ejemplos. Quizás pensando en esto, dice Kuhn que el panorama que brindan de la ciencia, es tan equívoco como un folleto de turismo con respecto a un país. Thomas Kuhn responde a muchas de esas inquietudes cuando abre el camino para una nueva comprensión del quehacer científico sólidamente asentada en la historia de la ciencia -y no en la lógica-. Formula para ello una (meta) teoría de la ciencia que redefine completamente no sólo cuál es la estructura del conocimiento científico, y cómo se relaciona con la realidad, sino también la forma en la que evoluciona en el tiempo. Un camino que transitan historiadores de la ciencia y epistemólogos durante largos años, completando los aportes realizados por Kuhn, rectificándolos en parte, y dándoles mayor rigor formal. En cierto sentido devino un paradigma metacientífico que es seguido por una comunidad de pensadores, tal como sucede en la ciencia. 94 Presentaremos a continuación lo que nos dice acerca de la estructura de la ciencia -lo que llamaríamos su enfoque sincrónico-, para referirnos luego a su concepción acerca cómo evoluciona el conocimiento científico -enfoque diacrónico-, a sabiendas de que separamos a los efectos del análisis dos partes que son solidarias, puesto que lo que evoluciona en el tiempo es esa estructura que llama paradigma. La estructura de la ciencia según kuhn Kuhn introduce el término de paradigma para designar la estructura que adopta el conocimiento científico, a fin de diferenciarlo de teoría, que señala una entidad constituida únicamente por enunciados. Como todo término nuevo, adquiere precisión en aproximaciones sucesivas. En "La estructura de las revoluciones científicas", Kuhn lo especifica de distintas maneras, en las que siempre incluye, junto con enunciados -tales como leyes, etcétera-, otros elementos como experimentos, observaciones ejemplares y aplicaciones a los campos de realidad, que pueden interpretarse como los hechos de la teoría, y que -según Kuhn- son inseparables de ella. Posteriormente, en una Posdata (Kuhn 1971, pp. 287-293) fechada en 1969, llama matriz disciplinal a lo que anteriormente llamó paradigma -desencantado por los malentendidos que rodearon a este término - aunque el uso social del lenguaje hizo que continuara empleándose en el sentido con el que lo introduce inicialmente, y se siga llamando paradigma esa entidad compleja que supera -conteniéndola- a la noción de teoría. Cuando Materman (1975) contabiliza hasta 21 formas distintas con las que Kuhn presenta la noción de paradigma, contribuye a que sus adversarios lo descalificaran por impreciso o incluso contradictorio. Cuando Kuhn le responde, es probable que tuviera razón en señalar que esos veintiún sentidos distintos de paradigma no eran incompatibles, y que rondaban siempre alrededor de unos pocos elementos que sintetiza luego -precisándolo- con el nombre de matriz disciplinaria, siendo mucho menos vulnerable a la crítica de lo que pensaban sus oponentes. Por otra parte, la misma Masterson dijo algo similar, lo que no obstó para que se continuara insistiendo en que esto significaba confusión conceptual de su parte. En la Posdata avanza en la precisión de este concepto, estipulando dos elementos que le son centrales: i. generalizaciones simbólicas ii. aplicaciones ejemplares -o ejemplos compartidos- 95 Las generalizaciones simbólicas son enunciados muy generales acerca del campo de estudios, en el que se mencionan sus entes -aquellos objetos a los que se refiere-, y las relaciones más generales que se establecen entre ellos. En la terminología tradicional, correspondería a los enunciados teóricos centrales de una teoría dada. Un buen ejemplo lo constituye el segundo principio de Newton. En cuanto a las aplicaciones ejemplares o ejemplos compartidos corresponden a las zonas de la realidad en las que se aplica las generalizaciones simbólicas y son parte del patrimonio genuino de la comunidad científica -tanto como éstas- pues sin su especificación no se sabría como utilizarlas, ni a qué se refieren. Dicho en otros términos, forman parte de su significado, y a ellas propone que se denomine paradigma en sentido estricto. Estos elementos son los que coinciden con la reconstrucción de las teorías científicas que hace la concepción estructural, y que es aceptada por Thomas Kuhn como la mejor elucidación de lo que tenía in mente cuanto propone denominar paradigmas a los principales logros de la ciencia. Kuhn incluye en la matriz disciplinar a valores, tales como el gusto por la precisión, la claridad, la simplicidad, etcétera, o compromisos ontológicos, como el preferir teorías de campo antes que teorías corpusculares. No las incluimos en nuestra caracterización por no ser elementos estructurales. La propuesta de Kuhn difiere de las concepciones anteriores, para las cuales la teoría es un conjunto de enunciados que se relacionan con la realidad por medio de reglas de correspondencia -enunciados que conectan a los enunciados generales de la teoría con los enunciados observacionales que describen a los hechos-. O si se prefiere otra versión, se conectan deductivamente. Es menester aclarar que nunca fue totalmente resuelto el problema de cómo podrían deducirse enunciados observacionales desde los enunciados con términos abstractos -teóricos- de la teoría, ni como podrían interpretarse mediante reglas de correspondencia. El problema de dar significado empírico a la teoría permanecía, de manera general y pese a las discusiones y propuestas de la comunidad epistemológica, abierto. Para Kuhn, no hay reglas de correspondencia que den contenido empírico a las leyes. En una interpretación de su pensamiento, pareciera aceptar que este planteo adolece del mismo problema que la definición de términos universales -lo que se conoce como el problema de los universales-. Ya Karl Popper había apuntado que ningún número de enunciados observacionales puede definir a un enunciado general -ninguna ley puede reducirse a enunciados de experiencia-, y además que ninguna experiencia individual puede dar cuenta de un término universal. En Popper (1973 p. 90) estas posiciones forman parte de su crítica general al empirismo estricto, y conducen directamente a su concepción de que tanto los enunciados generales, como los términos universales son hipotéticos. Kuhn (1971 cap. VI), que piensa que no hay ninguna conexión deductiva entre leyes y hechos, adopta para la ciencia una versión de la solución de Wittgenstein(1958) al problema de los universales. 96 Este autor constata que no es posible ninguna definición de un universal que cubra todos los casos en los que es legítimo usarlo. O dicho de otra manera, que dada cualquier definición, es posible construir un contraejemplo mostrando un objeto que cumple todas sus condiciones, y sin embargo no es correcto llamarlo así. Incluso en términos tan sencillos como “silla”, a la clásica definición de asiento con cuatro patas y respaldo que sirve para sentarse, es posible señalarle algunas no tienen cuatro patas, o es dificil distinguir el respaldo del asiento -como en los diseños modernos- o ver que las sillas miniatura de los juegos cumplen los requisitos, pero no sirven para sentarse, al igual que los esquemas o las representaciones de sillas. La conclusión de Wittgenstein es que este no es el camino adecuado para dar significado a los términos. Una definición -que indique la esencia del universal- no es la manera correcta de hacerlo. Piensa que todos los objetos a los que legítimamente puedan aplicárseles el universal, se encuentran cruzados por múltiples lazos de parecidos que los conectan, pero que no abarcan a todos ellos; algunos conectan a unos, otros a otros, a la manera en que los parecidos de familia hacen reconocibles a sus miembros, sin que en definitiva ninguno de ellos sea igual a otro, ni pueda señalarse ningún rasgo común a todos ellos. ¿Cómo entonces, es posible el lenguaje, la comprensión de lo que se dice, si no depende de la definición de los términos que se emplean? Wittgenstein dice que en el aprendizaje del lenguaje, se señala un objeto específico al que se aplica un término dado, y que todos los demás a los que se intenta aplicarlo es porque guarda un parecido con aquel primer objeto, que llama paradigmático. Kuhn adopta esta solución para la ciencia, trasladándola de los universales a las leyes. Sabe, por sus estudios como físico teórico, que en su entrenamiento profesional los científicos aprenden a usar las leyes no por definiciones taxativas, sino mediante ejercicios prácticos en los que se encuentran involucradas, y que, presentes en los libros de texto, abarca experimentos ejemplares, múltiples aplicaciones, etcétera. Por supuesto, las más importantes son que históricamente fueron las primeras aplicaciones exitosas de las generalizaciones simbólicas -sus aplicaciones paradigmáticas, parafraseando a Wittgenstein-. Las demás aplicaciones se parecerán a ella; y es este parecido el que guía a los científicos cuando intentan aplicarlas a otras zonas de la realidad. En rigor, la historia de la evolución del paradigma consiste en aplicar -exitosa y cada vez más ampliamente- la generalización simbólica a más zonas de la realidad. Esto implica que el conjunto de aplicaciones de una generalización simbólica es un conjunto abierto, al que las investigaciones específicas agregarán o restarán aplicaciones. Incidentalmente, esto cierra el camino a fijar el significado de las leyes mediante la enumeración de todas sus aplicaciones -ya que se desconocen las que aparecerán en el futuro- en una nueva vuelta de tuerca de la mencionada imposibilidad de reducir las leyes a lo empírico. 97 Si se adopta este punto de vista, es sencillo pensar que la investigación científica procede aun en ausencia de reglas explícitas: los parecidos entre las aplicaciones existentes, y aquellas que pudieran serlo, las guían con la misma seguridad que el conocimiento de los casos paradigmáticos guían la aplicación de los universales, aunque con la incertidumbre que preside a toda investigación, ya que los parecidos no son sino parciales, y los percibidos en las candidatas a ser nuevas aplicaciones no garantizan que lo sean. Como vemos -aunque trataremos este aspecto más adelante- la adopción del punto de vista paradigmático para comprender la ciencia, lleva implícita la noción de su evolución histórica. Continuando con la especificación de la estructura del conocimiento científico mencionaremos que Kuhn propone un tercer elemento de tipo proposicional entre las generalizaciones simbólicas y sus aplicaciones. Esto es así, porque las primeras son demasiados generales, y no pueden aplicarse a ningún campo empírico directamente, sino a partir de algunas modificaciones que las particularicen para el mismo, y que las transformen de leyes generales en leyes especiales. Veamos algunos ejemplos para mostrar lo que Kuhn tiene in mente. El conocido segundo principio de Newton, “fuerza es igual a masa por aceleración” ( f = m . a ), de una generalidad tan grande que Kuhn lo llama ley-esquema, necesita para aplicarse con éxito ser modificado para que se adecue a cada situación específica. Así, la fórmula general cambiará a “mg = d2 / dt2” para el caso de la caída libre de los cuerpos; “mg sen = ml d2 / dt2” para los péndulos, etcétera. Supongamos que la teoría (paradigma) infecciosa de las enfermedades se encuentra caracterizada por una generalización simbólica tal que diga “Toda enfermedad que cursa con fiebre se debe a la acción de un microorganismo”, y que su caso paradigmático es el primero en que se descubrió que el bacilo de Koch era el responsable del cuadro clínico y de las lesiones específicas en pulmones y otros órganos. El caso paradigmático nos dice además que la enfermedad tiene características específicas tales como fiebre vespertina, tos, etcétera, además de unas lesiones anatómicas propias de ella. Como resulta obvio, la ley especial para esa enfermedad infecciosa peculiar que es la tuberculosis es el enunciado que expresa que: el bacilo de Koch causa el cuadro clínico y las lesiones específicas de la tuberculosis. En adelante, todas las investigaciones bajo el paradigma de las enfermedades infecciosas consistirán en visualizar una enfermedad febril con unas ciertas características, para individualizar a continuación el germen específico que la causa. Cuando se comprueba que esto es así, otra enfermedad febril -aplicación presunta del paradigma- se ha transformado en otra aplicación efectiva, es decir, en una enfermedad infecciosa -causada por un microorganismo-. La investigación profundiza luego tanto en las peculiaridades de la enfermedad febril -que es diferente en cada caso puesto que algunas presentarán además de temperatura, ganglios, o 98 manchas en la piel, o tos, etcétera, y lesiones orgánicas -anatomo-patológicas- específicas, como en las del microorganismo que la causa: estafilococo dorado, neumococo, etcétera. Por si no fuera evidente hasta ahora, remarcaremos que cada generalización simbólica tiene múltiples aplicaciones, restringidas y pequeñas, y no una única gran aplicación –como lo suponía para las teorías la concepción tradicional-. En este sentido, cada una de las enfermedades infecciosas que se descubre es una aplicación exitosa más del paradigma, siendo su desarrollo actual el resultado de las investigaciones de generaciones de científicos desde hace más de cien años. Kuhn nos dice que el estudiante aprende a reconocer en los ejercicios propios de cada paradigma, no sólo los parecidos entre las distintas aplicaciones, sino también el tipo de modificaciones que debe experimentar la generalización simbólica para adecuarse a cada caso particular. El reconocimiento perceptual de una aplicación –y de su similitud con otras- es posible porque en la manipulación práctica de símbolos y objetos, junto con las habilidades propias de cada paradigma, se forja una estructura perceptiva–una Gestalt- contra la cual se la compara. En este contexto, la investigación bajo un paradigma consiste en que los científicos formulan una doble hipótesis, luego de localizar un sector de la realidad que guarda un aparente parecido con aplicaciones ya existentes, y de proponer una modificación de la generalización simbólica, que es parecida a otras modificaciones ya utilizadas: i. que ese sector de la realidad es un buen candidato a ser una nueva aplicación de la generalización simbólica; ii. que la modificación que se propone es correcta, y explica lo que sucede en la realidad. Ambas hipótesis pueden resultar falsas luego de la investigación, o sólo una de ellas, ya que el fracaso puede deberse a que la ley especial que se propone es incorrecta –a la manera clásica, falla en sus predicciones-, o lisa y llanamente, que el “olfato” del científico falló cuando intuyó que el sector de la realidad al que dirige su atención podía llegar a ser una aplicación real. Es claro que este fracaso en ampliar la zona de aplicabilidad del paradigma no incide sobre él, no constituye una instancia refutatoria. Como lo expresa Kuhn, sólo habla del fracaso del científico, y si los fracasos se reiteran, de su posible incompetencia. Existe por lo tanto un doble argumento que explica porqué Kuhn dice que los paradigmas no se refutan. Primeramente, la generalización simbólica es tan general que no tiene contacto directo con la realidad, sino a través de sus leyes especiales. Estas sí tienen la posibilidad de ser refutadas. Cuando así sucede, simplemente se elimina una de sus aplicaciones, sin que esto afecte al paradigma en su conjunto. A lo sumo, puede introducir alguna duda acerca de la 99 capacidad futura del paradigma para guiar las investigaciones, tal como lo hizo hasta ese momento. En caso de comprobarse que todas sus leyes especiales son falsas, refutando incluso a sus aplicaciones paradigmáticas, tampoco resulta falsa la generalización simbólica. Sencillamente, deja de ser una ley de las ciencias fácticas, para pasar a ser un enunciado general sin contenido empírico –al carecer ya de aplicaciones-, como algunos de la metafísica, la poesía o las ciencias formales. No hay refutación en sentido estricto, entre otros motivos porque no hay manera de demostrar que no pudieran existir -en un futuro- aplicaciones exitosas que le devuelvan su condición empírica. El segundo argumento deriva de los análisis formales que C.Ulises Moulines 81982 pp. 88108) hizo de estas leyes-esquema –terminología que introduce Kuhn en su obra- que son las generalizaciones simbólicas -a las que llama principios-guías, pues son principios muy generales que guían a la investigación-, en los que muestra que su forma lógica se caracteriza por la presencia de numerosos cuantificadores existenciales, que los hace formalmente irrefutables. Con respecto a la concepción de la ciencia de Karl Popper, Kuhn presenta similitudes y diferencias notorias. En primer lugar, no desecha enteramente al método hipotético-deductivo, puesto que tiene su lugar cuando se ponen a prueba las hipótesis que generan los científicos cuando realizan sus investigaciones de ciencia normal, en incluso de ciencia extraordinaria. En este punto, la metodología popperiana permite refutarlas o corroborarlas. Cuando se corroboran, se agrega un nuevo conocimiento al paradigma. Pero esta refutabilidad local, limitada, no se extiende al paradigma en su conjunto, al paradigma como tal, que permanece irrefutable, por los motivos que mencionamos anteriormente. Irrefutabilidad de los paradigmas, falibilidad local, aplicaciones múltiples que se agregan en el transcurso del tiempo, aprendizaje en la práctica, ausencia de reglas explícitas, heurística por semejanza, Gestalten que hacen ver el mundo a través de la peculiar estructura perceptiva que caracteriza a cada paradigma, habilidades prácticas, inseparabilidad de la teoría y los hechos, semántica por mostración de casos paradigmáticos, son algunas de las consecuencias metaepistemológicas de analizar la ciencia desde la perspectiva de la “solución del problema de los universales” de Wittgenstein, que Kuhn extiende al conocimiento científico, luego de adecuarlo a su visión de científico e historiador de la ciencia. Veremos a continuación como esta perspectiva incide en su concepción de la historia de la ciencia, y de la construcción social del conocimiento científico. La historia de la ciencia Una de las novedades que introduce Kuhn, y que debió constituir un desafío para la filosofía de la ciencia de la época, es su afirmación de que la historia de la ciencia no sigue un cur100 so azaroso -aunque no sea predecible-, sino que su desarrollo se encuentra estructurado por una secuencia evolutiva que es la misma para cada paradigma, y muestra la plausibilidad de su propuesta con sólidos análisis históricos. Es necesario recordar que anteriormente la ciencia se consideraba acumulativa -si se era neopositivista-, o interrumpida a cada instante por refutaciones -si se era hipotético-deductivista-. En ninguno de los dos casos, hay posibilidad de pensar en una secuencia ordenada y presupuesta de los ciclos históricos. Kuhn muestra a través de numerosos ejemplos -que abarcan a las disciplinas científicas más consolidadas, como la astronomía, la física, la química-, que la ciencia posee una fase acumulativa durante largos períodos en los que la investigación es guiada por un paradigma, que termina cuando se inaugura un nuevo paradigma. El primer período lo denomina de ciencia normal, y lo considera el más característico de la ciencia. Las interrupciones y reemplazos de un paradigma por otro que es incompatible e inconmensurable con él, las llama revoluciones científicas. A su vez, la ciencia normal tiene un período ascendente, en el que el paradigma se expande ampliando sus aplicaciones, hasta un punto máximo a partir del cual comienza a dar señales de agotamiento. Los fracasos en lograr nuevas aplicaciones, aislados al comienzo, luego cada vez más frecuentes, configuran anomalías que desembocan en una crisis. En este momento, comienza un tipo particular de investigación -ciencia extraordinaria-, en la cual se busca un nuevo marco conceptual, un nuevo paradigma que reemplace al anterior. Ambos paradigmas coexisten durante un corto período de tiempo, hasta que el nuevo paradigma reemplaza al antiguo, configurando una revolución científica, que inaugura un nuevo período de ciencia normal. La investigación bajo un paradigma, y la sucesión de paradigmas es la característica de la ciencia madura, nos dice Kuhn. Previa a la existencia de un paradigma en un campo de conocimientos dado, existe un período preparadigmático. Tenemos entonces la siguiente estructura en la evolución de la ciencia: i. un período preparadigmático ii. un período paradigmático de ciencia normal, de larga duración, con sus etapas de expansión y de crisis iii. un corto período de ciencia extraordinaria iv. una brusca revolución científica A partir de este momento, la historia reitera los ciclos de ciencia normal, ciencia extraordinaria y revolución científica. 101 A continuación, caracterizaremos cada uno de los períodos en los cuales discurre la historia de la ciencia. Al hacerlo, introduciremos -forzados por el desarrollo teórico- una noción que trataremos en profundidad más adelante. De la misma manera que al tratar la estructura de la ciencia debimos introducir nociones históricas, implícitas en ella, el análisis de la historia conduce necesariamente a la noción de comunidad científica. El nacimiento del paradigma. El período preparadigmático Kuhn llama período preparadigmático a todo el largo período histórico previo a la consolidación de un campo científico, y que concluye cuando se instala un paradigma. Se caracteriza porque una cierta zona de la realidad se explora desde múltiples perspectivas, que surgen de algún conocimiento anterior, o de una teoría metafísica, o cuerpos teóricos muy incompletos -como no puede ser de otra manera, si se acepta que no es posible investigar sin algún punto de vista, así sea poco desarrollado-. La ausencia de bases firmes para la investigación hace que si bien puede ser considerarse científica, sus resultados no siempre lo son. La lenta exploración del campo de conocimiento culmina cuando alguna de estas estrategias de investigación obtiene un éxito notorio en una zona problemática cuya importancia es compartida por la mayoría de los científicos, que comienzan a considerar la posibilidad de utilizar su armazón conceptual y empírico para sus propias investigaciones. Al concitar el consenso de la comunidad científica, deviene un paradigma que inicia su período de ciencia normal. Nótese que en este momento, hemos introducido una noción sociológica para explicar el paso del período preparadigmático a la ciencia madura, a la ciencia normal de un paradigma consolidado desde el punto de vista de su propia estructura –ya que a su generalización simbólica, añadió al menos ley especial que condujo a un ejemplo paradigmático. Kuhn insiste que la manera en que un historiador visualiza el triunfo de un paradigma es mediante la comprobación del consenso que logra en la comunidad científica, que es simultáneamente el de la consolidación de esta última alrededor del paradigma –indicado entre otros elementos de juicio por la aparición de publicaciones especializadas en el tema, y de libros de texto-. La visualización social de que constituye una herramienta más adecuada que las demás para conducir las investigaciones, es un motivo pragmático que guía a los científicos cuando optan por el paradigma, avalados en su decisión por el éxito obtenido, y por las características conceptuales que posee. Mientras que de acuerdo a la concepción anterior, no hay gran cosa que hacer con una teoría o una hipótesis una vez corroborada, salvo intentar refutarla, o acumular nuevo conocimiento sobre ella, un paradigma es una estructura abierta, inacabada, que promete a quienes investiguen bajo sus parámetros que lograrán éxitos similares a los ya alcanzados. Luego veremos que Kuhn aduce argumentos similares para explicar las revoluciones científicas. 102 Cuando se encuentra en posesión de un paradigma, la comunidad científica tiene resuelto, antes de comenzar a investigar, cuestiones que son básicas. Ya conoce cuál es el ámbito de objetos a los que debe dirigir la investigación, cuáles son las preguntas pertinentes que pueden hacérseles, cuál es la índole de las respuestas admitidas, y cuáles son los métodos para ponerlas a prueba. Y esto lo sabe de manera no es enteramente discursiva, sino mediante ejemplos paradigmáticos. La ciencia normal El hecho de que toda una comunidad científica investigue aceptando al paradigma, hace De#la#ciencia#normal#a#la# extraordinaria# • ¿Cómo#se#producen#novedades#en#una#ac6vidad#que# no#las#busca?# • i.#Problemas#importantes#sin#resolver## • ii.#Descubrimientos#de#situaciones#no#previstas#o# incompa6bles#con#el#paradigma# • Anomalías#que#determinan#una#crisis# • Inves6gadores#jóvenes#buscan#soluciones#por#fuera# del#paradigma# • Contruyen#un#nuevo#marco#conceptual#que#resuelve# los#viejos#problemas#antes#insolubles,#y#conserva# muchos#de#sus#recursos#técnicos#y#formales# que este se desarrolle –y con él el conocimiento científico- de una manera característica. Esto es así, pues los científicos ya no dedican su tiempo a discutir las bases de su conocimiento – que se dan por sentadas-, y pueden entonces explorar exhaustivamente el campo de conocimiento que abrió el paradigma, de una manera que las exploraciones dispersas y azarosas del período pre-paradigmático no permitían. Los aciertos obtenidos por un grupo de investigación son completados por los otros grupos, que a su vez exploran con nuevos aciertos las aplicaciones propuestas, potenciándose mutuamente. ¿En qué consiste la investigación bajo el paradigma? Habíamos mencionado la formulación de leyes especiales para nuevas aplicaciones de la generalización simbólica. Hablando técnicamente, esto conduce a encontrar nuevos modelos –en el sentido matemático de ejemplo del aparato conceptual- para el paradigma, ampliándolo en su alcance. Si pensamos en la teoría infecciosa de las enfermedades, recordemos que 103 desde la obra de Koch, la comunidad de investigadores hizo que a cada enfermedad que cursa con temperatura, se le intentara encontrar –casi siempre exitosamente- el germen que la causa y las lesiones específicas que presenta. Cada nueva enfermedad infecciosa identificada como tal, significa un nuevo modelo de la teoría. Otra tarea consiste en refinar el aparato conceptual, dándole mayor precisión. Las axiomatizaciones emprendidas por los científicos, o las reescrituras en un nuevo aparato matemático de las ecuaciones diferenciales de Newton por parte de Lagrange o de Hamilton pueden ser buenos ejemplos de esta tarea de tipo teórico. O tareas de índole empírica, como el dar mayor precisión numérica a ciertas constantes físicas, o, en el caso de las enfermedades infecciosas, las precisiones en la forma y la biología de cada microorganismo y en las lesiones características que causan. En casi todas las ocasiones, cada paso dado en una dirección abre un abanico de posibilidades que es necesario investigar. Kuhn llama rompecabezas o enigmas a los interrogantes que plantea un paradigma, en cada punto de su desarrollo. Son de distinta índole. Teóricos –como los refinamientos conceptuales-. Empíricos –como las exploraciones en busca de precisión empírica. Teóricos y empíricos –como cuando se logra una nueva aplicación del paradigma, puesto que posee una fase conceptual al formular las leyes especiales, y otra empírica al explorar la zona de la realidad a ver si cumple lo estipulado en la ley-. Precisamente, el intentar resolverlos es el centro de la actividad científica durante el período de ciencia normal. Muy provocativamente, Kuhn dice que la investigación bajo el paradigma no busca ninguna novedad, y que cuando tiene éxito, no la produce. Esto es así, puesto que lo que se obtiene es lo que prevé el paradigma –, por ejemplo, identificar el microbio que causa la neumonía-. Sin embargo, no es sencillo ni obvio el camino que se debe seguir, y resolverlo compromete un gran ingenio y una enorme creatividad. La resolución exitosa de enigmas caracteriza al período ascendente del paradigma, cuando cada vez que se aplica a un problema, éste se soluciona. ¿Cómo es posible, entonces, que una actividad en la que no se discuten los fundamentos, y que no busca producir novedades, pueda ser reemplazada, dando lugar a una revolución científica? Esto es así, pues al explorar exhaustivamente zonas de la realidad muy restringidas, suceden, fundamentalmente, tres cosas: i. existen aplicaciones presuntas que debieran ser explicadas adecuadamente mediante leyes especiales, y sin embargo, pese al empeño de distintos grupos de investigación, no se consigue; 104 Revoluciones+cien,ficas+ • No+es+el+único+que+piensa+que+hay+discon6nuidades+ en+el+conocimiento+cien,fico:+ • El+neo;posi6vismo+acepta+el+cambio+teórico,+pero+no+ de+enunciados+empíricos+verdaderos+ • Popper+piensa+que+toda+teoría+debe+ser+refutada+ • Kuhn+establece+la+ruptura+luego+de+un+largo+período+ de+ciencia+normal,+en+que+se+definen+entes,+ problemas,+soluciones+y+métodos+ • El+cambio+de+paradigmas+no+implica+refutación,+ni+ experiencias+cruciales+ ii. hay enigmas de distintas índole que no logran ser solucionados; iii. y, finalmente, en esas exploraciones tan cuidadosas, terminan descubriéndose en la pequeña zona de realidad del paradigma, objetos que son incompatibles con el mismo. Todas estas situaciones configuran anomalías, que por acumulación comienzan a dar la sensación de que el paradigma ya no es la herramienta fiable para investigar que era anteriormente; los comentarios aislados en los pasillos de los congresos son cada vez más públicos hasta desembocar en una crisis, cuando la comunidad descree del mismo. Sin embargo, todavía continúa utilizándolo, con menores resultados, o resultados nulos, pues –como dice Kuhn- es preferible una herramienta mellada a no tener ninguna. Recordemos que no hay investigación posible sin un marco de referencia en el cual encuadrarla. Este es el momento en el cual un pequeño grupo de investigadores, en general jóvenes y no demasiado comprometidos con el paradigma -sin un gran capital simbólico que perder en el cambio- comienzan a investigar en la construcción de marcos conceptuales alternativos. Se inicia una fase de ciencia extraordinaria que va en busca de un nuevo paradigma. Las revoluciones científicas 105 La#elección#racional# • El#viejo#paradigma#se#encuentra#agotado#en# su#capacidad#de#resolver#problemas# • El#nuevo#paradigma#plantea#problemas#que# pueden#ser#resueltos# • La#elección#es#de#una#racionalidad# pragmá9ca# • El#indicador#del#cambio#revolucionario#es#la# aceptación#de#la#comunidad#cien:fica# Es poco recordado que el neo positivismo, uno de cuyos fundadores es Albert Einstein, no podía desconocer el cambio radical de teorías. Sus miembros estudiaron fondo la teoría de la relatividad, e hicieron una reconstrucción formal de la misma. ¿Cómo era posible que sostuvieran al mismo tiempo la acumulación del conocimiento a lo largo de la historia? ¿No es esto contradictorio? Sucede que se refieren a dos niveles distintos de las teorías científicas. Un primer nivel de enunciados observacionales que están en la base de todas las teorías. Esta clase de enunciados, para un empirista, es indudable que es verdadero si se los constata por observación. La ciencia descubre cada vez más descripciones empíricas verdaderas de la ciencia, que no cambian si cambian las teorías. En cuanto al nivel teórico, era considerado una estructura lógica que servía para hacer inferencias de enunciados observacionales a otros, y que cuyo cambio sólo incidía en los caminos inferenciales, pero no en el conocimiento científico; que una vez más, consistía en descripciones verdaderas del mundo en lenguaje observacional fisicalista. Cuando los jóvenes investigadores logran construir ese nuevo marco conceptual, se encuentran en posesión de un nuevo aparato conceptual -incompatible e inconmensurable con el anterior- que permite que sean aplicaciones suyas intrigantes problemas que el paradigma viejo 106 Inconmensurabilidad/ • No/existe/un/lenguaje/neutro,/ni/una/ observación/neutra:/inconmensurabilidad/ lingüís;ca/y/perceptual./ • Inconmensurabilidad/del/lenguaje/básico:/en/ cada/teoría,/proviene/de/una/teoría/básica/ preexistente,/no/del/lenguaje/observacional/ común/ • Del/lenguaje/teórico:/un/conjunto/pequeño/de/ términos/que/se/aprenden/en/conjunto/ no podía resolver, y otras impensables anteriormente. Conserva además muchas de sus aplicaciones más prestigiosas, y muchos de sus recursos técnicos y formales. La promesa de investigaciones exitosas, y los resultados a los que progresivamente llegan quienes propusieron ese nuevo marco conceptual, hace que algunos sectores de la comunidad científica lo adopten como propio, hasta que la mayoría opta por él, transformándolo en el nuevo paradigma. Una vez más, el indicador del cambio de paradigma es sociológico, no formal ni empírico. No es la incoherencia formal, ni la refutación empírica lo que lleva a abandonar un paradigma. En algún momento Kuhn menciona que no es posible imaginar que Aristóteles y Newton -dos de las mentes más esclarecidas de la historia de la humanidad- hayan cometido errores lógicos cuando diseñaron sus teorías, o evaluado incorrectamente el apoyo empírico que éstas poseían. Desde el punto de vista de su articulación formal y su precisión conceptual, es probable que el viejo paradigma sea superior, puesto que en eso trabajaron generaciones enteras de científicos. En cuando al hecho de que no haya podido superar una serie de anomalías -sin avanzar en la investigación de zonas importantes de la realidad- no implica que no pueda suceder en el futuro, como ocurrió en el pasado; excepto en el caso de los últimos fracasos en 107 Inconmensurabilidad/ • Experiencia/como/historiador/ • Imposibilidad/de/la/traducción/perfecta/ • Perceptual:/cada/paradigma/posee/su/propia/ estructura/percep:va/o/Gestalt/ • Los/argumentos/son/circulares,/y/la/comunicación/ dificultosa/ • No/implica/incomparabilidad:/de/su/rendimiento/ presente/y/futuro./ • Comparte/que/la/simplicidad,/exac:tud,/ consistencia,/alcance/y/fer:lidad/son/per:nentes/en/ la/comparación/entre/paradigmas/ aplicarlo, el viejo paradigma tiene un mayor apoyo empírico, producto de los largos años en los que guió las investigaciones. Sin embargo, inacabado como es, y precisamente por esa circunstancia, la mayoría de la comunidad científica, elige investigar bajo los parámetros de paradigma nuevo, abandonando el paradigma viejo. Los motivos son pragmáticos. Tiene por delante años de investigaciones que se anticipan exitosas, nuevos problemas interesantes a los que abocarse. Cuando esto sucede, se ha consumado una revolución científica. Kuhn nos dice, nuevamente de manera provocativa, que puesto que no hay ninguna razón ni formal ni empírica que obligue a dejar un paradigma, quienes sigan sosteniéndolo no pueden ser acusados de irracionales, sino de testarudos. Cita el caso de Priestley, quien descubre accidentalmente el oxígeno, pero al no aceptar la nueva química, no lo reconoce como tal, y continúa, cada vez más solo, como un viejo químico del flogisto. En estas condiciones, el paradigma anterior desaparece cuando muere el último de quienes lo sostienen. (Recordemos que en las metodologías anteriores, si la evidencia empírica contradice las predicciones de los enunciados generales, éstas están refutadas. Las razones para que así sea son lógicas, de modo que quienes no las tomen en cuenta -siendo la lógica el espejo de la racionalidad- deben ser considerados irracionales.) Cuando Kuhn habla de inconmensurabilidad, quiere decir que es imposible encontrar una forma neutral de medida, que garantice su exacta evaluación comparativa, de manera de po108 der decidir entre uno y otro basándose en esa regla común. Para las concepciones epistemológicas tradicionales, esa función la cumple un lenguaje observacional básico, indiscutible para todos los científicos. Por supuesto, esto implica que tanto el lenguaje como la observación son neutros con respecto a las teorías en juego -precisamente lo que cuestiona Kuhn-. La inconmensurabilidad en el lenguaje quiere decir que existen algunos términos que son propios de cada teoría, y que no pueden traducirse –sin forzarlos- con los términos de la otra. Kuhn nos cuenta que esta es su experiencia como historiador, cuando al estudiar una teoría antigua, encuentra términos a los que no comprende desde las nociones que ya posee, y cuya traducción es imposible sin que se pierda parte o casi todo su significado. Se pregunta qué quiere decir flogisto desde la química de Lavoisier, sin encontrar una respuesta satisfactoria. Tampoco el aire desflogistizado quiere decir estrictamente oxígeno, pues las relaciones que entabla con otros términos no las tiene el oxígeno, ni las pruebas a las que es sometido desde la química del flogisto coinciden con las de la química moderna. Hace notar, además, que el aprendizaje de esos términos propios de las teorías antiguas, sólo pueden hacerse en bloque, pues sus significados se apoyan mutuamente. Los argumentos de Kuhn acerca de la imposibilidad de lograr una traducción perfecta, coinciden parcialmente con los de Quine (1960) acerca de la “indeterminación de la traducción”. La inconmensurabilidad perceptual quiere decir que, puesto que cada paradigma posee su propia estructura perceptiva -Gestalt-, cuando quienes los sostienen dirigen la mirada a un objeto, y piensan que ven lo mismo, en realidad ven objetos distintos. Kuhn ejemplifica diciendo que no es lo mismo ver la luna como planeta que verla como satélite; ver una piedra balanceándose de una cuerda, que verla como un péndulo. Las discusiones entre los partidarios de un paradigma y los que siguen a otro son -por lo tanto- relativamente inconducentes, y es imposible que uno convenza a otro si los argumentos dependen de palabras cuyo significado es diferente para cada uno de ellos, y de percepciones que son asimismo distintas. La inconmensurabilidad fue una noción fuertemente atacada -a veces incomprendida-desde la concepción tradicional, ya que su aceptación significa el completo abandono de sus tesis centrales -un lenguaje observacional neutro en el que expresar la experiencia, y la consiguiente refutación o corroboración de leyes cuando la contradice o la apoya-. Como hemos visto, la inconmensurabilidad entre paradigmas no implica que sea imposible compararlos, aunque lo que se compara es su capacidad potencial para resolver enigmas, y no si la experiencia refuta a uno y corrobora al otro. Sin embargo, los oponentes de Kuhn sos109 tienen que cuando expresa que los paradigmas son inconmensurables, lo que quiere decir es que son incomparables, y que la elección entre ellos es un proceso sólo social o psicológico, por lo tanto, irracional, entendiendo como racional aquella argumentación que sigue las pautas de la lógica deductiva. Fueron inútiles sus afirmaciones de que en matemáticas existe la noción de inconmensurabilidad sin que implique incomparabilidad. Sus críticos siguieron pensando que esto no es posible. Kuhn propone para las revoluciones científicas una racionalidad pragmática. Una racionalidad de otra índole, pero tan alejada de lo arbitrario como la lógica. Menos precisa, discutible, con riesgos en la elección que la comunidad científica disminuye distribuyéndolo entre sus miembros –pues algunos toman partido por un paradigma y otros por otro-, hasta que el tiempo muestra con sus resultados lo correcto de la apuesta hecha por los innovadores. Posiblemente una de las manifestaciones más notorias de inconmensurabilidad entre posiciones teóricas distintas sean las dificultades con las que tropiezan quienes leen las obras de desde las cercanías de la “concepción heredada”. Pese a que reitera en sus escritos (Kuhn 1969, 1982) unas bases con las cuales comparar teorías que no se encuentran demasiado alejadas de las que habitualmente aceptan los filósofos de la ciencia, tales como lo son las normas de simplicidad, exactitud, consistencia, alcance y fertilidad, y que postula una racionalidad pragmática para elegir entre ellas -justificándolo empíricamente en la historia de la ciencia-, al no coincidir estos criterios con los suyos, no los advierten, y lo critican como si fuera un relativista y un irracionalista. En cuanto a que la inconmensurabilidad no implica la imposibilidad de comparar teorías, además de estas manifestaciones de Kuhn, en este u otros escritos, véanse los numerosos ejemplos en LERC de comparación y elección entre paradigmas que realizan los científicos. El siguiente punto problemático en la concepción de la ciencia de Thomas Kuhn se refiere a la noción de progreso científico. La manera en la que se caracteriza la índole de este progreso en la “concepción heredada” depende de definir la verdad como la correspondencia entre lo que se afirma y la realidad -concepción semántica de la verdad-. Si la ciencia progresa, lo hace perfeccionado sus afirmaciones hasta que lleguen, por aproximaciones sucesivas, a coincidir totalmente con lo que sucede en el mundo -un ideal quizás inalcanzable-. La ciencia se desarrolla en un proceso que implica un progreso hacia la verdad. En cierto sentido, habría un desarrollo teleológico, en el cual la meta se encuentra fijada de antemano, y lo “tracciona” en su dirección. (No olvidemos que la coincidencia entre lo que se dice y lo que es constituye una buena caracterización del idealismo.) Para Kuhn, la ciencia no progresa hacia la verdad. Una consecuencia natural de considerar que los paradigmas no son verdaderos ni falsos: son objetos complejos a partir de los cuales se resuelven problemas, y su sucesión mal puede conducir, entonces, a la verdad. Quizás 110 pueda predicarse la verdad o falsedad de las leyes especiales que rigen para las aplicaciones aisladas de los paradigmas, pero no de éstos en su conjunto. Kuhn elude los inconvenientes que esto trae a la noción tradicional de progreso, redefiniéndola totalmente. Habíamos mencionado que anteriormente se entendía el progreso como pasos dados en dirección de una verdad última -a la que por supuesto no se conoce-. Kuhn lo llama progreso hacia, para diferenciarla de su propuesta, que llama progreso desde. La primera expresión es de comprensión sencilla: se progresa hacia la verdad. Para hacernos comprender lo que significa el progreso desde, nos dice que en la teoría de la evolución de Darwin, las especies evolucionan desde un estadío dado al siguiente, sin que pueda decirse que lo hacen para aproximarse a ningún modelo presupuesto de especie ideal. Darwin aleja el teleologismo de la evolución de las especies -una idea perturbadora, y que encontró gran resistencia-. Las especies no van a ningún lado; simplemente evolucionan desde el punto en el que se encuentran. Con la ciencia sucede lo mismo. Evoluciona desde cierto punto del desarrollo hasta el siguiente, sin que se tenga que recurrir a ningún teleologismo, y sin que exista ninguna predicción posible del curso que pueda seguir el conocimiento científico. En la concepción de Kuhn, la aparición de un nuevo paradigma significa que se abren nuevos campos problemáticos. No se conoce con él –en un principio- más acerca del mundo, aunque existe la promesa implícita es que se conocerá más en el futuro. En cierto sentido, la multiplicación de los problemas autorizaría a decir que con el cambio de paradigmas crece también nuestra ignorancia. Además, paradójicamente, cuando ha desplegado ya toda su capacidad para solucionarlos, se encuentra a punto de ser cuestionado por sus anomalías, y entrar en una crisis que cesa en el momento en que se abandona por inservible. ¿En qué sentido, entonces, se puede decir que hay progreso? Sabemos que en las especies naturales el progreso consiste en lograr mediante los mecanismos evolutivos una mejor adaptación al medio. En esa especie cultural que es la ciencia, el progreso consistiría en que sus estructuras –cada vez más desarrolladas, más complejas- resuelven mejor un mayor número de problemas, en una adaptación continua y cada vez más amplia del conocimiento al medio ambiente natural y social del ser humano. (Recordemos que Jean Piaget –un autor cuya influencia reconoce Kuhn- plantea que el conocimiento es la principal herramienta adaptativa del ser humano.) La evaluación completa del progreso implícito en la sucesión de paradigmas sólo es posible–retrospectivamente- cuando han completado su ciclo histórico, como sucede con la física de Aristóteles y la de Newton. Si el cambio es progresivo, encontraremos en el paradigma subsiguiente una mayor complejidad estructural y más y más precisas aplicaciones a distintos aspectos de la realidad. En cierto sentido, podría decirse que posee un mayor contenido empírico. Habíamos mencionado que cuando se trata de paradigmas en competencia, la evaluación es en cambio prospectiva, una apuesta a futuro, más que una certeza. 111 Por otra parte, si las aplicaciones hacen a la semántica de las generalizaciones simbólicas del paradigma, existiría un cambio progresivo cuando el paradigma posterior posee una semántica más rica que la del precedente, implícita en un comienzo, y cada vez más explicitada durante su desarrollo. La comunidad científica La investigación científica bajo el paradigma consiste, como hemos visto, en refinar su aparato conceptual, y en extenderlo a otras pequeñas zonas de la realidad. En estas condiciones, es natural considerar que su desarrollo sea el producto no de un científico individual, sino del conjunto de científicos que contribuyen, cada uno en su medida, a la expansión de ese objeto que comparten, el paradigma. Kuhn sabe, asimismo del rol que cumplen los grupos de investigación, y de la circulación de las ideas para su mejoramiento, ampliación y posterior aceptación como elementos plenos del paradigma. La noción de que a la ciencia la produce un agente social colectivo –al que llama comunidad científica- lo aleja de la visión de romántica del científico genial que hace avanzar la ciencia a golpe de genio e intuiciones, y que tiende a desprenderse de los esquemas de la concepción heredada. No desconoce el rol del individuo, pero sostiene que sin un marco conceptual previo no podría siquiera comenzar a investigar. Alguien es científico cuando posee una herramienta para la investigación, el paradigma, que adquiere cuando es entrenado por la comunidad científica a la que va a pertenecer luego. Mientras el espejo de la actividad científica para la concepción heredada son los escasos episodios de las grandes revoluciones científica, que se identifican con nombre y apellido, Kuhn reivindica la lenta labor de acumulación -a veces genial- que hace una comunidad de investigadores durante los largos períodos de tiempo en los que el paradigma se despliega en todo su esplendor. Reivindica los avances de la astronomía después de Copérnico, de la mecánica clásica después de Newton, del electromagnetismo después de Benjamín Franklin. Para no mencionar a todos los científicos que en la actualidad siguen trabajando en la teoría de la evolución que inició Darwin, en la genética que comenzó con Mendel, en la fisiología de Claude Bernard, en la inmunología de Metchnicoff. Fueron ellos, sus sucesores, quienes construyeron los grandes avances en estas áreas del conocimiento que tanto nos asombran, y que no terminaron con los primeros esbozos de las teorías. Por el contrario, todavía se desarrollan, con un éxito que gravita en nuestra vida cotidiana. Sin embargo, la tarea de demolición del concepto individualista de ciencia no sería completa si no extendiera la noción de comunidad científica al origen mismo de una teoría, y nos mostrara que incluso en estos casos, no hay intuición genial y definitiva, sino un proceso -corto- en el que un pequeño número de científicos -la comunidad inicial del nuevo paradigmaconstruye aquello que luego es aceptado más ampliamente. Comienza Kuhn esta tarea con la pregunta casi escolar de quién descubrió el oxígeno, para narrarnos que el primero que preparó una muestra del gas fue el farmacéutico sueco C.W. 112 Schelle, -pero su trabajo no fue publicado hasta mucho tiempo después que otros lo hicieron-. Luego el clérigo inglés Joseph Priestley recoge un gas al calentar óxido rojo de mercurio, al que en 1774 identifica como óxido nitroso, y luego en 1775 como aire común con una cantidad menor de flogisto de la habitual. Lavoisier, en 1775, piensa que ese gas era “el aire mismo, más puro”. En 1777, llega a la conclusión que era una entidad bien definida, y uno de los dos principales componentes de la atmósfera. Sin embargo, Lavoisier insistió hasta el final de su vida que el oxígeno era un principio de acidez atómico y que el gas resultaba cuando ese principio se unía al calórico, la materia del calor. Ambos, acidez y calórico, fueron eliminados por los químicos en 1810 y 1860 respectivamente. ¿Quién lo descubrió? Schelle no publicó su hallazgo, ni avanzó en él. Priestley nunca reconoció haberlo encontrado, ya que su química del flogisto excluía su existencia. Lavoisier demoró años en afirmar que ese gas era oxígeno, pero lo caracterizó con principios químicos que luego se abandonaron. ¿Lo descubren quienes dieron su forma más madura a la teoría química, y dejan de mencionar el calórico y el principio de acidez atómico? Tampoco esta respuesta parece correcta, pues aunque permite situar al oxígeno en una teoría acabada, hace años que era utilizado conceptual y empíricamente por los químicos de manera no problemática. Kuhn nos muestra que la pregunta pareciera no tener una respuesta inequívoca; menos la tiene la que inquiere por la fecha del descubrimiento del oxígeno, que puede extenderse desde el momento en que fue aislado, hasta casi cien años después, cuando en 1860 se completa la teoría química. Su conclusión es que las preguntas son incorrectas, ya que el análisis histórico muestra que el descubrimiento no consiste en un evento puntual sino en un proceso constructivo que lleva a cabo más de un individuo, y que se extiende en el tiempo, desde la observación primera a la conceptualización que finalmente lo explica. Existe, además, un motivo que va más allá de la construcción colectiva del paradigma para que Kuhn insista en que la comunidad científica es una parte constitutiva del mismo, inseparable de sus elementos teóricos, pragmáticos y empíricos, al punto de decir -de manera “circular, pero no viciosa”- que un paradigma es lo que comparte una comunidad científica, mientras que una comunidad científica es aquella que comparte un paradigma. Si un paradigma está formado por conocimientos, habilidades y percepciones estructuradas -Gestalten- entonces no puede reflejarse por completo en los libros y revistas científicas, que solo pueden contener sus elementos proposicionales. Necesariamente se deben tomar en cuenta elementos que, como las estructuras perceptivas, y las habilidades prácticas, son de índole psíquica. Siendo esto así, es legítimo considerar que el sitio en el que reside el paradigma no son las bibliotecas -como lo sostiene Popper- sino el psiquismo de los científicos que lo sustentan, que guardan allí tanto el conocimiento como las habilidades y las percepciones estructuradas. Y, desde el momento en que ningún científico individualmente considerado posee la totalidad de estos elementos -que se encuentran desigualmente repartidos en el conjun113 to de la comunidad científica- el paradigma completo reside en ella, sin que exista manera de separarlos. No fue un concepto fácil de asimilar -como tantos otros-, y las lecturas sesgadas hicieron que se lo creyera un sociologista extremo, aunque Kuhn nunca excluyó de los análisis de la ciencia a sus contenidos cognoscitivos -que son el centro del concepto de paradigma-, ni justificó que se lo tomara como punto de partida de ningún programa fuerte de la sociología de la ciencia. Tampoco se encuentran fundamentadas las acusaciones que en el mismo sentido le hicieron desde el liberalismo de Karl Popper y sus seguidores, contrariados en su individualismo metodológico por el hecho de que sostiene que el agente social de la ciencia es colectivo, y no individual. (Véase para el programa fuerte de sociología de la ciencia a Mary Hesse 1985) Por fuera de estos malentendidos, el concepto de comunidad científica -al introducir una noción sociológica en el corazón mismo de los análisis filosóficos de la ciencia-, contribuyó a cerrar la brecha existente entre los estudios epistemológicos, históricos y sociales, que pudieron entonces percibirse como aspectos complementarios y teóricamente compatibles de un mismo proceso cultural, la ciencia. Kuhn y las ciencias sociales Thomas Kuhn escribe su obra tomando como ejemplos paradigmáticos casos de las ciencias naturales -un campo que dominaba por completo-, con escasas referencias a las ciencias sociales. Sin embargo, abre en primer lugar un extenso campo de estudios para la sociología especial de la ciencia, que abarca desde investigaciones acerca de la comunidad científica -ahora justificados desde la epistemología-, hasta la influencia de los factores sociales en el desarrollo de la ciencia. No olvidemos que en algunos párrafos Kuhn menciona la incidencia de la sociedad en el curso de las investigaciones. No es que piense que lo social aparece en el aparato conceptual de la ciencia –generalizaciones simbólicas y leyes especiales-, sino que en algunos momentos, la sociedad puede influir para que la ciencia normal privilegie algunos problemas en detrimento de otros, sin que la comunidad científica deje de ejercer su “autonomía relativa” eligiéndolos o rechazándolos. En cuanto a su concepción general y a las nociones de paradigma y comunidad científica, impactaron fuertemente en los científicos sociales, que vieron la posibilidad de que fueran explicativas de sus disciplinas, e intentaron extenderlas hasta hacerlas –en la terminología kuhniana- aplicaciones exitosas de esta teoría epistemológica. Tropezaban para ello con dificultades y peculiaridades específicas, en las que había que dar respuestas adecuadas. Mencionaré algunos de ellas. En primer lugar, la existencia de varias teorías que se disputan la primacía en cada disciplina social, en vez de la tranquila hegemonía de un paradigma, ¿indica un período preparadig114 mático –como lo podría sostener el propio Kuhn-, una manera diferente de cursar la historia de las ciencias sociales, o simplemente que las ciencias sociales no son aplicaciones de la teoría kuhniana? Quienes evalúan que cada una de las teorías sociales tienen la larga maduración de los paradigmas, y son sostenidas como éstos por comunidades de pensadores –y no la corta improvisación de las incompletas teorías preparadigmáticas- piensan que se encuentran en presencia de la coexistencia de paradigmas, y que esto habla de que la evolución de la historia de la ciencia que no necesariamente exige la hegemonía de un solo marco conceptual. Al admitir múltiples formas de evolución histórica, corrigen a Kuhn tal como los científicos corrigen su paradigma. Ven, además, que las clásicas incomunicaciones entre los científicos sociales son un buen ejemplo de la inconmensurabilidad entre paradigmas, y que la decisión de abandonar uno y adoptar otro, es un cambio de Gestalt brusco, del que participa la “conversión” al nuevo punto de vista de la que hablaba Kuhn. Otra dificultad es la permanente “vuelta a las fuentes”, a los autores y escritos que fundaron cada teoría, con la consiguiente eterna discusión sobre las bases en las que se sustenta, sin que exista una versión “normalizada” que compartan todos los que la aceptan. ¿Falta de madurez, o particularidad del campo de conocimiento? Cuando Larry Laudan (1983) señala que, pese a Kuhn, los científicos ocupan parte de su tiempo en discutir sobre fundamentos, y logran así que avance el conocimiento –llegando a revolucionarlo-, ofrece las bases para una nueva corrección de la teoría kuhniana, que incluya esta actividad –por otra parte ya insinuada en el “refinamiento conceptual” original-. Más allá de estos trazos gruesos, las cuestiones que abren las ciencias sociales sólo podrán resolverse cuando existan cuidadosos relatos históricos que sigan los parámetros kuhnianos, y reconstrucciones formales de sus teorías más significativas, que exhiban con nitidez sus elementos, tal como sucede con las teorías de las ciencias naturales. Sabemos –gracias a Kuhn, entre otros autores- que la epistemología necesita de esos estudios particularizados, para no ser simples “tarjetas postales” que ilustran deformadamente a la ciencia. La concepción estructural de las teorías reconstruyó formalmente numerosas teorías científicas, corroborando que el conocimiento científico consiste en un núcleo teórico –caracterizado por distintos niveles de modelos-, y en aplicaciones empíricas de la teoría. Logra con la teoría informal de conjuntos lo que no pudo hacer la “concepción heredada” con lógica de primer orden (Lorenzano 1996, Moulines 1983, Stegmüller 1983). . Por su parte, Kuhn aceptó que esas reconstrucciones expresan con mayor precisión lo que él quería decir con la noción de paradigma. En este escrito, hemos seguido con mayor o menor fidelidad la versión de la concepción estructural (Kuhn 1976, 1992). 115 Es un camino relativamente poco desarrollado que exhibe resultados interesantes, y que promete investigaciones fructíferas a quienes lo sigan, en pos de una mejor comprensión de la estructura y la historia de las ciencias sociales. Bibliografía Hesse, Mary (1985) “La tesis fuerte de la sociología de la ciencia” En: León Olivé (comp.) La explicación social del conocimiento. IIF. UNAM. México. Kuhn, Thomas (1962) The Structure of Scientific Revolutions. University of Chicago Press. Chicago. (1971) La estructura de las revoluciones científicas. F.C.E. México. (1976) “Theory Change as Structure Change: Remarks on the Sneed Formalism”. En: Erkenntnis, 10, 1976 (1982) La tensión esencial. FCE. 1982 (1982) “Objetividad, juicios de valor y elección de teorías”. En: La tensión esencial. FCE. México. Lorenzano, César (1996) La estructura del conocimiento científico, Zavalía, Buenos Aires, (1982) Moulines C.U. Exploraciones Metacientíficas, Alianza Universidad, Madrid Masterman, Margaret. “La naturaleza de los paradigmas”. En: I. Lakatos y A. Musgrave (eds.) op.cit. 159-203. Muguerza, Javier. "Introducción. La teoría de las revoluciones científicas". En: Lakatos, I; Musgrave, A. (eds.) (1975). Olivé, León (comp.) (1985) La explicación social del conocimiento. IIF. UNAM. México. Popper, Karl (1973) La lógica de la investigación científica, Tecnos, Madrid. Quine, W. V. (1960) Word and Object, The MIT Press, Cambridge, Massachusetts. Stegmüller, Wolfgang (1983) Estructura y dinámica de teorías, Ariel, Barcelona. F. Suppe, F. (ed.) (1974) La estructura de las teorías científicas, Ed. Nacional, Madrid. Wittgenstein, L. (1958) Philosophical investigations, Basil Blackwell, Oxford. (1992) “Introduction”. En: PSA 1992. Proceedings of the 1992 Biennial Meeting of the Philosophy of Science Association. Vol. 1. A. Fine, M. Forbes y L. Wessel (ed.) East Lansing. Philosphy of Science Association. La bibliografía completa de Thomas Kuhn, se encuentra en: Lakatos, I; Musgrave, A. (eds.) (1975) La crítica y el desarrollo del conocimiento. Grijalbo. Barcelona. Lorenzano, César; Lorenzano Pablo "En memoria de Thomas Kuhn", en Redes, No. 7. Septiembre de 1996. Universidad Nacional de Quilmes. pp. 117-138. Laudan, Larry (1983) El progreso y sus problemas, Ed. Encuentro, Madrid. 116 10 La metodología de los programas de investigación 117 En julio de 1965 se reúne en Londres un Coloquio Internacional de Filosofía de la Ciencia para discutir, fundamentalmente, las posiciones que Thomas Kuhn expusiera en su libro La estructura de las revoluciones científicas, editado tres años antes. En él, Imre Lakatos, filósofo que participa de la concepción popperiana de la ciencia, presenta un artículo cuidadosamente elaborado y muy polémico en el que da un giro inesperado a sus elaboraciones anteriores. A partir de este momento, surge un equívoco que permanece como tal en la comunidad filosófica, puesto que la metodología de los programas de investigación que propone es descripta como una continuación del refutacionismo de Popper, y en tal carácter enarbolada contra la noción de paradigmas en ciencia, calificada de irracionalista o relativista, mientras que Kuhn -y muchos otros autores, entre los que cabe mencionar a Stegmüller-, a duras penas consigue entrever en qué se diferencia de su propia propuesta. En una misma reunión, por dos ocasiones las ponencias señalan una línea de continuidad con el pensamiento de Popper, para trastocarlo luego: Kuhn, para indicar sus puntos de contacto, y mostrar que su esfuerzo teórico participa de los mismos supuestos que Popper, aunque sus conclusiones difieran, y Lakatos, que se reivindica refutacionista, hablando casi por boca de Popper, rompe sin decirlo, y casi más completamente que Kuhn, con su ilustre predecesor. El escrito de Lakatos Mientras que los dos pilares básicos de la metodología refutacionista son, por un lado, considerar el sistema hipotético de la ciencia como un conjunto lógicamente coherente, deductivamente conectado, y por el otro, apelar a la experiencia como piedra de toque que refute aquel sistema deductivo que choque contra ella, Lakatos señala en contradicción con estas afirmaciones que: 1) No existe manera de refutar ningún enunciado científico, y menos una teoría compleja, ya que ante cualquier hecho que la contradiga es posible formular una hipótesis auxiliar adhoc que la defienda, y esto de manera indefinida. Si un objeto no cae cuando se lo deja librado a su propio peso, ello no refuta la ley de gravedad, ni la de la caída de los cuerpos de Galileo: es posible aducir, ad-hoc, que existe una fuerte corriente de aire que le llega desde abajo y no permite que caiga. Ante cualquier circunstancia, caben las hipótesis ad-hoc que impidan la refutación. Popper lo había previsto y exigido, para ponerle límite, que la defensa no fuera simplemente verbal; que si se esgrime una razón que impide el cumplimiento de la ley, sea a su vez contrastable por la experiencia, y que conduzca, en consecuencia, a establecer un hecho nuevo. Así sí, la defensa ad-hoc es admitida, como parte del proceso por medio del cual progresa la ciencia. Cuando los científicos observaron que en ciertos casos no se cumplía la proporción de especímenes con determinadas características hereditarias según lo previsto por las leyes mendelianas de la herencia, no pensaron ni por un segundo en abandonarlas; postularon, ad-hoc, la presencia de un gen letal, que al impedir que vivieran un cierto número de portadores, alteraba la producción prevista. La suposición condujo, efectivamente, al descubrimiento del gen letal, ya un nuevo conocimiento. Mas no había previsto que el mecanismo podría ser repetido al infinito, evitando toda refutación, sin transgredir ninguna norma de racionalidad. 118 Además, la teoría, adicionada con la hipótesis ad-hoc ahora confirmada, se modificaba; si el proceso continuaba con nuevas hipótesis ad-hoc, y nuevas confirmaciones, la teoría en cuestión evolucionaba en el tiempo. Lakatos constata que en un comienzo toda teoría nueva se encuentra sumergida en un océano de sucesos que no explica, y que debería explicar; y que estos sucesos pueden ser vistos, según un refutacionismo poco elaborado, como efectivas negaciones de la teoría en cuestión. Pero cabe verlos -y lo demuestra la historia de la ciencia- como sucesos que serán explicados mediante adiciones de hipótesis auxiliares fabricadas ex profeso para ello, ad-hoc . Afirma, entonces, que lo que debe analizarse no son sólo teorías aisladas -objeto de estudio de la filosofia de la ciencia tradicional-, sino la sucesión de teorías encadenadas unas con otras, y que consiste en la teoría primitiva y sus sucesivas modificaciones luego de añadirle hipótesis ad-hoc. Estas unidades mucho más complejas, y variables en el tiempo, recibirán el nombre de programas de investigación, y sus características, asimismo más complejas que las de una simple teoría, serán analizadas más adelante. 2) Algunos ejemplos históricos muestran que una teoría puede presentar rasgos de inconsistencia, sin ser abandonada. Así, la concepción cuántica de Bohr de 1913, inserta en la teoría de Maxwell, es contradictoria, inconsistente con ella, pero el desarrollo ulterior le permite superar la inconsistencia, así como anteriormente habíamos visto que se superaban las presuntas refutaciones. Para horror de la filosofía de la ciencia tradicional, la ciencia avanzaría en medio de refutaciones y contradicciones, y en ocasiones no a pesar, sino gracias a estas circunstancias. El primer punto había sido señalado años antes por Thomas Kuhn, casi en los mismos términos, y había conducido a la misma conclusión: las unidades de la ciencia no son las teorías, sino artefactos más complejos, los paradigmas. Enumeremos, a continuación, los elementos constitutivos de un programa de investigación, cada uno de los cuales puede ser considerado conjuntos de reglas metodológicas, o sea conjuntos de instrucciones acerca de cómo actuar, qué rutas de investigación seguir y cuáles evitar: 1) Un núcleo, irrefutable por decisión metodológica de sus protagonistas; por ejemplo, en el programa de investigación iniciado por Pasteur, y llevado a su perfección por Koch, que estipula el origen microbiano de las enfermedades cuyos síntomas sean fiebre, astenia, decaimiento, inapetencia, etc., éste sería precisamente el núcleo: el suponer que las enfermedades así definidas se deben a la presencia de un agente microbiano. 119 2) Un cinturón protector de hipótesis auxiliares. El núcleo no choca directamente con la realidad; ante los hechos que pudieran refutarlo, el científico arbitra hipótesis ad-hoc para defenderlo. Digamos que en un comienzo sólo se había demostrado la existencia de microbios en escasas enfermedades febriles; el vasto campo de las enfermedades infecciosas eran más una refutación que una confirmación de lo estipulado en el núcleo; sin embargo, éste permaneció irrefutado hasta nuestros días, mediante la estrategia de afirmar, ante cada afección en la que no se ha descubierto el microbio causal, que éste no tardará en aparecer usando las técnicas adecuadas. 3) Una heurística positiva o reglas metodológicas que indican el camino que deben seguir las investigaciones. Una vez más, recurriendo al ejemplo del programa de investigación microbiano, la heurística positiva sería un conjunto de instrucciones que dirían, más o menos: en presencia de una enfermedad febril, aíslese el microbio que la causa, cultívese, e inocúlese para reproducir los síntomas. 4) Heurística negativa o conjunto de reglas metodológicas que indican cuáles son los caminos que la investigación debe evitar. Al principio del programa de investigación microbiológico, la heurística negativa desalentó que las investigaciones acerca de las enfermedades infecciosas discurrieran alrededor de los factores sociales que condicionan su aparición, curación y evolución, y las centró sólo en el factor microbiano. 5) Las contrastaciones sucesivas de las hipótesis auxiliares añadidas al núcleo del programa de investigación, tanto por la heurística positiva -lo que debe buscar- como por la negativa -lo que debe evitar-, conducen a ampliaciones de la teoría primitiva, en realidad, según la terminología lakatosiana, a teorías sucesivas soldadas por el programa de investigación, y que según las confirmen o no, es decir, según sean portadoras de nuevo contenido empírico, cada vez más amplio, o sean sólo reacomodos meramente verbales, condicionan el que al programa en cuestión pueda calificárselo de progresivo o degenerado. Progresivo, si el programa lleva a descubrir nuevos hechos por sus heurísticas; degenerativo, si las hipótesis auxiliares ad-hoc puestas para proteger al núcleo de la refutación no son corrobora- das en el curso de las investigaciones, durante un período histórico dado. Por supuesto, un estancamiento degenerativo del programa puede salvarse mediante ciertas modificaciones a lo estipulado por las reglas heurísticas, y darle así un nuevo impulso. La regla que hacía buscar un agente microbiano en cada enfermedad infecciosa tropezó en su desarrollo cada vez con más contra ejemplos en los que no era posible aislar el microbio en cuestión. Una modificación de la misma, por la que se ampliaba el espectro de los agentes causales a los virus ya los parásitos, per- mitió asimilar como resonantes confirmaciones del programa lo que eran contra ejemplos: el absceso amebiano y el SIDA fueron comprendidos en la legalidad de parásitos y virus prevista por la heurística del programa de investigación, que superó de esta manera su estancamiento. 120 Similarmente, la regla heurística negativa de aceptar sólo lo microbiano, se alteró históricamente para captar los procesos sociales en la génesis de la infección. 6) Las revoluciones científicas son cambios de programas de investigación, que suceden luego de un largo período en el que programas de investigación contrapuestos se desarrollan paralela- mente, pero al cabo del cual uno de ellos se encuentra en fase degenerativa, es decir, sólo sabe de reacomodos verbales frente a una realidad cada vez más hostil y refutatoria, mientras que el otro se encuentra en plena fase progresiva, con incremento importante de su contenido empírico corroborado por la experiencia. En este momento, alguna zona de contacto entre ambos, que era refutatoria de uno y corroboratoria del otro, es percibida, retrospectivamente, como una experiencia crucial, una situación de hecho que daba un NO rotundo a uno, y un sí pequeño al otro, y que justificaba, con la vista fija en el pasado, el abandono del primero y la continuación del segundo. 7) Según Lakatos, la dimensión tiempo aplicada a la justificación de los programas de investigación -recordemos que la metodología eran los criterios para justificar las teorías científicas-, elimina la racionalidad instantánea, puesto que ni la inconsistencia que encuentra el lógico, ni el veredicto de contra ejemplo que pueda aducir la experiencia pueden eliminar un programa de un solo golpe. Un programa es puesto a prueba durante un lapso histórico, en el que las inconsistencias se hacen desaparecer y los contra ejemplos se transforman en éxitos suyos, hasta que al fin, agotado en su fertilidad, agotada su heurística, es reemplazado por otro programa de investigación, cuya superioridad se afirma tanto retrospectivamente, contemplando el punto en que uno iba a agotarse y el otro a progresar, cuanto prospectivamente, ya que el segundo posee la potencialidad de desarrollo perdida por el primero. La victoria de aquél es lenta, morosa, alejada de la respuesta inmediata que exigía la metodología refutacionista clásica. En realidad, un programa no es refutado; sólo existe la decisión metodológica -pragmáticade abandonarlo por otro más prometedor, y que posee contenido empírico adicional. 8) La historia de la ciencia es y debe ser la de programas de investigación en competencia. Repasemos brevemente los conceptos que introdujo Lakatos en su escrito de 1965, y contrastémoslos con los que Thomas Kuhn expusiera en 1962, en La estructura de las revoluciones científicas. en algunos puntos, secundarios por otra parte, y que están parcialmente originados en malos entendidos. El primero de ellos consiste en el rechazo que hace del supuesto psicologismo y fundamentalmente sociologismo de Kuhn, cuan- do éste plantea la noción de co Ambos coinciden en que ni la experiencia ni la lógica refutan las construcciones conceptuales de la ciencia, sean paradigmas o programas de investigación. Que su contrastación es un proceso que abarca un largo período histórico. Que mientras duran dirigen la investigación, de manera tal que indi121 can qué entes pueblan el universo, cuáles son las preguntas válidas que es posible dirigirles y cuáles son las clases de respuestas tentativamente valiosas. y que su reemplazo pragmático, luego de agotados, es una decisión en la que pesan otros factores, además de la lógica y la experiencia. El núcleo lakatosiano corresponde a las generalizaciones simbólicas de Kuhn, y los valores que coexisten con ellas en los paradigmas. Las hipótesis auxiliares que incorporan nuevo contenido empírico al programa de investigación, se corresponden con las especializaciones de las generalizaciones simbólicas, que permiten añadir nuevos modelos a los paradigmas. La heurística positiva, con la manera peculiar por la que los paradigmas indican qué entes existen, y qué preguntas pueden hacérseles, que, recordaremos luego, no son reglas metodológicas. La heurística negativa, íntimamente relacionada con la anterior, complementa las pistas que acerca de lo investigable, sus características y sus respuestas, brinda el paradigma. La etapa progresiva del programa de investigación es simétrica a la etapa de expansión del paradigma, cuando encuentra soluciones a todos, o casi todos, los problemas que visualiza como tales. La etapa degenerativa, de reacomodos ad-hoc, lo es de la etapa de crisis del paradigma, cuando falla en encontrar las respuestas adecuadas a las preguntas justas. Las semejanzas entre una y otra propuesta, la de Lakatos y la de Kuhn, son demasiado notorias como para que la metodología de los programas de investigación haya sido hecha, no como una aceptación de las ideas kuhnianas, sino precisamente como su contraparte, como su antagonista. ¿En qué funda Lakatos su pretensión de exponer una metodología original, en vez de proclamarse rectamente kuhniano, más o menos heterodoxo? Sólo comunidad científica como la instancia que resuelve, por una decisión colectiva, la aceptación o rechazo de paradigmas, así como de sus expansiones de ciencia normal, sin entender que sus llamados a "decisiones metodológicas" necesariamente implican un agente histórico que las tome, ya que no puede hacerse esta invocación en abstracto, y que la sugerencia de Kuhn, de considerar a la comunidad científica como tal agente histórico, autor de las decisiones que afectan su campo de actividades, desvanece dichas ambigüedades y les otorga precisión. Coincidente con esta crítica, menciona Lakatos una supuesta característica exclusiva de psicología social en la noción de crisis en Kuhn, que es la que llevaría al rechazo de un paradigma; soslaya que la crisis es objetiva por la incapacidad del paradigma de continuar expandiéndose, de dar respuestas válidas a un cúmulo cada vez mayor de enigmas, superponiéndose así sin pérdida a su noción de etapa degenerativa del programa de investigación, pero que 122 además marca la crisis que en consecuencia se desencadena en la comunidad científica por la caducidad de su herramienta conceptual, situación origen de las búsquedas de nuevos paradigmas sin los estigmas del anterior . Como vemos, las diferencias son en verdad coincidencias, y en lo que la concepción de Kuhn excede a la de Lakatos, sus apelaciones a la comunidad científica, son más un tanto a su favor que un hecho descalificador . La diferencia mayor entre ambos es, asimismo, una cuestión no insalvable, y se refiere a la insistencia en Kuhn de la existencia de una etapa de ciencia normal, durante la cual un solo paradigma guía las investigaciones; para Lakatos, la historia demuestra que coexisten programas de investigación antagónicos, y que esto es beneficioso para la ciencia: deben proliferar las teorías compitiendo unas con otras. ¿Por qué sostiene esto Lakatos? Primeramente, por una conclusión perversa de su premisa de que los mayores descubrimientos de la historia de la ciencia son los programas de investigación. Si es así, cuantos más haya, mejor para la ciencia. En consecuencia, la primera obligación del científico que quiera contribuir' al progreso de su disciplina es hacerlos proliferar. La afirmación, de buen impacto discursivo, rebaja hasta hacer desaparecer una labor auténtica de descubrimientos, que no es aquélla por medio de la cual se esbozan los marcos conceptuales con los que la ciencia encuadra la naturaleza, sino la que los continúa ampliando en una realización progresiva, la investigación bajo el paradigma, diferente a su constitución, mas no inferior ni subalterna. Recordemos que tanto la obra de Fleming como la de Salk se inscriben dentro de la trayectoria de la menospreciada ciencia normal, la que exige tanta habilidad, tesón e inteligencia como la ciencia extraordinaria. Kuhn ha comentado que la obligación de ser un Newton o un Einstein tal como lo proponen Popper, y menos marcadamente Lakatos, es desmoralizante, y tiende a provocar parálisis en aquellos que exploran exhaustivamente la naturaleza con unos marcos ya dados. Añadirá que crear siempre es un imposible, puesto que al no existir ninguna tradición, no existiría el parámetro por medio del cual aquilatar las creaciones, y el conocimiento simplemente se desvanecería en el caos. Segundo, porque si al menos dos programas de investigación cursan conjuntamente en el tiempo, puede hacerse una elección entre uno y otro basándose en su pasado y ponderar su porvenir, contemplando retrospectivamente el mayor contenido empírico del que se mantiene y el agotamiento del que se desecha. La decisión pone en la balanza factores medibles; principalmente, el mayor contenido informativo Corroborado del que resulta exitoso. Esto le permite decir que lo que propone Thomas Kuhn ante el cambio de paradigmas es irracional. En el esquema histórico kuhniano, un paradigma tiene preeminencia un período prolonga- do, es único, hasta que la imposibilidad reiterada de dar cuenta de las anomalías que presenta la naturaleza lo hace entrar en crisis, y sugiere la necesidad de su reemplazo. 123 Luego de un breve tiempo de ciencia extraordinaria en la que se estructura su sucesor, la comunidad científica debe elegir entre seguir en crisis o adoptar el nuevo marco conceptual, por motivos que, como ya vio Lakatos, no pueden ser derivados de la lógica o de la experiencia; son motivos pragmáticos, pero no provenientes de considerar lo que hayan rendido hasta ese momento los paradigmas en conflicto, sino de una evaluación de lo que puede llegar a rendir el nuevo, en base a las realizaciones efectuadas; los científicos eligen una promesa de investigaciones exitosas, más que una realidad dada. El período en que ambos compiten es corto, la elección que hace la comunidad científica, riesgosa y obedecería más a factores sociales que a un auténtico sopesar de razones. En los ejemplos históricos de Kuhn, a saber: revolución astronómica con reemplazo del paradigma ptolemaico por el copernicano; la física, con reemplazo de la mecánica clásica por la relativista; la química, con reemplazo de la teoría del flogisto por la química de Lavoisier, entre otros, la realidad muestra, como bien lo señala este autor, un paradigma que subsiste único largo tiempo, y es reemplazado por otro, sin que se evidencie la proliferación de programas. Probablemente en otras cambios revolucionarios -competencias de teorías acerca de la luz, por ejemplo-, el camino sea más acorde con lo postulado por Lakatos. Pero esto no niega, en su contexto, la validez de lo sostenido por Kuhn, aunque lo relativice a los casos pertinentes. Es labor de la investigación histórica mostrar los tipos de desarrollo científico, y no puede ser conceptuado a priori para imponerse compulsivamente al trabajo del científico. Creemos que en los artículos de Lakatos no existe una alternativa a la historia de paradigmas; sí acaso, una repetición levemente alterada, y con otra terminología, de la concepción kuhniana. En ocasiones, perdiendo elementos que favorecen claramente a su adversario teórico, como pudiera ser la inclusión que hace Kuhn dentro de la estructura del paradigma de los modelos de aplicación, cuyo aumento en número es lo que vagamente señala Lakatos como "aumento de contenido empírico", y el aprendizaje práctico "a lo" Wittgenstein, que indica cuáles son los trozos de la realidad a los que aplicar las generalizaciones simbólicas -elementos conceptuales del paradigma-, por parecidos con otros modelos ya exitosos, y que elimina tanto las supuestas reglas metodológicas de la heurística positiva, como la "decisión" de proteger al núcleo, puesto que el proceso de elección de futuros modelos es casi inconsciente, sin reglas, y la manera en que la generalización simbólica originaria no se aplica directamente a ningún modelo empírico sino a través de modificaciones que atemperan el choque con la realidad, hace superfluo apelar a una decisión que es imposible de demostrar históricamente. Motivos por los cuales justificamos nuestra elección de continuar con la terminología kuhniana, más ajustada luego de su Posdata de 1969 y, todavía más, luego de ser complementada con la concepción estructural de las teorías. Escrito basado en: 124 Lakatos, I. (1974) Historia de la ciencia y sus reconstrucciones racionales, Madrid, Tecnos. (1975) "La falsación y la metodología de los programas de investigación", en: Lakatos, I. y A. Musgrave (eds.), La critica y el desarrollo del conocimiento, Barcelona, Grijalbo. 125 11 La concepción estructuralista de las teorías I. Introducción. Es imposible desligar a la filosofía de la ciencia del análisis lógico de las teorías científicas. En parte, este imperativo provenía de la propia filosofía. Bertrand Russell (1905 479-493) había aclarado el significado que poseían frases enigmáticas tales como "el actual rey de Francia es calvo", en las que no se sabía muy bien a qué hacía referencia, si apuntaba a un inexistente rey de Francia, del que se decía que era calvo. ¿Referencias a algo que no existe? ¿Un sujeto inexistente? Suponerlo chocaba contra la misma idea de referencia. En su teoría de las descripciones, proponía una interpretación lógica distinta a lo escrito en lenguaje ordinario, al desdoblarla de la siguiente manera: Existe un x y sólo un x tal que (x es rey de Francia y x es calvo). En esta versión, desaparece el ambiguo sujeto gramatical, para ser reemplazado por dos predicaciones, dos atribuciones hechas a un único individuo, un único x (al menos uno, a lo sumo uno) de ser rey de Francia y de ser calvo. 126 Resulta claro que la frase originaria no se refiere a ningún rey de Francia; se refiere a los predicados ser rey de Francia y ser calvo, que poseen significado, y pueden ser verdaderos o falsos. La perplejidad inicial desaparecía. La estructura lógica -resultado del análisis efectuado-reemplazaba con beneficios lo que oscurecía el lenguaje. La interpretación podía ser extendida a cualquier atribución de características -a toda descripción-, revelando así su índole íntima, su realidad lógica, por sobre la apariencia de lo expresado. El éxito obtenido al clarificar una expresión oscura reemplazándola por su análisis lógico, apoyaba el escribir en forma lógica a las teorías científicas. Es quizás pensando en esto que Rudolf Carnap, posiblemente el más notorio filósofo de la ciencia del Círculo de Viena, la proponga como objetivo de la filosofia, denominándola elucidación (explication en inglés), para lograr dos finalidades: entender con toda claridad en qué consistía efectivamente la teoría -identificarla libre ya de las oscuridades del lenguaje comúny simultáneamente derivar , gracias a las reglas de inferencia aportadas por la lógica, sus teoremas mediante una máquina de Türing -nombre con que se designa a las máquinas de calcular- automáticamente y sin error. (Carnap 1950, cap. 1) Refuerza esta convicción el que los científicos reescriben continuamente sus teorías a fin de darles mayor coherencia, instrumentalidad y desembarazarlas de elementos superfluos. Podríamos citar el caso de la mecánica clásica, cuyos tres principios fundamentales fueron presentados por Newton en latín y transcriptos por Lagrange al lenguaje diferencial con el que se los usa hasta nuestros días. El análisis lógico no era una superimposición filosófica, un forzar la ciencia; por el contrario, entroncaba con su mejor tradición. El programa logicista del neo-positivismo en ciencias de los hechos, ciencias empíricas, coincide con el intento logicista de G . Frege, B. Russell y A. Whitehead de reducir todas las matemáticas a la lógica,3 naufragando como él, pese al rigor, la constancia y el esfuerzo empleados. (Véase: Frege 1972, Russell 1973, Godel 1944.) No es nuestro propósito seguir la historia del logicismo matemático. Mencionaremos, sí, algunos inconvenientes con los que tropezó el de ciencias empíricas. Primeramente, aunque consiguió iluminar cuestiones importantes de la estructura de la ciencia, escasamente pudo reconstruir teorías como era su propósito manifiesto. La lógica empleada, como lo hiciera notar Popper con justeza y mordacidad, no admitía funciones numéricas, y sabemos que la ciencia consiste en gran parte en cálculos matemáticos. 127 (Popper 1973 p. 21: "Mas por desdicha, al parecer no existe semejante 'lenguaje de la ciencia', por lo cual se les hace necesario construir uno; sin embargo, la construcción de un modelo a tamaño natural y que funcione de lenguaje de la ciencia -un modelo en que pudiera manejarse una verdadera ciencia como la física- resulta algo dificultosa en la práctica: y por tal razón, los encontramos embarcados en la construcción de complicadísimos modelos que funcionan, pero en miniatura -de enormes sistemas de diminutos chirimbolos-. (...) En realidad estos modelos carecen de importancia para la ciencia y para el sentido común. (...) Al primero le faltan, incluso, los medios para expresar la identidad, y en consecuencia no pueden representar igualdad alguna; de modo que no contiene ni siquiera la aritmética más primitiva. (...) En el tercero -el más desarrollado y famoso de todos- tampoco pueden formularse las matemáticas; y -lo que es aun más interesante- tampoco pueden expresarse en él propiedades mensurables de ningún tipo".) Luego fueron develándose otras limitaciones, provenientes de aspectos de la ciencia que fueron notorios a medida que su historia adquiría mayor precisión. Las teorías no eran entes suspendidos intemporalmente, sino que evolucionaban en el tiempo, lo que no encontraba correspondencia en los muy simplificados modelos lógicos desarrollados hasta ese momento. El crecimiento, evolución y muerte de las teorías debía reflejarse en el análisis de su estructura. En la década de los cincuenta, la filosofía de la ciencia comenzaba a exhibir signos de esclerosis, que se traducían en un cierto escolasticismo de las investigaciones. Hemos comentado anteriormente la ruptura total de la impasse que efectúa la obra de Thomas Kuhn, al cambiar la imagen que se tenía de la ciencia. Seguiremos ahora las variaciones que fueron suscitándose alrededor de los análisis formales. Hacia los cuarenta, comienzan a publicarse artículos que continúan el programa logicista matemático, desde otro punto de vista. En vez de que la lógica fuera el lenguaje común básico, proponen que lo sea la teoría informal de conjuntos, no formalizada rigurosamente, que parta de conceptos intuitivos tales como conjunto, pertenencia al conjunto, etc. Los firma el coronel Bourbaki. El nombre es una ficción que encubre a matemáticos franceses que deciden publicar anónimamente bajo una rúbrica colectiva. Nunca fue explicitado el motivo -ni siquiera fue reconocida la inexistencia del coronel de marras-, pero se advierte en el proceder una ética de la ciencia como actividad comunitaria, más allá de la búsqueda de prestigios o beneficios individuales Bourbaki (1968). Pues bien, en una veintena de años, Bourbaki logra la finalidad buscada. Las matemáticas enteras son reescritas en lenguaje de conjuntos, dando nacimiento a las matemáticas modernas, con incalculables consecuencias teóricas y prácticas. Quisiera volver a mencionar el trasfondo de lo intentado por Carnap en ciencias empíricas, para aquilatar lo realizado por Bourbaki. 128 Recordemos que Carnap buscaba un lenguaje común a toda la ciencia -un vocabulario que hablara de objetos físicos, materiales, interconectado rigurosamente por la lógica- para unificarla de tal manera que cualquier estudioso, conociéndolo, pudiera entender lo realizado en cualquier campo, superándose las fronteras que las especializaciones habían introducido merced a sus lenguajes diferenciados, configurando una torre de Babel en la que cada rama permanecía aislada de las demás. El ideal que alienta detrás de la empresa sólo podremos intuirlo si pensamos en que Carnap, nacido a fines del siglo XIX, permanece fiel a sus concepciones socialistas el resto de su vida, y que supo de la utopía del esperanto, idioma artificial creado para que todos los hombres se entendieran y se reconocieran como hermanos (Carnap 1963). La lógica y el vocabulario fisicalista serían el esperanto de la ciencia. Bourbaki logra ese idioma unificado para las matemáticas. Con él, cultores de ramas para cuya comprensión eran necesarios años de estudio, podían leer trabajos de otras igualmente complejas, con apenas un par de meses de entrenamiento en las versiones transcriptas a teoría de conjuntos. Más aún -cosa impensable anteriormente, cuando nadie salía de su propio reducto-, se podía ser investigador creativo en cualquier sector. y los niños entendían matemática avanzada gracias a la simpleza, a la sencillez de su exposición. La próxima generación de matemáticos habría aprendido desde el colegio primario su disciplina según la nueva nota- ción, la de la matemática moderna. El análisis efectuado por Bourbaki, eso que llamamos investiga- ción sobre fundamentos, revolucionó la enseñanza y la práctica de su ciencia, marcándola para siempre. La utopía carnapiana se había revelado posible para las matemáticas. 129 Los inicios de las concepciones semánticas con Patrick Suppes ESTRUCTURA EN DIAGRAMA Elementos Estructura Relaciones 130 Patrick Suppes (1978) saca las consecuencias necesarias de esta historia. Hacia los cincuenta, propone que el instrumento para analizar la ciencia empírica sea, asimismo, la teoría informal de conjuntos, un camino que ejemplifica formalizando una teoría interesante y compleja, que fue por siglos el modelo de cientificidad: la mecánica clásica de Newton. Mostraremos el procedimiento -axiomatización por predicado conjuntista- en el análisis lógico de una teoría médica, la teoría infecciosa de las enfermedades, para continuar luego con su consecuencia natural, la concepción estructural, en la presunción de que al hacerlo estaremos enseñando la ciencia moderna -en similitud con la matemática moderna- del futuro. ¿Se logrará el sueño de Carnap con los medios de Bourbaki? Por lo pronto, se han formalizado múltiples teorías y se han vuelto comprensibles sus evoluciones históricas. Es quizás sensato suponer que estamos en vías de su realización. La nueva teoría formal de la ciencia, al estipular las relaciones que sostiene lo estructural con la historia y la realidad, contribuye no sólo a objetivos intracientíficos, sino a la comprensión del rol jugado por la ciencia en la sociedad, como instrumento de transformación teórico y práctico, puesto que una herramienta sólo permite los usos que surgen de su forma, más allá de considera- ciones sociales, políticas o económicas. En este sentido, su conocimiento resultaría imprescindible para toda planeación racional de cambio. 131 EN DIAGRAMA Signos y síntomas Signos y síntomas Micro organismos Micro organismos Cambios anatomo fisiologicos Ley evolutiva Cambios anatomo fisiologicos Momento inicial Momento final Qué es una estructura? Un conjunto cuyos elementos son objetos y relaciones entre los objetos i. objetos ii. relaciones iii. estos dos elementos definen un sistema, una estructura Anteriormente habíamos comentado el uso en lógica y en matemáticas del término modelo como el ejemplo de lo formal, contrariamente a la costumbre de mencionar de esta manera a lo abstracto. (Véase Suppes 1981). Un modelo, entonces, es un sistema en el cual elementos y relaciones tiene correspondencia -o pueden ser nombrados- con elementos del mundo. 132 2.1. Axiomatización conjuntista de la teoría infecciosa de las enfermedades (versión informal) (Para las enfermedades infecciosas se utilizó como fuente la exposición estándar de: Cecil y Loeb 1975, Mazzei 1969.) Definición: Felipe es un modelo de la teoría infecciosa de las enfermedades -en adelante TIE- si puede relacionárselos con los siguientes elementos: i. fiebre y diversos signos detallados por la semiología ii. si tiene determinadas alteraciones en sus órganos, detallados por la fisco anotado patología, y halladas (en ocasiones) por diversos medios diagnósticos iii. si puede mediante esos mismo medios, puede determinarse el microorganismo actuante iv. finalmente, si el sistema cumple una cierta ley evolutiva, sea natural o por la acción de la terapia instituida El enfoque empleado por Suppes va a diferir radicalmente de aquellos usados hasta el momento. En vez de cuestionarse inicialmente cómo son las leyes de la ciencia, la teoría de conjuntos adoptada a la manera de lenguaje básico gira la pregunta a cuáles son los elementos de una teoría, ya que todo conjunto se define por la clase de cosas que abarca. Nótese el cambio efectuado: anteriormente se buscaba la forma lógica de una teoría, y luego se llegaba, deductivamente, al nivel en que hablaba de un individuo. De todos en la ley, a uno o algunos después de la deducción. Ahora se intenta comprender qué sea un elemento de la mecánica clásica de partículas o de la teoría infecciosa de las enfermedades -Felipe, nuestro paciente favorito- o de la teoría de la evolución. De allí se sigue lo que es cada una de estas teorías: el conjunto de todos sus elementos. El enfoque va a recibir, por este motivo, una denominación genérica. Ya que su preocupación es por aquello de lo que trata la teoría -sus elementos-, será un punto de vista semántico. Cada modelo posee la misma estructura, sea la neumonía o la meningitis tuberculosa -llamamos genéricamente neumonía al conjunto de todas las neumonías que se presentan efectivamente en organismos humanos-, especificándose en cada uno de ellos el microorganismo actuante, los signos y síntomas característicos, la anatomía patológica que le corresponde, la 133 fisiopatología distintiva, y el curso evolutivo que posee, su ley fundamental, por medio de la cual se predice el futuro del paciente. La teoría infecciosa de las enfermedades será, por lo tanto, el conjunto de sus modelos -la neumonía, la estafilococcia, la gonorrea, el sarampión-. Sin embargo, todavía no estamos de lleno en la concepción estructural de las teorías. La ciencia empírica, ciencia de los hechos naturales y sociales, es más compleja que las teorías matemáticas que sirvieron de ejemplo para axiomatizar a la mecánica clásica -ella misma es mucho más compleja-. Desde el punto de vista de su estructura en la formalización a lo Suppes, no se contemplan las dificultades y las sutilezas que se derivan de que en ciencias empíricas existen funciones teóricas. Además, no se indica cómo se relacionan estas entidades, estas estructuras, con aquello que se encuentra más allá de la teoría, con la realidad. Considerar tanto la teoricidad de ciertas funciones como las conexiones de la teoría con la realidad nos introduce por completo en el programa de la concepción estructural. LA CONCEPCION ESTRUCTURALISTA Al comenzar su tarea de adecuar la concepción de Suppes a desafíos no resueltos, Joseph Sneed, en una primera vuelta de tuerca introduce la distinción entre los términos de la teoría que implica la noción de teoricidad, y al hacerlo soluciona sus problemas clásicos. Posteriormente, la necesidad de añadir nuevos elementos que dieran cuenta con mayor fidelidad de la estructura de las teorías, hacen que la propuesta final posea características propias, vecina, pero distinta y mejor articulada que la de Suppes. Había nacido la concepción estructuralista de las teorías, que tendría larga vida, desarrollada por una comunidad de investigadores que hacen de esta corriente una forma de ver y hacer la filosofía de la ciencia con las características funcionales del Círculo de Viena -libros canónicos, artículos especializados que la amplían y plantean discusiones, reuniones científicas periódicas, homogeneidad al presentarse en congresos internacionales-. Joseph Sneed 134 3. Los términos teóricos Resumiré brevemente la cuestión de los términos teóricos en la filosofía de la ciencia clásica, las vías de solución intentadas, sus frustraciones, y finalmente el planteo de la concepción estructural, con las consecuencias que conlleva para el análisis de las teorías científicas. En un principio, el neo-positivismo pensó que todo el lenguaje que cabía encontrar en la ciencia era uno de términos observacionales básicos que designaban objetos y propiedades observables. "Rojo", "mesa", "elefante", son algunos de ellos. Pronto se vio que no era así. Además de los términos observacionales, existían en ciencia, y eran casi su carácter distintivo, unos términos que no tenían ningún correlato en objetos observables. Eran inventados por la ciencia, parte innescindible de su lenguaje: “masa”, “superyo”, “gen”, “átomo”, “electrón”, “campo”, “clase social”, atestiguaban en diferentes teorías la inobservabilidad de parte del léxico científico. Existían, pues, vocablos observacionales y vocablos teóricos (nombre con el que se designó a los que no se referían a lo observable). Comienza en ese momento la necesidad de desentrañar su índole lógica, sus relaciones con los términos observacionales, y el estudio de su eliminabilidad, en aras de lograr un solo tipo de lenguaje para la ciencia. Recordemos que su presencia constituía una afrenta a la concep- ción de la ciencia y la filosofía del primer neo-positivismo, puesto que si todo lo que no fuera verificable carecía de sentido, era pura metafísica -y la metafísica era desdeñable-, el que hubiera en la ciencia misma vocablos de referencia no verificable por la experiencia inmediata -pues, ¿cómo constatar la presencia del superyó por simple inspección? , ¿o la de átomos en la madera que constituía un piano?-, equivalía a afirmar que toda la empresa de demarcar cien- cia de metafísica era inútil. El campo electromagnético era tan poco observable como la despreciada nada de Heidegger, cuya frase "la nada nadea" fue presentada como ejemplo máximo de sinsentido. (Carnap 1978) Se intentó reducir los términos teóricos a observacionales a fin de eliminarlos. En ocasiones, éxitos triviales hicieron pensar que éste era el camino. Por ejemplo, el término peso específico podía sustituirse por peso sobre volumen (P / V) sin pérdida de contenido informativo. Sin embargo, no era el caso de términos teóricos más complejos, como "masa", "fuerza", "gen". Para ellos, pudo extrapolarse un teorema lógico a ciencias empíricas, que estipulaba la factibilidad del reemplazo por infinitos enunciados básicos, lo que era otra forma de sentar su ineliminabilidad.(Véase para una discusión completa acerca de los términos teóricos: Hempel 1979; también Carnap 1974) 135 No sólo eso. La negación de los términos teóricos podía tener consecuencias funestas para la ciencia. Emst Mach, brillante científico, filósofo, epistemólogo, cuya crítica a los conceptos de la mecánica clásica dio origen a las investigaciones de Einstein, negó, empirista convencido, toda importancia al uso de inobservables en ciencia... poco tiempo antes de que Rutherford iniciara la física atómica en su laboratorio de Cambridge. Renunciar a los términos teóricos equivalía a abandonar simultáneamente los caminos de investigación abiertos por ellos, el átomo, el inconsciente, el gen, en pos de su constitución íntima. Posteriormente, dada la imposibilidad de otorgarles una interpretación empírica observable total, se piensa que debieran tenerla parcial, sin avanzar demasiado en su precisión. K. Popper escapa a la distinción teórico-observacional mediante el recurso, totalmente coherente con su percepción de la ciencia y el conocimiento, de suponer que todo vocablo -todo universal- que se emplee en lenguaje afirmativo reviste el carácter de hipotético. Había ya considerado que las leyes de la ciencia permanecían como hipótesis falibles, refutables, mas no verificables, debido a la relación lógica que entablaban con los enunciados básicos. Estos mismos son igualmente hipótesis, ya que su contrastación podía seguir por siempre, y se los aceptaba convencionalmente verdaderos a los fines de corroborar o refutar las leyes, estimándose que la convención acerca de su verdad era revisable en cualquier momento. Agregamos ahora una vuelta de tuerca más al pensamiento popperiano: incluso los vocablos con los que se forman las leyes y los enunciados básicos son hipótesis, puesto que cualquiera de ellos -a los que llamaremos, siguiendo una añeja nomenclatura de la filosofía, universales-, tales como agua, vaso, mesa, implican un cierto comportamiento -no tener color, olor, sabor, en caso de ser agua, no moverse en caso de ser mesa, etc.-, cuyo cumplimiento es contrastable, como cualquier hipótesis, de manera incompleta. (Popper 1973) Resultaría entonces que no hay diferencia de género entre los términos observacionales y los teóricos: ambos son hipotéticos. Sin embargo, pareciera que se deja de capturar algo importante si, al analizar el lenguaje de la ciencia, no se establece alguna distinción entre vocablos como amarillo y vocablos como átomo. El polo teórico de la dicotomía teórico-observacional presentaba, por tanto, enormes dificultades conceptuales y lógicas. Mas también lo presentaba el polo observacional. Ya habíamos mencionado en capítulos anteriores que lo observable nunca lo era de manera directa, sino a la luz de complejas teorías interpretativas que nos hacía "ver" en el desplazamiento de una aguja el valor numérico de los kilovoltios que descarga un equipo de rayos 136 DIFERENCIAS ENTRE LA CONCEPCION LINGUISTICA Y EL ESTRUCTURALISMO • En su constitución • 1. las teorías son un conjunto de enunciados • 2. las teorías son un conjunto de modelos • En sus elementos • 1. los enunciados están formados por términos • 2. los modelos están formados por objetos y relaciones -funciones- • En la caracterización de sus elementos • 1. los términos son observacionales o son teóricos • 2. las relaciones son no-teóricas o son teóricas La distinción entre teórico y observacional de la filosofía clásica de la ciencia es de tipo epistemológico, es decir, se refiere a cómo conocemos las cosas; esto se obvia, y se utiliza un criterio que sea solamente funcional, derivado del uso de los términos en las teorías, y que no depende de nuestras creencias acerca de los mecanismos del conocimiento, que aquí pertenecen a otro contexto de discusión. 137 La distincion anterior con respecto a los términos es epistemológica y universal a. son observacionales o teóricos por como conocemos su referencia b. son observacionales o teóricos en cualquier teoría Para Sneed la distinción entre relaciones a. es según la función que cumplen -funcional-: provienen de otra teoría -no teóricas-, o son propias de la teoría en cuestión -teóricasb. es relativa a una teoría dada -no es universal- : pueden ser no teóricas en una teoría, y teóricas en la teoría de la que provienen c. la teoricidad se establece en una aplicación exitosa de la teoría Ma Mt M-t En el diagrama se muestra la relación entre los modelos no teóricos M-t, los teóricos Mt, y los actuales M 138 El criterio es positivo y relativo siempre a una teoría dada. ¿Por qué es así? Porque un término pudiera ser teórico en una teoría, y usado en otra como no-teórico. Relativo a ella, en vez de ser teórico en forma absoluta. En nuestra reconstrucción de las enfermedades infecciosas, las funciones, por ejemplo, de exantema o soplo tubárico son no-teóricas para "sarampión" o "neumonía", respectivamente, pero teóricas en la semiología, de la que provienen. Para la concepción estructural, la distinción entre términos se establece entre teórico y noteórico, analizando el rol que juegan funcionalmente en cada teoría, con lo que se evita la tradicional división epistemológica de observacional y teórico, tan altamente conflictiva. a otro contexto de discusión. El criterio de teoricidad de Sneed resuelve las objeciones formuladas hasta ese momento a otros intentos. Los términos teóricos son, finalmente, propios de las teorías, ineliminables, definidos positivamente y con claridad. Su consideración va a mostrar que sea imposible decir de una teoría que es el conjunto de sus modelos, sin más, puesto que va a ser lícito preguntarse si todos los modelos son de igual índole, ya que las funciones teóricas y no teóricas establecen diferencias entre ellos. Al introducir la t-teoricidad en las teorías, Sneed se aleja de lo que postula Suppes. Las teorás son mucho más complejas. 4. El núcleo teórico Veremos a continuación que la expresión primitiva “conjunto de modelos” que definen una teoría, debe ser subdividida. Los distintos modelos resultantes integrarán un nuevo conjunto K, al que daremos el nombre de núcleo teórico. Los primeros que mencionaremos son aquellos en los que se consideran solamente los dominios y las funciones no-teóricas; los llamaremos modelos no teóricos siendo los más básicos del núcleo teórico K. Hemos elegido como funciones no-teóricas las provenientes de la semiología y la anatomía fisio patológica. Tiene además correspondencia con la manera en que el médico se enfrenta a la enfermedad: procede a la exploración física y forma el modelo semiológico; hace uso de exámenes complementarios luego, para entrever, mediante rayos X, tomografía computada, ultrasonografía, gammagrafía, pruebas de laboratorio, la índole de la anatomía patológica en juego y, al estipular los modelos adecuados, fundir ambos en el diagnóstico. 139 Una vez localizados nuestros primeros modelos no teóricos, modelos "empíricos" de la teoría, debemos transformarlos en modelos teóricos añadiendo a los modelos no teóricos las funciones teóricas. En la teoría infecciosa de las enfermedades, son las funciones que correlacionan la semiología con los cambios en los tejidos y la que conecta la pululación de microorganismos. Debemos añadir ahora, tal como hicimos con Suppes, la ley fundamental de la teoría que relaciona, suelda en un solo haz, todos los términos en una predicción que se refiere a la evolución de la enfermedad, búsqueda permanente de la medicina desde los tiempos en que Hipócrates cifraba el orgullo del médico, no en sus facultades de curar , sino en indicar con precisión el pronóstico de la misma, es decir, la predicción correcta, como en las demás ciencias naturales. La adición de las leyes, hacen de un modelo teórico un modelo actual en nuestra terminología informal. Así, el núcleo teórico de la teoría no estará formado simplemente por modelos, como lo supusimos en un principio. Poseerá modelos no teóricos, modelos teóricos y modelos actuales (con esta terminología reemplazamos la habitual de Modelos parciales posibles -Mpp-. Modelos potenciales -Mp- y Modelos -M- a fin de subrayar su índole necesariamente fáctica cuando se aplica al mundo, haciéndolo modelo de la teoría -Felipe, en nuestro ejemplo, modelo actual, fáctico-. a Quisiera hacer notar que cada uno de los sucesivos modelos, comprenden cada vez menos miembros, ya que el añadido de funciones y leyes restringen el universo posible, de manera que cada uno será un subconjunto del siguiente. El núcleo teórico se ha complicado notablemente desde nuestra primera afirmación de que las teorías eran el conjunto de sus modelos, y la complejidad creciente refleja la complejidad real de las teorías física. Mas es todavía necesario incorporarle un nuevo elemento. Hasta el momento, la estructura de las teorías tal como la hemos expuesto, además de estar vertida en un correcto lenguaje conjuntista, tiene correspondencia con dos situaciones. Primeramente, la subdivisión en diferentes tipos de modelos y su caracterización sucesiva en una buena descripción, por añadidura del proceder del científico en su construcción de teorías, -ya sea original, aplicada o cuando resuelve ejercicios en su entrenamiento profesional- y del médico cuando hace una diagnóstico, y con ello realiza medicina aplicada. La sucesión de pasos en la reconstrucción de la teoría, primero modelos no teóricos, luego teóricos, luego actuales si cumplen una ley, en este caso la evolución característica de la enfer140 medad en cuestión son los que sigue el científico en su labor, y esta afirmación empírica acerca del proceder en ciencia, susceptible de ser contrastada, hace que sostengamos que la reconstrucción a lo Sneed sea una auténtica teoría sobre la ciencia, teoría empírica, y no sólo una reconstrucción afortunada, pues posee un contenido empírico adicional que excede lo lógico. En segundo lugar, el que sea reconstruida como un conjunto de distintos modelos, hace justicia precisamente a esa circunstancia, la de que la ciencia no habla de una sola cosa, sino de múltiples modelos. Habíamos mencionado que en mecánica clásica los modelos eran, entre otros, el sistema solar, el sistema proyectil-tierra, el péndulo, los cuerpos en caída libre, bolas de billar que entrechocan. Similarmente, la teoría infecciosa de las enfermedades tiene entre sus modelos a cada una de las enfermedades infecciosas: neumonía, sarampión, viruela, sífilis, psitacosis. Consideraremos que cada uno de estos modelos sea el conjunto abierto de los organismos reales que las padecen, con su etiología, su sintomatología y su fisiopatología. 5. ¿De qué hablan las teorías? Si las teorías fácticas fueran sólo una estructura matemática -por definición los modelos lo son-, el análisis de las mismas concluiría en este punto. Sin embargo, las teorías son estructuras que se aplican con mayor o menor éxito a la realidad, a entidades que les son exteriores. La estructura conjuntista nos brinda un lenguaje abstracto, pero todavía no podremos hablar de objetos con él, de mesas y elefantes, de átomos y microbios, a menos que les asignemos un significado en el reino terrenal. La maniobra que permite darle contenido al núcleo teórico la denominaremos maniobra semántica y resume la compleja relación que envuelve a la teoría y a lo que no es teoría. Wittgenstein nos relata que puede imaginarse un lenguaje muy primitivo en el que sea posible enseñar el significado de los vocablos señalando aquello a lo que hacen referencia. Decir "ladrillo" y mostrar un ladrillo. Resulta muy claro en Sneed y Stegmüller que los modelos parciales posibles de las aplicaciones propuestas son especímenes de existencia en el mundo "exterior" a las teorías. Vemos una cita del primero: "The most obvious insuffiency in (D38) of the failure to require that the members of I be sets of physical systems in some appropriate sense of the term. (...) That is, my usage entails that some physical systems are sets of individuals together with numerical functions on these individuals." (Ibid., p. 250.) Aquí, en todo momento habla de los I como individuos de existencia real, considerados con las funciones no-teóricas. Esto se confirma en Ibid., p. 256: "That is, electric circuits are 141 the sort of things that one can built of another model. That is, electric circuits are the sort of things that one can built up out of component parts (the individuals of the model): resistors, capacitors, etc." Es de notar que resistores y capacitores del mundo real son considerados parte de los modelos I. Stegmüller, en La concepción estructuralista de las teorías afirma: "Sin embargo, si dejamos a un lado los logros esperados de una teoría de la medida fundamental, la autolimitación ascética al aspecto matemático presenta un gran defecto filosófico: queda fuera de conside- Ley fundamental Principio guía 142 Ley especial Ley especial Ley especial Aplicaciones Aplicaciones Aplicaciones ración la relación entre la teoría fisica y algo 'exterior' a ella misma. Por otra parte, la característica principal de Sneed tiene que ver precisamente con las relaciones entre las estructuras, descriptas matemáticamente, de las teorías y las 'entidades exteriores' que no son, por su parte, teoría" (p. 22). Y a continuación: "Tenemos entonces esa clase de 'sneedificación del enfoque de Suppes' que justifica el que hablemos de una extensión del programa de Bourbaki a las ciencias físicas en lugar de una integración a ese programa. La extensión consiste en incluir 'piezas del mundo real' como los conjuntos I y Mpp y otras entidades no matemáticas, dentro de la exposición sistemática" (p. 42). Confirma por completo nuestra afirmación de que lo real se encuentra incluido en la teoría. También en ciencia es necesario apuntar desde las teorías hacia la realidad. Esto lo efectúa Sneed sumando a la definición conjuntista de la teoría nuevo miembro, I siendo I el conjunto de las aplicaciones empíricas de la teoría -intented applications en inglés, aplicaciones propuestas en español-, que son aquellos sistemas reales de los que tiene sentido preguntarse si pudieran ser modelos de la teoría, descriptos sólo por sus funciones no-teóricas. Un individuo cualquiera no puede llegar a ser un modelo de la teoría, sino uno con las funciones no-teóricas; un ser humano, por el simple hecho de serlo, no es candidato a ser modelo de la teoría infecciosa; debe presentar signos y síntomas. El contenido empírico de las teorías está dado por un conjunto de aplicaciones I, que debemos agregar al núcleo teórico so pena de dejarlo abstracto. Señalar desde las teorías hacia la realidad significa apuntar a los modelos I de aplicación, y sobre todo a los primeros y más exitosos; ellos son el patrón que siguen todos los demás, y los denominaremos lo subconjunto de I que coincide con los modelos paradigmáticos de que nos hablaba Kuhn (1971) en su Posdata. Son ellos los que "anclan" la teoría en la realidad, a través de toda la etapa de ciencia normal; difícilmente pueda sobrevivir la teoría si estos modelos típicos son eliminados -refutados- como aplicaciones exitosas. Piénsese en el daño quizás irreparable que sufriría la teoría infecciosa si la tuberculosis o la sífilis no fueran consideradas de origen en microorganismos. Sería el momento de eliminarla y pasar a otra teoría. Una consideración más en la relación de las teorías con la realidad, y que posiblemente no resulta tan nítida de percibir. De acuerdo con nuestro lenguaje conjuntista, lo empírico, la realidad, pasa a ser parte de la teoría, y no meramente algo externo a ella. Los subconjuntos de K son todavía conjuntos abstractos, distintos a otros conjuntos que no lo son; por ejemplo, el conjunto de todos los elementos de mi escritorio: máquina de escribir, libros, lápiz, fotocopias, se encuentran efectivamente en el conjunto que los comprende. El conjunto de los jugadores de la selección de fútbol está integrado por los jugadores que la conforman. El elemento abstracto -el conjunto- se encuentra formado por elementos que no son abstractos. De la 143 misma manera, el conjunto de aplicaciones propuestas I está formado por elementos no abstractos, elementos de la realidad más sus funciones no-teóricas. Por esta vía introducimos incluso en el núcleo teórico K a lo empírico. Puesto que si los I son un subconjunto de los Mpp, necesariamente deben estar en ellos los individuos de la realidad, además de modelos que sean exclusivamente matemáticos. Las teorías físicas tendrán modelos matemáticos, además de físicos; las teorías médicas quizás sólo modelos empíricos, excepto en las porciones matematizadas de la biología y la fisiología. El problema de la relación entre teoría y realidad cuando se considera a la primera un sistema de enunciados, y que surge de contemplar de qué manera un sistema lingüístico puede contrastarse o relacionarse con algo que no sean palabras o conceptos, sino con los objetos del mundo, sospechándose que el hiato, la diferencia entre cosas y palabras es, virtualmente, insalvable, deja de ser tal en los sistemas conjuntistas. Las estructuras conjuntistas no son enunciados, y admiten entre sus miembros elementos que pertenezcan al mundo natural o social. No hay tal hiato entre conjunto y objetos del mundo, puesto que los primeros pueden englobar a los segundos. Las cosas de que trata una teoría están en la teoría; sólo es posible discutir la oportunidad de atribuirles ciertas relaciones. Para decirlo en vocabulario de teoría de conjuntos, los modelos empíricos de la teoría son isomorfos a los modelos abstractos y entre sí, aunque dicho isomorfismo sea, finalmente, hipotético, corregible, refutable. )posterior a este escrito, quizás sea preferible hablar de homomorfismo, en vez de isomorfismo, ya que ste último es estricto -uno a uno, exactamente-, mientras que la realidad siempre es borrosa _vaga, como diría Russell. 6. Las leyes especiales. Una red teórica. Thomas Kuhn hace notar que la ley fundamental de una teoría nunca se aplica directamente a la realidad; es, habitualmente, una forma de ley -principio-guía, le llamará Moulines- que sufre modificaciones para adaptarse a cada tipo de modelo de los que habla la teoría. Son sus modificaciones -leyes especiales- las que contactan con lo real. Sabemos que las leyes acerca del curso de las infecciones varían de enfermedad en enfermedad, aunque todas compartan una manera similar de ser expresadas que las hace integrantes de una misma familia, con un origen común. La existencia de leyes especiales para cada modelo, y su sucesiva aparición en el tiempo, obliga a exponer una nueva complejidad en la estructura de las teorías. En un principio, Sneed había sugerido que las leyes especiales fueran consideradas ampliaciones del núcleo. Poco tiempo después se vio que la manera más natural de estudiarlas era como si cada una de ellas fuera una teoría por derecho propio, con su núcleo teórico y sus aplicaciones propues144 tas, que guardaban con la teoría primera una relación tal que su núcleo era un subconjunto obtenido por especialización del núcleo inicial, y las aplicaciones un subconjunto de las primeras I. Procediendo de esta manera, el desarrollo histórico de un paradigma adopta la forma de una red teórica arborescente, con un tronco originario -elemento teórico básico-, ramificándose en las teorías obtenidas por especialización. En la formalización de la teoría infecciosa, el núcleo fundamental se caracteriza por su principio guía que estipula que toda enfermedad que cursa con fiebre y presenta signos, síntoma y alteraciones anatomo fisiológicas es causada por un microorganismo específico. Como lo vemos, es lo suficientemente general como para que no pueda ser contrastado con ninguna enfermedad en particular, tal como lo expresa Kuhn y lo adopta la concepción estructuralista. De él se derivan de manera no deductiva las leyes especiales que se aplican a enfermedades infecciosas específicas. El principio guía sólo le indica a los investigadores que ante determinados signos, síntomas y alteraciones anatofisiológicas deben encontrar el microorganismo que las causa. Si la enfermedad consiste en fiebre, tos, dolor torácico, expectoración, y se escucha -ausculta- en el tórax un sonido característico que se denomina soplo tubárico, la investigación encontró en los primeros casos -ejemplares paradigmáticos- un microorganismo no conocido hasta el momento, el neumococo. Kuhn, siguiendo a Wittgenstein, piensa que el rol de los casos paradigmáticos es el de fijar las características de las demás aplicaciones I de las teorías, que deben parecerse a ellos. Un criterio que adopta la concepción estructuralista cuando caracteriza a las aplicaciones I. Todas las neumonías se parecen a las primeras investigadas, y en la experiencia personal de los médicos que se encuentran ante un paciente, su cuadro se parece a los que aprendió a conocer mientras estudiaba, y que enriquece con nuevos ejemplares paradigmáticos en su tránsito por los hospitales. Podemos agregar entonces a su caracterización habitual como los primeros en ser establecidos, que al igual que las aplicaciones I se trata de un conjunto abierto -que se diferencia de la noción de “conjunto” en la que el número de sus miembros no es constante, sino que varía en el curso del desarrollo histórico de la teoría, pero también por el desarrollo de la experiencia personal de los científicos. Esto es necesario, pues si bien los signos, síntomas, alteraciones profundas y evoluciones propias de la teoría infecciosa de las enfermedades se encuentran presentes en todos los ejemplares, cada uno de ellos es único, en el sentido que las características difieren siempre en su intensidad o en su evolución; incluso faltar alguna de ellas, la fiebre, por ejemplo. Como mencionáramos antes, esto hace que las relaciones estructurales entre ejemplares sean homomórficas, no isomórficas. 145 7. La concepción estructural y los paradigmas. La concepción estructural surge de una tradición formalizante que comienza en Bourbaki, sigue con Suppes y culmina con Sneed. Sin embargo, el análisis conjuntista permite entender, además de cuál es la forma lógica de las teorías empíricas, y cuál es su rela- ción con la realidad, la evolución histórica de la ciencia tal como la expone Thomas Kuhn, brindándole la claridad conceptual que puede echarse de menos en puntos claves de este autor; entre ellos, la falta de precisión en la noción central de paradigma, presentada con tal multitud de significados, que puede inducir a lecturas erróneas. Apuntemos que es natural que así sucediera. Kuhn produce una entera novedad teórica, y como sucede a menudo en estas circunstancias, parte de los descubrimientos están envueltos en un lenguaje más tradicional y en una exposición que los rodea y los toca, pero sin que al comienzo se ajuste por completo a aquello que se describe. Así, Masteman (1975) cuenta en el libro de Kuhn 21 sentidos distintos usados para el término "paradigma". Años después, Kuhn manifiesta que todos ellos rondan una misma idea, y explica el sentido que quiso atribuir al término, desdoblándolo en cuatro elementos: 1. Generalizaciones simbólicas: segundo principio de Newton, ley de la selección natural, etcétera. 2. Compromisos acerca de lo que habla una teoría, el grado de precisión analítica que debe poseer, etcétera. 3. Modelos heurísticos, que permitan visualizar con facilidad aspectos de la teoría, como exponer la estructura atómica a la manera de un sistema solar . 4. Zonas arquetípicas de la realidad a las que aplicar las generalizaciones simbólicas, para las que reserva el nombre primitivo de paradigmas, entendidos como ejemplares paradigmáticos. Pues bien. Las generalizaciones simbólicas equivalen a la ley fundamental del núcleo teórico, y los ejemplares paradigmáticos, al subconjunto lo (I sub 0) de las aplicaciones propuestas. 146 Una vez mencionadas las correspondencias, las diferencias surgen por sí solas. Sin embargo, no son tan profundas como para evitar que Kuhn, en una réplica a Sneed, concediera que la versión formal respondía a lo que había querido atrapar intuitivamente en sus escritos, y se refieren a acuerdos pragmáticos o casi metafísicos que adopta la comunidad científica. (Para profundizar en el entre Sneed y Kuhn véase Kuhn (1976 pp. 179-299), y Sneed (1976 pp. 115-146.) Efectuada la interpretación de los "paradigmas" en la estructura teórica sneediana, resulta sencillo ver que la ciencia normal consistiría en ampliaciones de la red teórica, mediante el expediente de encontrar leyes especiales de nuevo cuño para ciertos y determinados modelos que se visualizan como importantes en un período histórico, haciendo que el conjunto primitivo I de aplicaciones propuestas, abierto por definición, abarque cada vez más miem- bros en su seno. Consecuentemente, la investigación "normal" en infectología, que pretende encontrar el supuesto origen bacteriano o virósico .a afecciones que presentan signos y síntomas de infección, amplía, cuando lo consigue, la red primera hasta cubrir toda el área de aplicaciones presuntas. La permanencia del tronco en la arborización teórica garantiza el que se trate de una misma empresa investigativa, su unificación en un "paradigma", ya que de él se desprenden tanto la forma general de la ley que deben poseer las especializaciones como el dominio al que aplicarla y las funciones teóricas y no-teóricas que deben poseer, a la manera de subconjuntos del primero. La supuesta irracionalidad de que ha sido acusado el científico normal descrito por Kuhn, espejo de todo lo que no debe ser un investigador si es visto con las gafas refutacionistas, ahora se explica: mientras el tronco permanezca intocado -su intangibilidad está garantizada por la forma lógica de su ley fundamental, que la hace irrefutable, y la circunstancia de actuar sólo a través de sus especializaciones, y no directamente-, el paradigma permanece como tal, ampliándose en su período de expansión, estancándose o incluso retrocediendo cuando algunas de sus ramificaciones resulten refutadas o cuando fracase en explicar zonas de la realidad que le pertenezcan legítimamente, situaciones ambas que son cubiertas bajo la denominación de anomalías. En tal contexto, una revolución científica equivale a un cambio total de red teórica, pasando de una agotada en su capacidad de expandirse y resolver sus anomalías, a otra con un sólido conjunto de aplicaciones paradigmáticas en las que tuvo éxito, ya la que se le vislumbra, gracias a esta circunstancia, una potencialidad renovada de crecimiento. Entonces, la comunidad científica decide pragmáticamente el pasaje; la profesión se ejerce en adelante bajo otro predicado conjuntista y otros axiomas, otro paradigma. Ciencia normal, revoluciones científicas, irrefutabilidad de paradigmas, conceptos claves para la evolución de las teorías científicas según Thomas Kuhn, adquieren ahora una transparencia máxima, como resultado de investigaciones lógicas que comenzaron por un extremo 147 al parecer opuesto -la continuación del programa de Suppes de reconstrucción axiomática de teorías empíricas, y del problema de cómo se efectúan afirmaciones acerca de hechos en ciencia, dada la presencia perturbadora de los términos teóricos-, si se otorga un equivalente histórico a las reconstrucciones formales. Resumamos los motivos que obligaron a los filósofos de la ciencia a adoptar otro enfoque con respecto a la formalización de las teorías científicas, que sea al mismo tiempo un recuento de los logros de la concepción estructural. En primer lugar, frente a la casi imposibilidad de lograr una axiomatización formal de teorías reales, y no simples esquemas generales, con la adopción de un lenguaje sencillo pero preciso se consigue hacerlo sin gran dificultad, y en plazos relativamente cortos. Habíamos comentado asimismo que la formalización conjuntista a lo Sneed explicaba no sólo la estructura de las teorías; con ella, su evolución histórica se libraba de oscuridades residuales que permanecían, pese a todo, en la concepción de Kuhn. Paradigmas, ciencia normal, revoluciones, correspondían a nociones lógicas precisas, unificándose sincronía y diacronía. La relación entre teoría y realidad queda iluminada por la incorporación, al núcleo abstracto de las aplicaciones propuestas, de sistemas físicos, en los que un miembro definido del dominio de la teoría -de existencia física- se considera conjuntamente con las funciones no-teóricas para postularse hipotéticamente modelo par- cial posible, incorporando lo empírico a la teoría, en vez de hacerle jugar un papel externo. Finalmente, la coincidencia entre el análisis formal mediante modelos sucesivamente más complejos, y el proceder real de los científicos en la construcción y aprendizaje de teorías, transforma al primero, a lo mejor interpretable como una mera consecuencia del uso de un lenguaje tan dúctil como la teoría informal de conjuntos, en una teoría científica, contrastable mediante la exposición escrita de la ciencia, su historia y su proceso de producción. De esta manera se supera a mi entender la simple elucidación conceptual propuesta por la primera filosofía de la ciencia -a saber , reemplazo de una teoría por su versión formal-, al devenir ciencia de la ciencia, contradiciendo la restricción impuesta por el neo-positivismo a la filosofía de tener como única labor el análisis lógico, para afirmar que ésta debe consistir, además, en la construcción de teorías cuasi-científicas, o directamente científicas, en los campos problemáticos que estudie. Motivos todos para suponer a la concepción estructural de las teorías el proyecto de mayor fertilidad actual en filosofía de la ciencia, y paradojalmente, la de mayor desarrollo en Iberoamérica, debido a la formación de doctores en filosofía de la ciencia de C. Ulises Moulines, a lo que debemos añadir el programa de posgrado en epistemología e historia de la ciencia de 148 la Universidad Nacional de Tres de Febrero, que dirige el autor, César Lorenzano, y el gran aporte de Pablo Lorenzano. C. Ulises Moulines Bibliografía Bourbaki, N. (1976), Elementos de historia de las matemáticas, Madrid, Alianza, (1968) Elements of Mathematics: Theory of Sets, Realing, Mass., Addison-Wesley. Carnap, R. (1950) Logical Foundations of Probability, Chicago, Chicago Press. (1963) "Intelectual Autobiography", en: Schilpp, P. (ed.), The Philosophy of Rudolf Carnap, La Sane, 111, Open Court. (1954) Testability and Meaning, New Haven, Whitlock. (1978) "La superación de la metafísica mediante el análisis lógico del lenguaje", en: Ayer, A. (ed.), El positivismo lógico, México, Fondo de Cultura Económica. (1956) "The Methodological Character oí Theoretical Concepts", en: Feigl, H. y Scriven, M. (eds.), Minnesota Studies in the Philosophy of Science, Vol. I, Minneapolis, University oí Minnesota Press. (1969) Fundamentación lógica de la física, Buenos Aires, Sudamericana. Cecil, R. L. y Loeb, R. F. (eds.) (1976) A Textbook of Medicine, Philadelphia y Londres, A. Saunders. 149 Coffa, A. (1975) "Dos concepciones de la elucidación filosófica", en: Crítica, México, diciembre 1975, Vol. VII, N° 21. Frege, G. (1972) Conceptografía. Los fundamentos de la aritmética, Universidad Nacional Autónoma de México, México. Gödel, K. (1944) "Russell's Mathematical Logic", en: Schilpp, P. (ed.), The Philosophy of Bertrand Russell, Evanston, Northwestern University. Hempel, C. (1979) La explicación científica, Buenos Aires, Piados. (1970) "On the Standard Conception oí Scientific Theories", en: Radner, M. y Winokur, S., Minnesota Studies in the Philosophy of Science, Vol. IV, Minneapolis, University oí Minnesota Press. Kuhn, T. (1971) La estructura de las revoluciones científicas, México, Fondo de Cultura Económica. (1976) "Theory-Change as Structure-Change: Comments on the Sneed Formalism", en: Erkenntnis 10 (1976), pp. 179-299. Masterman, M. (1975) "La naturaleza de los paradigmas", en: Lakatos, I. y Musgrave, A., (eds.), La crítica y el desarrollo del conocimiento, Barcelona, Grijalbo, 1975. Mazzei, E. (1969) Medicina interna, Buenos Aires, La Prensa Médica. Moulines, C.U. (1982) Explicaciones metacientíficas, Madrid, Alianza Universidad. Moulines, C.U., Diez, J. (1997, 2008) Fundamentos de Filosofía de la Ciencia, Barcelona, Ariel. Piaget, J. (1976) La construcción de lo real en el niño, Buenos Aires, Nueva Visión. Popper, K. (1973) La lógica de la investigación científica, Madrid, Tecnos, 1973 Russell, B. (1973) "Los principios de la matemática y Principia Mathematica (prefacios"), en: Obras completas, Madrid, Aguilar. (1905) "On Denoting", Mind, XIV (1905) pp. 479-493. Simpson, T. M. (ed.) (1973) Semántica filosófica: problemas y discusiones, Buenos Aires, Siglo XXI. Sneed, J. (1971) The Logical Structure of Mathematical Physics, Dordrecht, Reidel. (1976) "Philosophical Problems in the Empirical Science oí Science", en: Erkenntnis, 10 (1976), pp. 115-146. Suppes, P. (1971) Introducción a la lógica simbólica, México, CECSA. (1970) Set-theoretic Structures in Science, Manuscrito, Standford. Suppes, P., McKinsey, J.C.C. y Sugar, A.C. (1978) Fundamentos axiomáticos para la mecánica clásica de partículas, Michoacán, México, Universidad Michoacana. 150 Stegmüller, W. (1982) La concepción estructuralista de las teorías, Madrid, Alianza. (1983) Estructura y dinámica de teorías, Barcelona, Ariel. 151 12 Epistemología y métodos de la ciencia En este capítulo se relacionan las estructuras epistemológicamente fundadas de la ciencia, con la secuencia de pasos metodológicos que se derivan de ellas y que han sido tomados por científicos, gestores y evaluadores de ciencia, como formas estándar de presentar un protocolo de investigación, o un proyecto ya terminado -sin conocer su origen epistemológico-. Presentaremos sucesivamente: Sección 1. El protocolo de investigación hipotético deductivo simple Sección 2. El protocolo de investigación hipotético deductivo liberalizado Sección 3. El protocolo de investigación basado en la concepción de la ciencia de Kuhn y del estructuralismo Este último condensa y supera a los anteriores, por lo que consideramos debe ser utilizado para iniciar una investigación, y para presentar sus resultados. 152 S ECC I Ó N 1 Protocolo H D Simple Una vez vistos, y justificados los pasos del método hipotético deductivo simple, esbocemos a espejo suyo los pasos que debe tener un protocolo investigación a los efectos de estar correctamente formulado, y luego cómo debe ser descripta –en un artículo- la experiencia realizada. Son los siguientes: i.&Problema ii.& Hipótesis iii.& Resultados esperados iv.& Discusión El primer punto, Problema, debe discutir y aclarar el problema que se intenta solucionar. El segundo, Hipótesis, cuál es la solución que se ofrece. Ninguno de estos difiere en terminología a los que mencionamos antes con la jerga epistemologica. El tercero, Resultados esperados, es lo que antes llamamos Consecuencias observacionales. En cuanto al último punto, Discusión, es el comentario acerca de cómo los resultados afectan a la hipótesis, si la corroboran o la descartan, y en qué medida nos hace ir a nuevas investigaciones, por haber descubierto en el transcurso nuevos problemas. Como se ve, este esquema que puede ser conocido para el lector, no es un capricho o una costumbre de los investigadores, sino que tiene su origen en la filosofía de la ciencia de Karl Popper –quien publica su texto La lógica de la investigación científica en 1934-, y dentro de la tradición médica, en los escritos metodológicos de Claude Bernard. 153 Es poco sabido que el método hipotético-deductivo fue presentado por este autor, utilizando incluso las mismas palabras que Popper para describir sus pasos –hipótesis, problema, intuición, experimento, refutación pero no verificación-, casi 70 años antes –de 1865 es su Introducción al método de la medicina experimental-. Cuando alrededor de 30 años después de haber publicado su libro le hacen notar a Popper en apenas un tercio de página el uso de la palabra hipótesis por parte de Claude Bernard, responde que no lo sabía, no conocía este antecesor suyo. Por supuesto, no hay completa identidad entre ambos autores. Claude Bernard no conoce los argumentos lógicos que son la base de la justificación popperiana del método –mucho más complejos y completos de lo que hemos mencionado, ni tiene que polemizar con el neo-positivismo. Desconocido por los filósofos, los escritos de Claude Bernard fueron conocidos por todos los fisiólogos e investigadores médicos del mundo, incluyendo a Freud en su etapa de neurofisiólogo, o a Bernardo Houssay, quien lo difundía entre sus discípulos. No es todo lo que tenemos que decir sobre el protocolo de investigación, y la escritura de un artículo científico. Sin embargo, este esquema muy simple será enriquecido en la medida en que avancemos en las distintas metodologías. El próximo capítulo lo dedicaremos al método hipotético-deductivo complejo o liberalizado, en el que haremos intervenir, entre otros elementos, a la situación experimental, y los cambios que introduce en los esquemas anteriores. 154 155 S ECC I Ó N 2 Protocolo H D Liberalizado Como es costumbre en nuestros artículos, a cada metodología corresponde un esquema de protocolo de investigación, como llamamos a los pasos que debe seguir un investigador. Pasamos ahora del método hipotético-deductivo simple, al liberalizado o complejo. Aumenta asimismo la complejidad y la precisión de los pasos de una investigación. Como recordamos, esos pasos son los siguientes en el método hipotético-deductivo simple: i.&Problema ii.& Hipótesis iii.& Resultados esperados iv.& Discusión El primer punto, Problema, debe discutir y aclarar el problema que se intenta solucionar. El segundo, Hipótesis, cuál es la solución que se ofrece. Ninguno de estos difiere en terminología a los que mencionamos antes con la jerga epistemologica. El tercero, Resultados esperados, es lo que antes llamamos Consecuencias observacionales. En cuanto al último punto, Discusión, es el comentario acerca de cómo los resultados afectan a la hipótesis, si la corroboran o la descartan, y en qué medida nos hace ir a nuevas investigaciones, por haber descubierto en el transcurso nuevos problemas. Todos permanecen igual, agregándose entre el punto tercer, la hipótesis, y los resultados esperados, el punto que corresponde a las hipótesis auxiliares, y que en la terminología habi156 tual de los proyectos de investigación, o de la presentación de trabajos científicos se denomina materiales y métodos. En este punto se discute o se explicita aquellos objetos con los cuales se investiga, y los métodos que se piensa utilizar en la experiencia. Los materiales y métodos varían de disciplina en disciplina. Por ejemplo, en bioquímica, los materiales pueden ser los reactivos que se utilizan, y los métodos, los métodos de determinación de los resultados. En la investigación clínica, en ocasiones los materiales pueden ser en ocasiones el grupo de pacientes, y los resultados analizados mediante métodos estadísticos. Cuando se investigan los resultados terapéuticos de algún fármaco, éste entra asimismo dentro de los materiales. El protocolo de investigación es entonces el siguiente: i.&Problema ii.& Hipótesis iii.& Materiales y métodos iv.& Resultados esperados Discusión No será este el último protocolo de investigación que veamos. A medida que avancemos en la evolución histórica de la metodología científica, se completa y en parte se rectifica, comprendiéndose cada vez con más profundidad la índole de la investigación científica. 157 S ECC I Ó N 3 Protocolo basado en las concepciones de Kuhn El primer efecto que tiene la incorporación de la noción de ciencia de Thomas Kuhn en comprender la racionalidad de la armazón formal de los proyectos de investigación, es que posibilita visualizar la importancia de la historia en la misma, y su inclusión dentro de lo que se ha dado en llamar marcos conceptuales aceptados. En una terminología actualizada, toda investigación se encuentra encuadrada en una teoría –o paradigma- fuera de la cual no podría existir. Como recordamos, esos pasos son los siguientes en el método hipotético-deductivo simple: i. Problema ii. Hipótesis iii. Materiales y Métodos iv. Resultados esperados v. Discusión Ahora debemos incluir entre los puntos del protocolo de investigación los antecedentes tanto de los problemas como de las soluciones –hipotesis- que se presentan. Los antecedentes son los que sitúan a la investigación presente en la cadena de investigaciones que se emprenden dentro de los marcos de una teoría dada. Pueden verse asimismo como las justificación que hace el investigador de problemas y soluciones. En ocasiones, también es necesario justificar los métodos y materiales que se utilicen. La justificación o fundamentación de porqué se eligieron determinados problemas, soluciones y materiales y métodos hacen a la razonabilidad del proyecto de investigación, y se realiza mediante argumentos en los que los antecedentes juegan un rol central. En la práctica científica, suelen revisarse los antecedentes –y que hacen a una investigación bibliográfica previa- de un lapso en general no mayor a los tres o cinco años, puesto que se intenta colocar los resultados en el contexto de la discusión más actualizada. Aunque esta práctica es correcta, se sugiere, en vista de las lecciones de la historia de la ciencia, revisar de ser posible toda la trayectoria histórica de los problemas y las soluciones. Entre otros motivos, porque pueden resultar enriquecedor conocer incluso vías fracasadas, sea para no insistir en ellas, o para comprender porqué sucedió, ya que incluso se puede intentar encararla de otra 158 manera y llevarla ahora a buen término. Por otra parte, somos conscientes desde Kuhn que la historia narrada por los textos científicos tienden a embellecerla, eliminando errores, o alterando soluciones anteriores. La única manera de conocerlas, es revisando las investigaciones originales. Si sabemos que las soluciones provienen generalmente del conocimiento de soluciones similares ante problemas similares, su conocimiento a fondo es esencial para plantear la propia estrategia. No hay investigación científica posible sin ese conocimiento previo. En este apartado, no sólo se presentan los antecedentes de problemas y soluciones. Al hacerlo, se discute –haciéndolas claras para quienes las lean- la pertinencia de los problemas, y la originalidad de las soluciones, así cómo la investigación constituye un avance del conocimiento en un campo discutido por la comunidad científica. El siguiente punto, Problema, debe discutir y aclarar el el enigma que se intenta solucionar. Como vimos, desde la concepción de Thomas Kuhn puede ser de distinta índole, tanto teórico como empírico, así como teórico-empírico. Un ejemplo de problema teórico, lo constituye una teoría, ya sea en sus enunciados muy generales –generalizaciones simbólicas-, como en alguna de sus leyes especiales –que la hace aplicable a un campo acotado de la experiencia que cae bajo la teoría- necesita una reformulación que la haga más clara y más precisa, desembarazándola de inexactitudes o de ambigüedades. En las ciencias exactas, esto a menudo se logra mediante una axiomatización. Un problema empírico es en general alguno que hace a la precisión de la aplicación de una ley especial, y puede incluir el cuestionamiento de alguna técnica de medida. Un problema teórico-empírico, lo constituye un campo de conocimiento que debiera ser una aplicación de la teoría, pero no lo es. Se denomina de esta manera, pues debe formularse una ley especial para el mismo –derivada de las generalizaciones empíricas, y similar a otras leyes especiales ya consagradas-, y aplicarse con exactitud a un campo de conocimiento nuevo, que es similar a otros campos de aplicación de la teoría. El segundo, Hipótesis, cuál es la solución que se ofrece. Puede consistir en una propuesta de axiomatización, o de formulación teórica más precisa, si el problema es teórico. En una nueva manera de encontrar los valores empíricos de la teoría, si es empírico. En hacer la doble hipótesis de que un campo dado es modelo de la teoría, y de que la propuesta de ley especial que se hace es la correcta. El punto que corresponde a las hipótesis auxiliares, en la terminología habitual de los proyectos de investigación, o de la presentación de trabajos científicos se denomina materiales y métodos. Aquí se discute –si es un proyecto. o se explicita –si ya se presenta la investigación terminadas- aquellos objetos con los cuales se investiga, y los métodos que se utilizan en la ex159 periencia. Habíamos mencionado que varían de disciplina en disciplina. Por ejemplo, en bioquímica, los materiales pueden ser los reactivos que se utilizan, y los métodos, los métodos de determinación de los resultados. En la investigación clínica, en ocasiones los materiales pueden ser en ocasiones el grupo de pacientes, y los resultados analizados mediante métodos estadísticos. Cuando se investigan los resultados terapéuticos de algún fármaco, éste entra asimismo dentro de los materiales. El tercero, Resultados esperados, es lo que corresponde en la terminología epistemológica a Consecuencias observacionales. En cuanto al último punto, Discusión, es el comentario acerca de cómo los resultados afectan a la hipótesis, si la corroboran o la descartan, y en qué medida nos hace ir a nuevas investigaciones, por haber descubierto en el transcurso nuevos problemas. Definimos a continuación los pasos del protocolo de investigación que resulta de las investigaciones históricas de Thomas Kuhn. i. Antecedentes: Teoría específica y trabajos de grupos de investigadores en campos similares a. de los problemas y su adecuación b. de las soluciones, su importancia dentro del campo de conocimiento y su originalidad c. en ocasiones, también de los materiales y métodos que se utilizan ii. Problema a. teórico b. empírico c. teórico-empírico iii. Hipótesis a. la teoría puede ser aplicada a un nuevo campo b. tal o cual ley especial es la que le corresponde c. es necesaria una reformulación de la teoría d. alguna aplicación necesita mayor precisión iv. Materiales y Métodos v. Resultados esperados Discusión Conclusiones 160 Por supuesto, no hay metodología para refutar a un nuevo paradigma, incluso en su fase de ciencia extraordinaria. Unicamente podemos poner a prueba, y refutar, si este es el caso, las hipótesis acerca de la zona de la realidad a las que se pretende aplicar, así como las que se refieren a las leyes especiales que se proponen para esas nuevas aplicaciones. Con este punto, concluimos la presentación de la concepción de la ciencia de Thomas Kuhn, tanto en sus aspectos estructurales, como a sus aspectos histórico-sociales. Esbozamos su aplicación a las ciencias sociales, así como la necesidad de formalizar, siguiendo a la concepción estructural de las teorías, las teorías de las ciencias sociales, como medio para avanzar en el conocimiento de su estructura, y de su historia. Finalizamos presentando las particularidades de los protocolos de investigación, cuando se acepta la metodología que surge de la concepción de la ciencia de Thomas Kuhn. En la próxima presentación veremos la metodología de los programas de investigación la concepción estructural de las teorías, y algunas de las consecuencias que posee para comprender la investigación científica. 161 Hay ocasiones en las cuales la terminología del estructuralismo es demasiado compleja desde el punto de vista formal, lo que dificulta su comprensión. Este es un ejemplo en el que se utilizan sus categorías, sin el aparato formal. 13 El diagnóstico médico Este capítulo intentar fundamentar epistemológicamente al diagnóstico médico. Para ello se introducen primeramente las grandes problemáticas que enfrenta la investigación médica, tal como la naturaleza de la enfermedad, su causa, su tratamiento, y naturalmente, su diagnóstico. Se analiza luego la noción de teoría en la concepción tradicional de la filosofía de la ciencia, y su aplicación a las distintas etapas históricas de la medicina, definiéndose la noción de teoría médica como la unión de un plano más próximo a la experiencia de signos y síntomas, con un plano de alteraciones profundas del organismo. Posteriormente, se introducen las distinciones de la concepción estructural de las teorías, mostrándose su mayor precisión y adecuación para comprender los problemas de la ciencia, y por lo tanto, de la medicina. Se presenta al diagnóstico médico como ciencia –y por lo tanto investigación- aplicada. Se utilizan las distinciones de la concepción estructural para establecer la estructura epistémi- 162 ca del diagnóstico médico, y la función que cumple en el mismo la noción de ejemplar paradigmático, y de semejanzas entre ejemplares. Introducción Desde los tiempos de Hipócrates el diagnóstico de la enfermedad, y su natural consecuencia, el pronóstico sobre su evolución, es considerado el núcleo central del saber médico, aquello que da razón de una profesión que se funda en el conocimiento justificado por la experiencia, y no en la simple intuición o en recursos discursivos, razonables pero infundados. Hipócrates mismo lo presenta diciendo que el orgullo médico no es tanto el curar las enfermedades, algo que en ocasiones no permite el desarrollo del conocimiento, sino que se cumpla aquello que se pronostica –y, como sabemos, no hay pronóstico correcto sin un buen diagnóstico-. En este artículo lo analizaré desde el punto de vista epistemológico, a fin de mostrar sus raíces en la estructura teórica de la medicina. Para ello deslindaré en primer lugar el conocimiento médico que se encuentra en textos y artículos, de la práctica médica profesional. Deslindaré asimismo entre conocimiento acerca de la naturaleza de la enfermedad –que se responde con teorías específicamente médicas- de la misma manera en que la pregunta sobre el movimiento de los cuerpos se responde con teorías físicas, de la pregunta sobre cómo se cura la enfermedad. Posteriormente expondré en qué consisten las teorías médicas –a las que denominaré teorías clínicas, en el supuesto de que en esta disciplina es donde se condensan los distintos saberes que la preceden, sean de la anatomía, la fisiología, la fisiopatología, etc. y que permite responder a la pregunta sobre la naturaleza de la enfermedad. Finalmente, analizaré las peculiaridades del diagnóstico médico como una forma de conocimiento aplicado basado en la estructura teórica de la enfermedad, y las maneras que adquiere esta aplicación. Independencia epistémica de la medicina y sus preguntas específicas Hay quienes suponen que la medicina es una simple consecuencia del conocimiento biológico, y que por lo tanto es innecesario su análisis, que quedaría subsumido por la filosofía de la biología. Sin embargo, es preciso reconocer que existen preguntas específicamente médicas, que tienen una respuesta que utiliza al conocimiento biológico y químico a la manera de disciplinas presupuestas, pero que no se identifica con ellos, y que adopta formas propias. 163 Sabemos que la biología se interesa por los aspectos más generales de la vida, y que sus teorías específicas son, fundamentalmente, la de la evolución, la genética, la teoría celular, y sus preguntas son cómo evolucionan las especies, cómo es su estructura genética y cómo incide en sus rasgos aparenciales, cómo se dan los intercambios en el seno de las células, etc. No se interesa en cambio en desentrañar los aspectos biológicos, psicológicos y sociales que hacen a la salud y la enfermedad humanas, que son el territorio privilegiado de la investigación médica. En este sentido, marca caminos que no están inscriptos en la biología y en sus intereses generales, aunque se apoya en ellos. Cuando veamos la índole de las preguntas y respuestas de la medicina, así como su estructura teórica, constataremos que existen además de la biología otras disciplinas que llamaremos como a ésta presupuestas sobre las que se basa el conocimiento médico. Unas se desarrollan dentro del campo médico, como la anatomía, la embriología, la patología o la fisiología humanas, como son humanas las teorías clínicas que se construyen con ellas. Otras provienen de campos alejados de la medicina, como la física, la estadística, la psicología, la sociología o la antropología, estas últimas indispensables para construir a la clínica psiquiátrica, o el sanitarismo. Es necesario puntualizar que a los efectos de analizar la estructura teórica de la medicina no nos ocuparemos de la práctica de consultorio -la única visible a los ojos del lego-, sino que tomaremos como base de nuestros análisis el conocimiento objetivado en textos y artículos especializados, producto de investigaciones que no difieren mayormente de las que se realizan en otras disciplinas científicas, y al que podríamos denominar conocimiento médico. El conocimiento médico al que nos referimos es la respuesta a los tres grandes interrogantes que han preocupado a los investigadores desde los tiempos fundacionales de esta disciplina, y que son: i. ¿en qué consiste la enfermedad? ii. ¿cómo se enferma? iii. ¿cómo se cura la enfermedad? Añadiremos ahora otra pregunta central para la medicina que al igual que la pregunta tercera es fundamentalmente pragmática: iv. ¿cómo se diagnostica la enfermedad? 164 Las dos últimas preguntas conforman el dominio propio de la práctica médica, y asientan sobre el conocimiento básico al que hicimos referencia anteriormente, aunque sin identificarse con él. Si ahora caracterizamos el tipo de conocimiento a que da lugar cada uno de estos grandes núcleos problemáticos, diremos que la primera de las preguntas origina lo que llamaremos teorías clínicas, en las que se establece cuál es la estructura epistémica de eso que llamamos enfermedad, y que es posible elucidar a partir de los textos clínicos. Como toda teoría, posee asimismo sus propios métodos de investigación y de poner a prueba sus afirmaciones. Como veremos luego, uno de sus núcleos centrales lo constituye la fisiopatología. Es probablemente el cuerpo cognoscitivo médico mejor estructurado, y más desarrollado desde el punto de vista científico. La segunda de las preguntas corresponde a lo que se conoce con el nombre de etiología. Si bien la respuesta correcta consiste en ver cómo los factores causantes de enfermedad inciden sobre la estructura fisiopatológica del organismo, esto no es sencillo de establecer, y en muchas ocasiones la causalidad se predica simplemente de una correlación empírica –casi siempre estadística- entre determinado factor y cierto padecimiento. Entre la costumbre de fumar y el cáncer de pulmón, entre ciertos hábitos alimenticios y el cáncer de estómago, etc. Como sabemos, aunque la atribución de causalidad en el primero de los casos es legítima, la correlación estadística por regla general es una causalidad mediocre, que siempre puede dar lugar a que sea incorrecta, y el efecto se deba a cualquier otro factor no contemplado hasta el momento. Incluso en el caso del tabaco, se trata de una causalidad inferior en calidad epistémica por ejemplo, a cuando se invoca la causalidad de las diversas sustancias químicas orgánicas que posee, en las que la investigación constata propiedades cancerígenas, y se conoce cómo inciden en los mecanismos fisiopatológicos del organismo. Las preguntas por la enfermedad, y por su origen dan lugar a investigaciones que llamaremos de ciencia básica médica. En cambio la respuesta a cómo se cura la enfermedad, el tercero de nuestros interrogantes, no corresponde a la ciencia básica, sino al orden de las investigaciones tecnológicas. Esto es así, pues su propósito es el intervenir para cambiar el curso natural de la enfermedad. Es una finalidad pragmática, antes que una epistémica, en la que se busca el conocimiento que sea útil a los fines propuestos. Nuevamente se reproduce en esta instancia lo dicho con respecto a la etiología de las enfermedades. Una terapéutica racional es aquella que incide en el mecanismo íntimo de producción de la enfermedad, en su fisiopatología. Desafortunadamente no siempre es posible, y muchas veces se recurre a correlaciones empíricas que, como dijimos anteriormente, suelen ser falibles, puesto que se desconoce cómo actúan. O por intuiciones derivadas de hallazgos fortuitos como lo fue la aplicación del minoxil para la caída del cabello, cuando se constató que 165 hipertensos que la tomaban veían crecer su pelo. También entran dentro de estas categorías la utilización de vegetales, cuya eficacia se conoce incluso desde antaño. Podemos mencionar a la quinina, la corteza del sauce, la rawolfia, que en muchos casos fueron objeto de investigación en busca de sus principios activos. O la aplicación de corriente eléctrica en los trastornos psiquiátricos, debido a observarse que los cerdos en el matadero se tranquilizaban al aplicárseles electricidad. Como se observa, en ocasiones la intuición derivada de la constatación de un efecto terapéutico fue acertada, en otros no. Diremos entonces que la investigación etiológica y clínica da lugar al conocimiento básico de la medicina, mientras que la investigación terapéutica corresponde al conocimiento tecnológico. A fin de fundamentar nuestra afirmación acerca del carácter aplicado del diagnóstico médico, un conocimiento que no es básico ni tecnológico, presentaremos a continuación la estructura teórica de la medicina, esa que permite responder a qué es la enfermedad. La estructura teórica de la medicina En este apartado vamos a analizar la estructura teórica de la medicina, que hacemos coincidir fundamentalmente con lo que llamamos teorías clínicas. De más está decir que nuestra respuesta no es una respuesta metafísica que inquiera por una supuesta esencia de la enfermedad, sino que intenta establecer cuáles son las condiciones epistémicas con las que encuadra conceptualmente al fenómeno de la pérdida de la salud. Me referiré primeramente a qué se entiende por teoría desde la epistemología tradicional, y cómo pueden verse a su luz las sucesivas teorías de la medicina. Diré posteriormente en qué medida la epistemología tradicional ha sido superada por concepciones posteriores, en particular la concepción estructuralista de las teorías, y cómo esto incide en la comprensión del diagnóstico médico. Comencemos puntualizando que para la epistemología tradicional se entiende por teoría a un conjunto de enunciados, que a su vez se separan en dos planos distintos. El primero corresponde a enunciados acerca de aquello que se constata con los sentidos –y que se denomina por este motivo plano observacional o empírico de la teoría-, y constituye aquello que se trata de explicar. Con ellos se habla acerca de un número pequeño –quizás único- de objetos y de sus propiedades, que son observables. También se denomina el plano de los hechos o los datos de la teoría. El segundo plano corresponde a la teoría propiamente dicha. Está constituido por enunciados generales –leyes- y su vocabulario incluye términos que se llaman teóricos, y que a diferencia de los del lenguaje observacional, designan propiedades y objetos que no son directamente observables. Con ellos se explican los hechos –o datos- que estudia la teoría. Para la epistemología tradicional, ejemplos de vocabulario observacional es azul, silla, perro; en síntesis, propiedades observables de objetos físicos macroscópicos. El vocabulario teóri166 co se define de manera negativa, como aquel que no posee estas características, y cuyos ejemplos son electrón, gen, valencia, fuerza, clase social, etc. Veremos que estas características se adaptan muy poco al conocimiento científico, que no habla de sillas o perros, sino de objetos y propiedades que se definen dentro de la misma ciencia, como partículas, ciudadanos, intención de voto, oxígeno, o manchas de Koplic. Sus datos, muchas veces se obtienen mediante aparatos específicos, o provienen de disciplinas especiales; ejemplos de los primeros son los espectrógrafos o los voltímetros; de las segundas, la planimetría satelital. La historia de la medicina y las teorías médicas Hacia el siglo V antes de nuestra era, Platón plantea a los astrónomos un desafío singular: explicar los erráticos movimientos de los planetas -tan alejados del transcurrir regular de las estrellas- en términos de movimientos circulares uniformes. Eudoxio, y luego Ptolomeo salvan -explican- la irregularidad del movimiento aparente, mediante propuestas de movimientos circulares que al combinarse dan perceptualmente la apariencia de una irregularidad. No sólo los explican: su trazado matemático permite predecir con una precisión impensada sus movimientos futuros, y suponer cuales fueron en el pasado. Podríamos asimilar el problema y su solución a un lenguaje más actual, y decir junto con la “concepción heredada” –nombre con la que se conoce a la epistemología tradicional- que lo empírico -o fenoménico- es explicado por un plano teórico. Por la misma época, Hipócrates -resumiendo bajo este nombre los hallazgos de toda una escuela, y quizás de todo un período histórico- realiza la doble tarea de los astrónomos: describe con precisión signos de enfermedades -semejante a los cuidadosos trazados del mapa celeste que es previo a las teorías astronómicas-, y los explica mediante los cambios de los cuatro humores del organismo. Si seguimos a la “concepción heredada”, quizás pudiéramos hablar de un plano “empírico” que es explicado por un plano teórico. Sin embargo, si se lo analiza con más cuidado, entenderemos que se trata de la relación entre dos campos teóricos distintos, uno de un nivel más básico que el otro. Esto es así por los siguientes motivos. Los datos no corresponden a una percepción pura, no entrenada, expresada en un lenguaje observacional común. Se obtienen según las pautas de una disciplina científica, que sistematiza y perfecciona la observación espontánea, conocida desde entonces como semiología o ciencia de los signos. La semiología estandariza una variedad de complejas maniobras perceptuales y manuales, que permiten obtener datos imposibles de ser percibidos por el lego, y que son expresados en un lenguaje específico. El simple rubro de “manchas en la piel”, por ejemplo, da lugar a una refinada tipología que puede abarcar a más de 100 entidades descriptivas diferentes. Estanda167 riza además el interrogatorio del paciente, incorporando a los datos empíricos aquello que refiere el paciente como sus molestias, llamándolos síntomas. Desde el punto de vista metodológico, con esta maniobra la semiología transforma las experiencias subjetivas de los pacientes en datos objetivos, susceptibles de ser categorizados y cuantificados. Los signos y síntomas se agrupan posteriormente en constelaciones específicas, para caracterizar síndromes, e incluso configurar, si se le añade una cierta evolución en el tiempo, lo característicamente “observable” de las enfermedades. Desde la semiología tenemos, entonces, una determinación semiológica de las enfermedades, pero que resulta incompleta, puesto que no explica los motivos por las cuales los signos se agrupan por enfermedad, y siguen una evolución regular, previsible. La explicación -y con ella la enfermedad propiamente dicha- pasa por relacionarlos con los cambios en el interior del organismo -inaccesible a la observación directa por ese entoncesde cuatro humores básicos. Tenemos entonces los dos planos teóricos de los que hablábamos. Uno más “empírico”, o semiológico. Otro más “teórico”, que explica al primero, o humoral. Cuando hacia la mitad del siglo pasado investigadores como Rudolf Virchow y Claude Bernard sientan las bases científicas de la fisiopatología -o alteraciones en el funcionamiento del organismo que provocan la enfermedad-, lo que hacen es continuar la tradición de Hipócrates y Galeno -por otra parte viva hasta fines del siglo pasado- y presentar bajo una nueva luz -rigurosa y experimental- el esquema de dos planos teóricos interrelacionados: el semiológico, enriquecido con el paso del tiempo con nuevas descripciones de enfermedades, y el fisiopatológico, que lo explica. Resulta sencillo, ahora, comprender el hilo racional que une a alguno de los puntos que aparecen en la descripción de las enfermedades tal como figuran en los libros de texto de clínica médica. Pues reconocemos en ellos el plano semiológico y el plano anátomo-fisio-patológico mencionados como “los signos físicos que presentan los pacientes” y “las lesiones características de los distintos órganos”, y que constituyen los puntos principales con los que se describe a las enfermedades. Vemos también su íntima relación en la evolución de la enfermedad, que es la de sus signos, paralela a la de las alteraciones orgánicas o funcionales. Según lo acabamos de ver, “enfermedad” es la unión indisoluble entre signos, y lesiones anátomo-fisio-patológicas, que evolucionan conjuntamente de una manera característica. Sin embargo, esta distinción no corresponde a la que hace la concepción tradicional de la ciencia entre un plano observable y otro teórico, definido como no observable. Se trata, más bien, de la relación entre dos planos teóricos, uno de los cuales es más próximo, más accesible a la experiencia que el otro. En efecto, sabemos que es relativamente sencillo recopilar el material semiológico, y de hecho las descripciones que hace Hipócrates son todavía un mode168 lo de exploración médica. Pero sabemos también que demoró siglos en entenderse la anatomía y el funcionamiento normal de los órganos internos, así como sus alteraciones en caso de enfermedad. Una teoría clínica –y en principio hay una para cada enfermedad-, es una construcción en la que se unen síntomas y signos específicos con alteraciones anatomo-fisio-patológicas asimismo específicas, que evolucionan conjuntamente en la medida en que se desarrolla la enfermedad, yendo hacia la curación total, la curación con defecto, la cronicidad o la muerte. Para comprender más acabadamente la estructura de la enfermedad, y luego del diagnóstico médico, deberemos apartarnos de la concepción tradicional de la ciencia, y adentrarnos de manera somera en el más actual programa de investigación en filosofía de la ciencia, la concepción estructuralista de las teorías. Es esta concepción epistemológica la que plantea que no debe insistirse en hablar de un plano observacional y uno teórico. Una epistemología estructural para la medicina Para la concepción estructuralista la división anterior entre lenguaje observacional y lenguaje teórico no refleja adecuadamente al conocimiento científico, que como vimos, no posee ningún lenguaje que sea observacional en el sentido directo, de objetos macroscópicos con propiedades observables. 169 La concepción estructuralista piensa que es más correcto señalar que efectivamente hay vocablos teóricos dentro de una teoría dada, y que éstos son lo más característico suyo, aquello que la hace diferente a cualquier otra teoría, su plano teórico. Pero que también hay vocablos que la integran, y que no son de ningún lenguaje observacional simple, sino que provienen de alguna otra teoría. Son no-teóricos con respecto a la teoría que se está analizando –en este caso las teorías clínicas-, y sin embargo son teóricos en la anterior –la semiología-. Lo que queremos hacer notar es que la distinción no es acerca de si hablan de algo observable, o no observable, siendo esta última característica lo distintivo de lo teórico, sino sobre el rol que juegan en la teoría que se está considerando. Es una distinción funcional, no absoluta como lo implica la observabilidad. Hay entonces una caracterización no teórica de la enfermedad que es semiológica, definida exclusivamente por sus signos y síntomas, Para que se trate de una teoría de la enfermedad clínica propiamente dicha, es necesario acotar aún más la definición, añadiéndole las características de lo que es teórico con respecto a la semiología, i.e., las alteraciones –vocablos- anatomo-fisio-patológicas, que forman con las alteraciones semiológicas una unión indisoluble. Desde la concepción estructuralista, se denomina expansión teórica ese añadir los vocablos y relaciones teóricas a las no teóricas, la descripción de las alteraciones anatomo-fisio-patológicas a las semiológicas, a los efectos de transformarla en una enfermedad de la clínica médica. Sin discutir mayormente el criterio de teoricidad de la concepción estructural, señalemos que habla del carácter teórico de la anatomo-fisio-patología, el hecho de que desde la enfermedad semiológica no es posible inferir las lesiones “internas” características, ni desde ellas -con exactitud- los signos que presentan. Esta imposibilidad es algo que tiene que ver con la teoricidad de las mismas. Es de hecho posible que a un mismo conjunto de signos corresponda más de un conjunto de alteraciones anatomo-fisio-patológicas, dando lugar a distintas enfermedades. Cabe recordar, a manera de ejemplo, que el síndrome doloroso de fosa ilíaca derecha que anteriormente se denominaba “cólico miserere” pues concluía en la muerte, se sabe luego de las investigaciones correspondientes que abarca enfermedades tan disímiles como la apendicitis aguda, la perforación del divertículo de Meckel, la anexitis aguda, la colecistitis aguda. En este contexto, podemos definir a la investigación clínica como aquella que establece fehacientemente la indisoluble relación entre signos, síntomas y lesiones profundas que hacen a una enfermedad definida. Como se comprenderá, sólo puede hacerse en las salas de clínica, al pie del paciente, y concluye con la constatación anatomopatológica. Es necesario añadir que la expansión teórica que se realiza en la estructura de la enfermedad, coincide con la atribución de causalidad: el plano profundo, de lesiones anatomo-fisio170 patológicas, es la causa de los signos y síntomas, a partir de la cual comenzar a urdir mecanismos de prevención y de curación de la enfermedad. No es de extrañar que el éxito terapéutico se haya constituido en un mecanismo metodológico del que se vale el pensamiento médico para justificar tanto la atribución de causalidad, como la expansión teórica –certificación de la teoría médica de la enfermedad- que la posibilita. La inferencia sería la siguiente: si el paciente cura cuando trato las alteraciones profundas de la enfermedad, por ejemplo, quitando el apéndice en caso de apendicitis, certifico simultáneamente que éste es la causa de dolor, y también aquello que la caracteriza como enfermedad, a saber, las lesiones en el apéndice vermiforme. Como expresamos al comienzo, el tratamiento correcto se basa en el conocimiento básico de la medicina, que se manifiesta en la teoría de la enfermedad, aquella que responde la primera de las preguntas que nos planteamos. No voy a insistir en una característica central de la concepción estructuralista, que es la de no caracterizar con esas funciones teóricas y no teóricas enunciados de un cierto tipo –como lo hace la concepción tradicional-, sino modelos, puesto que estas son complejidades que reservo para quienes estudian epistemología, y que resulta innecesaria para que se comprendan las argumentaciones posteriores. Modelos no teóricos –semiológicos, para las teorías clínicas171 modelos teóricos –si se le añaden funciones anatomo-fisio-patológicas-, y modelos completos –si cumplen una ley evolutiva de la enfermedad-. Quisiera mencionar en cambio, que estos modelos –que son formales, es decir sin contenido, como todos los modelos matemáticos-, necesitan una interpretación empírica –saber de qué hablan- y para esto la concepción estructuralista introduce un elemento más en la teoría, que llama aplicaciones. Las aplicaciones de una teoría son aquellos sistemas empíricos en los que la estructura de la teoría se encuentra ejemplificada. Para dar un ejemplo proveniente de la física, este péndulo que hago oscilar con mi mano es una aplicación –un ejemplar- de la teoría de los péndulos, y cumple sus leyes. En el caso de la medicina, el paciente de la cama tres, con tos, expectoración mucosa, y una placa de tórax que certifica una condensación pulmonar, es una aplicación, un ejemplar, un caso, de la teoría clínica de la neumonía. Como veremos posteriormente, la noción de aplicaciones empíricas de las teorías clínicas es central para comprender como se aprende medicina, y cómo se diagnostica. El diagnóstico médico como conocimiento aplicado Inadvertidamente, mientras tratábamos de dar precisión a nuestra concepción de las teorías clínicas, nos introdujimos en el tema que nos convoca, el diagnóstico médico. Es el momento de dar algunos elementos epistémicos que permitan ver que se trata de un conocimiento aplicado, y no básico. La diferencia es la siguiente. El conocimiento básico da respuesta a interrogantes generales, y su búsqueda es centralmente epistémica, es decir que busca un aumento del conocimiento mismo, que habla de todos los sistemas de los que da cuenta. Por ejemplo, la teoría clínica específica de la neumonía es aplicable a todos los pacientes que presentan determinados signos y síntomas, en conjunción con cambios anatomo-fisio-patológicos específicos, por la acción de un microorganismo dado, el neumococo. La investigación aplicada, en cambio, busca comprender de qué se trata un sistema determinado, y qué teorías y leyes científicas permiten conocerlo a fondo, en general con fines pragmáticos. Daré un ejemplo derivado de la física, y luego otro de la medicina. Sabemos que existen leyes hidrodinámicas en la mecánica clásica, que se aplican a todos los fluidos. Sin embargo, nuestros investigadores quieren conocer las características del curso del Paraná Medio, a los fines de evaluar sus condiciones para la navegación y para hacer una represa. En este caso, no basta con el conocimiento de las leyes. Deben aplicarse a las particularidades del Paraná Medio, con cálculos mucho más complejos que si se tratara de un ensayo de 172 laboratorio. Deben introducirse en los cálculos su caudal, su ancho, las características de su lecho y de sus riveras, sus aumentos estacionales, sus mareas. Es una tarea científica importante, pero no es ciencia básica, es ciencia aplicada. Una de las maneras de expresarlo, es diciendo que el flujo de las aguas del Paraná Medio es una aplicación –un caso particular- de las leyes hidráulicas de la mecánica, adaptadas y completadas para que puedan predecir la compleja evolución de un río particular, y no cualquier fluido en un conducto ideal, uniforme, que no ofrece resistencia a su paso. El diagnóstico médico, que trata de saber qué enfermedad aqueja a un paciente determinado, participa de estas características. En nuestro ejemplo de la neumonía, el médico utiliza el conocimiento que tiene de las enfermedades infecciosas para terminar encuadrando a un paciente determinado como un caso que posee todos los elementos que la teoría dice que tiene una neumonía, y que por lo tanto evolucionará de una determinada manera, en una predicción que constituye un pronóstico médico. Al igual que el cauce de un río, nunca ningún paciente presenta los signos y síntomas de la neumonía tal como lo señalan los textos: la tos difiere de paciente en paciente, su sequedad o su expectoración difiere en intensidad y en calidad; la fiebre puede ser más o menos elevada. También difiere la imagen radiológica y la auscultación del tórax, que señala la zona del pulmón afectada por la neumonía. La evolución de la enfermedad es asimismo diferente para cada paciente. Pese a todas estas diferencias, que el médico debe evaluar cuando hace su diagnóstico, todas ellas caen dentro del rango de desviaciones admisibles que hacen de ese caso uno de neumonía. La estructura del diagnóstico médico Habíamos mostrado cómo el conocimiento que implica una teoría de la enfermedad se encuentra escindido en dos planos, que delimitan modelos de la enfermedad: unos que son no teóricos, otros teóricos, y finalmente otros teóricos completos. La concepción estructural sostiene que la identificación de un sistema cualquiera como ejemplar de una teoría –modelo teórico completo, aquel que cumple todos los requisitos y definiciones de la teoría- pasa por esas tres etapas sucesivas. Primeramente, se constata si se trata de un modelo no teórico, luego si se le pueden añadir legítimamente las funciones teóricas, y posteriormente si evoluciona como es previsto, es decir si se puede predecir su evolución desde la teoría. Este saber del mundo encuadrándolo dentro de categorías ya conocidas es el escalón más elemental de la ciencia aplicada; saber, por ejemplo, si algo que oscila es un péndulo, un vino 173 que se transforma en vinagre es un ejemplar de la bioquímica y utiliza enzimas para ello, o un juego de billar un ejemplo de la mecánica de choque. Habíamos visto que el diagnóstico médico es asimismo ciencia aplicada, y como tal recorre los pasos que estipula la concepción estructuralista. Veamos a continuación cómo el diagnóstico médico, al seguirlos, corrobora los análisis epistemológicos, y toma de ellos elementos para su autocomprensión. Cuando un médico se enfrenta a un paciente febril, todo el secreto del diagnóstico consiste en que pueda encuadrar esos síntomas –que incluyen tos- en una enfermedad determinada. Las características de los signos le dan una pista de qué se trata, y lo animan a formular una hipótesis tentativa de la lesión que los causa; si es seca, muy irritativa y de reciente comienzo, podría tratarse de una bronquitis, o de una neumonía. Ausculta el tórax en busca de nuevos signos que lo ayuden a poner a prueba su hipótesis. Si escucha un soplo tubárico, sabe que se encuentra ante una neumonía; si no lo escucha, pero los síntomas son importantes, o si no lo son pero la evolución se aleja de la de la bronquitis común, solicita una placa de tórax, en la que ahora observa una condensación pulmonar, con lo que concluye que se trata efectivamente de una neumonía. Sin embargo, al desaparecer demasiado pronto, comienza a pensar que quizás se trató de una neumonitis intersticial, y no una condensación debida al neumococo. Sólo la anatomía patológica y la identificación del microorganismo podría darle la certeza, pero es innecesaria: el paciente ya curó. Reconocemos en nuestra historia los pasos que indica la concepción estructuralista: tiene primeramente un modelo semiológico de enfermedad torácica febril, a la que añade funciones teóricas, transformándolo en un modelo con funciones teóricas y por ende en una presunta neumonía, de la cual sólo cabe esperar que se comporte como tal –modelo completo-. Si no lo hace, pero el diagnóstico por anatomía patológica y microbiología lo certifican, se está ante una forma atípica de un modelo completo, puesto que las formas atípicas también entran dentro de la descripción de la enfermedad, aunque con menor probabilidad de presentarse como forma evolutiva. Uno de los puntos que presentamos en nuestro relato y que tiene importancia en lo que sigue, es que a un modelo semiológico puede atribuírsele más de una expansión teórica, es decir que signos semejantes pueden deberse a más de un tipo de lesión orgánica, y por lo tanto, pertenecer a diferentes enfermedades. Los signos y síntomas pueden ser causados por más de una enfermedad; por eso no basta diagnosticar la enfermedad semiológica, y es necesario continuar con la investigación diagnóstica. Deslindar entre ellas es la función del diagnóstico diferencial, un fino ejercicio de investigación aplicada –que implica utilizar una variante del método hipotético-deductivo. En ella el médico, ante la presencia de ciertos signos, sopesa las distintas posibilidades diagnósticas que se abren a su consideración. No sólo debe hacer uso de los datos disponibles pa174 CLINICA SIGNOS Y SINTOMAS PRESUPONE Semiología ALTERACIONES ANATOMO FISIOPATOLOGICAS PATOLOGICAS Evolución PRESUPONE Anatomía Histología Embriología Fisiología Anatomía patólogica ra rechazar las hipótesis erróneas. En ocasiones, son necesarios estudios adicionales, sean de laboratorio, radiológicos, o de otra índole, profundizando en la semiología, con esas prolongaciones de los sentidos que son los instrumentos de diagnóstico, o incluso avanzado sobre la constitución íntima de las lesiones de los tejidos, en los estudios de anatomía patológica. Es innecesario mencionar la importancia que reviste el diagnóstico diferencial, no solo desde el punto de vista del pronóstico, sino también del tratamiento que se instituya. Puesto que el médico debe tratar la enfermedad, no sólo contemplar su evolución espontánea, como pudiera hacerlo un científico natural en su campo de estudios, que no intenta cambiar el curso de los planetas, ni impedir un terremoto. Y esto depende de qué enfermedad se trate, de qué alteraciones profundas tenga, y cómo puede hacerse que reviertan. La acción del médico modifica, como sabemos, tanto la evolución espontánea como el pronóstico, que debe tomar en cuenta este factor exógeno a la enfermedad misma. El médico tratante, con sus acciones terapéuticas y la enfermedad constituyen un sistema dinámico en el que ambos se modifican al interactuar. La enfermedad cambia al compás del tratamiento, y éste va adecuándose en la medida de este cambio. 175 La función de las aplicaciones –ejemplares- paradigmáticas Siguiendo con la terminología de la concepción estructuralista, diremos que cada paciente es una aplicación empírica, un ejemplar –un caso- de una teoría clínica dada, sea la neumonía, la úlcera gástrica, o la pielonefritis. Sin ellos, como cabe imaginar, la teoría sería incompleta. Si sólo existieran los modelos generales descriptos por los libros de texto, esos que aprendimos a nombrar como modelos semiológicos, luego clínicos, luego completos, pero no hubiera pacientes, seres humanos en los cuales esas descripciones generales tomen carnadura efectiva, no se trataría de enfermedades empíricas, sino de enfermedades cuya existencia sería meramente formal. Es necesario que ahora hagamos una distinción adicional entre las aplicaciones empíricas de una teoría, siguiendo siempre a la concepción estructuralista. Distinguiremos entre ellas a las primeras aplicaciones de la teoría de las demás, y las llamaremos paradigmáticas. Bajo este nombre ponemos las primeras aplicaciones de la teoría que surgieron en su historia –las lámparas que oscilaban ante Galileo como ejemplares paradigmáticos de los péndulos, o el primer paciente al que Pasteur inoculó los virus atenuados de la rabia-, pero también, en lo que hace a la historia individual de cada médico, los pacientes con los que aprendió a distinguir una enfermedad determinada bajo la guía de un médico experimentado que le enseñó a hacerlo. Para él, estos son sus ejemplares paradigmáticos. Los ejemplares paradigmáticos enseñan a conocer a los sistemas a los cuales pueden aplicarse las estructuras de la teoría, puesto que se parecerán a ellos. Dado que los distintos ejemplares de una teoría son fenoménicamente –aparencialmente- diferentes, la única manera de encuadrarlos dentro de un mismo esquema clasificatorio –en este caso una teoría determinada- es encontrarles relaciones de semejanza. Una semejanza que es entonces estructural, no fenoménica, y definida por las funciones no teóricas y teóricas de la teoría, así como por sus leyes específicas. Los ejemplares de una teoría se parecen a los ejemplares paradigmáticos, y en la experiencia de cada científico, se parecerán a los primeros ejemplares que él conoció. Los médicos reconocen una neumonía como tal cuando los signos que presenta un paciente nuevo, le recuerdan –son semejantes a- los que aprendió en los primeros pacientes neumónicos del hospital al que concurrieron como estudiante, y luego como jóvenes médicos del servicio. Por supuesto, estos signos son estructurales, e independientes de si el paciente es hombre o mujer, gordo o delgado, rubio o moreno, todos rasgos fenoménicos que carecen de importancia en el diagnóstico de esta enfermedad infecciosa. Estos señalamientos son centrales para explicar los mecanismos epistémicos que subyacen a esta ciencia aplicada que es el diagnóstico, y con él a toda aplicación de una teoría, y que dependen de que los médicos se hayan enfrentado directamente, fácticamente, con pacientes con enfermedades determinadas. 176 Agregaremos que sin ese aprendizaje práctico de los ejemplares, sin ejemplares paradigmáticos, es prácticamente imposible que se diagnostique correctamente, y que no se incurra en errores que serían impensables si su aprendizaje lo hubiera hecho frente a enfermos. En las distintas disciplinas científicas se aprende con ejercicios de lápiz y papel que funcionan como aplicaciones paradigmáticas descriptivas de la teoría en la utilización de sus estructuras conceptuales, y con eso, en la mayoría de los casos en los que no hay diseños experimentales, es suficiente. En medicina, esta función de transmisión del conocimiento en sus aspectos más empíricos lo cumplen las historias clínicas. Ellas comunican las características de los ejemplares paradigmáticos. Por lo tanto no es de extrañar que al igual que en otros textos fundacionales, en los escritos hipocráticos figuren más de cuarenta historias clínicas, que describen cuidadosamente enfermedades en pacientes específicos. Hicieron falta más de dos mil años para que los médicos volvieran a realizar, luego de Hipócrates, registros minuciosos de sus pacientes, en esa práctica hoy tan común de la historia clínica en la consulta y en los hospitales. Por eso no deja de ser curioso que cuando hojeamos los textos de medicina, pudiéramos no encontrar historias clínicas. De hecho, en el texto clásico de Cecil que nos sirvió de base para nuestros análisis epistemológicos, casi no existen. 177 ¿No aprenden su teoría de manera práctica los médicos, a través de ejercicios y análisis de casos paradigmáticos de lápiz y papel, como lo hacen los físicos? Pudiera ser, pero la razón de haberse eliminado de los libros de texto consiste en que esa no es una buena manera de aprender: la lectura de historias clínicas, al aprendiz, lo conduce al error. No se aprende medicina –y en general ninguna disciplina científica, al menos que sea puramente teórica - sólo con las lecturas de libros de texto y artículos, aunque existan allí descripciones de casos paradigmáticos. Debe aprender con los sistemas reales, con los pacientes, no con su descripción. Esto es así puesto que es necesario que entrene la percepción, la palpación, la auscultación, el olfato, las formas de interrogar al paciente con los que se recogen signos y síntomas bajo la guía de un maestro –un médico experimentado- que va señalando errores y aciertos hasta que lo percibido puede conceptualizarse correctamente. Es necesario que aprenda que ese silbido al auscultar el pulmón es una sibilancia –propia de la bronquitis- y no un soplo tubárico –propio de las condensaciones pulmonares-. Que hay que levantar de tal manera el dorso del paciente, aplicar los dedos de tal otra, y hacer respirar, ensayando hasta percibir que eso que se desliza bajo los pulpejos es el borde del hígado. Tampoco es posible aprender en la descripción simple la interpretación de las exploraciones complementarias con las que se intenta descifrar las alteraciones anatomo-fisio-patológicas mediante análisis, estudios de imágenes obtenidas mediante radiología, ultrasonografía, tomografía computada, etc. Debe aprender bajo la guía de los expertos a reconocer perceptualmente que esa sombra en el campo pulmonar en una radiografía de tórax es la arteria pulmonar, y no un nódulo, o que ese nódulo en la ultrasonografía de abdomen es la cabeza del páncreas, y no un tumor. Nunca quizás como en el aprendizaje de las teorías médicas se vean con más nitidez los elementos pragmáticos y de experiencia, que hacen a la construcción de una percepción estructurada –una Gestalt- que permita interpretar cuando un conjunto de signos constituye una desviación aceptable de un estándar, o no lo es, y que debe poseer cada médico si pretende aplicar con éxito sus teorías específicas. Una Gestalt que coincide con lo que se ha dado en llamar el ojo clínico, ese que permite discernir entre la casi infinidad de características cualitativas que ofrece el paciente a la percepción, las que son relevantes para una enfermedad determinada, junto con sus relaciones, transformándolas en una estructura que se capta a simple golpe de vista. Pese a las obvias diferencias perceptuales entre una pletórica cantante de ópera, un niño de 6 meses, o un señor delgado de setenta años, el médico retiene de esa diversidad los rasgos estructurales que hacen de todos ellos casos de una neumonía, dejando los otros de lado en su diagnóstico. 178 Esa percepción estructurada es una parte constitutiva del conocimiento científico, de su semántica, que se aprende en la práctica guiada, y no en los textos, y ciertamente, lo es del diagnóstico médico. Síntesis En nuestro periplo teórico mostramos primeramente que –al contrario de algunos autoresel conocimiento médico contiene preguntas y respuestas que no caben dentro del horizonte teórico de la biología, y por lo tanto posee independencia epistémica, aun cuando tome a esta disciplina como presupuesta para construir sus propias teorías. Mostramos cómo la pregunta por la enfermedad da lugar a teorías específicas, que denominamos teorías clínicas, que ofrecen una respuesta de la misma índole que la termodinámica responde a la pregunta por el calor. Inmediatamente nos basamos en la concepción tradicional de la filosofía de la ciencia para mostrar que en las teorías científicas existen dos planos, uno empírico y uno teórico, que en la medicina se identifican con la semiología en cuanto a lo más empírico, y con la anatomo-fisio-patología en cuanto a explicación profunda, teórica, de ese plano empírico. Adujimos que la semiología posee un plano teórico propio que delimita a síndromes e incluso enfermedades puramente semiológicas, lo que lo aleja de lo puramente observacional inmediato de la concepción tradicional. Esa particularidad –que se encuentra en las demás teorías científicas- hizo pensar que la concepción tradicional no refleja adecuadamente la estructura de las teorías. Para la concepción estructural de las teorías, por lo contrario, la distinción no es entre observable y no observable, sino entre no-teórico, si proviene de una teoría distinta a la que se está considerando, y teórico, si es propio de la teoría en cuestión. La primera es una distinción epistemológica, y por lo tanto absoluta: se observan o no se observan los objetos y propiedades de la teoría. La distinción de la concepción estructuralista es funcional, según el rol que jueguen en la teoría. Algo no-teórico en una teoría puede ser teórico en otra. Vimos, en consonancia con esto, que el plano más próximo a la experiencia, el semiológico, es teórico en su propio contexto, y que lo propio de las teorías clínicas consiste en añadirle los objetos y relaciones profundas de la anato-fisio-patología, que es teórica a su respecto. Sin embargo, y contrariando una vez más a la concepción tradicional en su criterio para separar lo observacional de lo teórico, ese plano teórico de la medicina cuando se lo investiga es absolutamente observacional. Presentamos luego otra diferencia entre ambas concepciones, y es que desde el estructuralismo se delimitan no enunciados, sino modelos: no-teóricos, teóricos, y finalmente plenos o completos, según provengan los primeros de la semiología, los segundos cuando a éstos se les unen los elementos y relaciones profundas de la anatomo-fisio-patología, y finalmente, plenos cuando cumplen una ley evolutiva de la enfermedad. 179 En nuestra concepción, una teoría clínica delimita a una enfermedad particular, y está caracterizada por la unión indisoluble de un plano semiológico y un plano profundo, que lo explica, y que es la causa de los signos y síntomas de la enfermedad; y además, por el hecho de que ambos sistemas, ambos planos, evolucionan conjuntamente en un sentido determinado, lo que constituye su ley, eso que permite la predicción del curso de la enfermedad. Expresamos que el diagnóstico médico sigue los pasos que indica la concepción estructuralista, cuando primeramente aísla signos y síntomas de la enfermedad, supone hipotéticamente cuál será la lesión profunda que los provoca, trata de corroborar esta hipótesis con maniobras diagnósticas y también mediante métodos de diagnóstico adicionales, y finalmente constata su evolución, que sigue un curso predeterminado, del cual es parcialmente responsable su propia acción terapéutica. Comenzamos a mostrar una característica adicional de la concepción estructuralista, y es la postulación de aplicaciones –ejemplares- de la teoría, que constituyen la semántica informal del sistema de modelos formales, eso que les da contenido; algo innecesario desde la concepción tradicional, ya que al tratarse de lenguaje, los enunciados observacionales poseen una carga referencial que no es menester explicitar, aunque sea objeto de elucidación por la semántica. Estos ejemplares juegan luego un rol de primera importancia en nuestra caracterización del diagnóstico médico, que presentamos como investigación aplicada de ese conocimiento básico que son las teorías clínicas. Esto es así, pues la identificación de nuevos ejemplares de una teoría –es decir, el encontrar pacientes que padezcan una enfermedad determinada, diagnosticarlos-, tiene que hacerse percibiendo semejanzas entre un paciente actual, y los pacientes que se conoció anteriormente, cuyos signos y síntomas, así como sus lesiones profundas se aprendieron junto al lecho de los pacientes, bajo la guía de un médico experto, que transmite la interpretación correcta de aquello que se percibe al principio como caótico. Se configuró de esta manera en el aprendizaje profesional una Gestalt específica que hace reconocer a la percepción ya entrenada –el ojo clínico- aquello que aqueja al paciente, al menos como hipótesis que tendrá que ser puesta a prueba. Mencionamos asimismo que estas habilidades y conocimientos no pueden adquirirse únicamente con la lectura de textos pertinentes: es necesaria una práctica profesional guiada, con pacientes –ejemplares- que devienen paradigmáticos para el aprendiz. A ellos se parecerán los demás que encuentre en su vida como médico; la experiencia clínica continuada continua perfeccionando el aprendizaje de esa red de semejanzas que enlaza a pacientes cuyos síntomas se parecen siempre, pero que difieren siempre unos de otros. En nuestro periplo teórico hemos hablado de la concepción tradicional de la ciencia, y de su superación por la concepción estructuralista; de teorías clínicas, y su estructura en dos pla- 180 nos –modelos-; de ejemplares paradigmáticos; del diagnóstico como ciencia aplicada, de su estructura y de su práctica. Sin embargo, no quisiera concluir sin algunas reflexiones adicionales, y que tienen que ver con que quizás estemos viendo la terminación de esta forma de entender la medicina. Hemos supuesto que el plano semiológico, la relación física con el paciente son elementos inseparables del conocimiento médico, y por supuesto del diagnóstico. Algunas indicaciones que se han acentuado en los últimos tiempos nos hacen pensar que esta visión clínica, semiológica, de la medicina podría estar viviendo sus últimos momentos. Se trata de lo siguiente. En esta concepción de la medicina, el diagnóstico final se hace identificando a las lesiones profundas de los órganos y tejidos, en una búsqueda orientada por el diagnóstico semiológico. Pero desde hace tiempo, los medios auxiliares de diagnóstico permiten acceder a esas lesiones directamente. Si la tendencia se profundiza, si podemos prescindir de la semiología para diagnosticar, entonces la enfermedad consistirá sólo en esas funciones alteradas del organismo. Pudimos diagnosticar diabetes sin que el paciente presentara síntomas o signos, sólo con el análisis de laboratorio. Ahora llegamos a niveles más sutiles, con las máquinas de diagnóstico por imágenes, laboratorios más minuciosos en sus detecciones, incluso a patrones genéticos que nos muestran enfermedades actuales o futuras sin que haya ninguna manifestación de enfermedad. O si se manifiesta, sólo precisamos que el paciente acuda por molestias que no tiene que describir desde ninguna teoría semiológica, simplemente desde el sentido común, para que la batería de métodos auxiliares del diagnóstico digan de qué se trata. Si fuera así, pasarían a ser métodos directamente diagnósticos, no auxiliares. Quizás cambia ante nuestros ojos la concepción de la enfermedad, y todavía no comenzamos a su análisis epistemológico. Aunque sabemos que si así fuera, este plano profundo tendrá un nuevo plano teórico que lo explique, y que deberemos inquirir. Pero no es esto lo que nos preocupa. Nos preocupa que en estos cambios asienta la actual deshumanización de la medicina, la desvalorización de la profesión, el reemplazo del médico sabio por una batería de pruebas diagnósticas, indicadas mecánicamente y muchas veces innecesariamente por jóvenes aprendices sin experiencia, siempre apurados por el sistema que no admite perder -¿ganar?- el tiempo con los pacientes. Sabemos que la relación humana es imprescindible para que los pacientes se sientan confortados y eventualmente se curen. Sabemos que el médico experto es indispensable para reordenar el caos de datos que se obtienen, para pensar cuando se presenten los casos anómalos, para orientar el diagnóstico, el pronóstico y el tratamiento, y para preparar a las nuevas generaciones en el amor a la profesión, en la tradición que nos viene desde Hipócrates. Sabemos que no hay forma de reemplazarlo por una o muchas máquinas. Esto no lo sabe la máquina administrativa que transforma la salud en una mercancía, y a los pacientes en clientes en los que hay que invertir poco –un objetivo que choca de frente, 181 generando su propia contradicción, con la desvalorización de la práctica clínica, que lleva a un gasto exagerado en producir diagnósticos que un experto podría realizar con una batería mucho menor de datos-. Una práctica médica que requiere tiempo y aprendizaje profundo para realizar sus diagnósticos, cuya estructura epistémica ahora acabamos de efectuar. Bibliografía básica Bernard, Claude (1959) Introducción al estudio de la medicina experimental. El Ateneo. Buenos Aires. Cecil, Russell y Robert Loeb (1953) Textbook of Medicine, W.B Saunders Company, Philadelphia. Kuhn, Thomas (1971) La estructura de las revoluciones científicas, FCE, México. Laín Entralgo P. (1973) Historia universal de la medicina. Salvat. Barcelona. Laín Entralgo, P. (1982) La medicina hipocrática, Alianza Editorial, Madrid. Laudan, Larry(1986) El progreso y sus problemas, Encuentro Ediciones, Madrid. Lakatos, Imre (1974) Historia de la ciencia y sus reconstrucciones racionales, Tecnos, Madrid. (1975) "La falsación y la metodología de los programas de investigación", en: Lakatos, I. y Musgrave, A. (eds.) La crítica y el desarrollo del conocimiento, Grijalbo, Barcelona. Lorenzano, César (1987) La estructura del conocimiento científico, Biblos, Buenos Aires. (1977) “Análisis metodológico de una ciencia empírica: la medicina” en: DIANOIA, IIF-UNAM, México, p. 124 a 137. Moulines, C. Ulises (1982) Exploraciones metacientíficas, Alianza, Madrid. Popper, Karl (1962) La lógica de la investigación científica, Tecnos, Madrid. Sneed, J. D. (1971) The logical structure of mathematical physics, Reidel, Dordrecht. . Suppes, P. (1970) Set-theoretic Structures in Science, Stanford. Stegmüller, W. (1974) “Dinámica de teorías y comprensión lógica”, en Teorema, IV, pp. 513-553 Stegmüller, Wolfgang (1981) La concepción estructuralista de las teorías, Alianza 182 Universidad, Madrid. (1983) Estructura y dinámica de teorías. Barcelona. Ariel. (1974) “Dinámica de teorías y comprensión lógica”, en Teorema, IV, pp. 513-553. Vintró, Eulalia (1972) Hipócrates y la nosología hipocrática, Ariel, España. Wittgenstein, Ludwig (1958) Philosophical investigations. Oxford. Basil Blackwell. 183 14 Thomas S. Kuhn se distingue entre los filósofos de la ciencia por el cuidado con el que señala las deudas intelectuales que guarda con quienes lo antecedieron en los distintos aspectos de sus búsquedas. Honestidad profesional o resabios de una formación científica que exige que en toda investigación deben indicarse los antecedentes del tema que se trata, lo cierto es que en su “Prefacio” a La estructura de las revoluciones científicas nos brinda pistas acerca de quienes influyeron en su trayectoria. Desfilan así los nombres de Jean Piaget –a quien en el “Prólogo” que se traduce en este número casi deja de lado, pero al que recurre ampliamente cuando se refiere a la función de experimentos imaginarios en ciencia (Kuhn 1964), y con quien indudablemente comparte un patrón evolutivo, referido a la ciencia, y no al desarrollo de las estructuras cognitivas como lo hace Piaget–; de Alexander Koyré – quien piensa, como él, que la historia presenta además discontinuidades en su evolución y debe comprenderse en su propio contexto histórico–; de W.V.O. Quine, quien “le presentó los problemas filosóficos relativos a la distinción analítico-sintético”, y con quien polemizará más tarde, así como de B. L. Whorf y su tesis “acerca del efecto del lenguaje sobre la visión del mundo”, un punto central en su propia posición sobre la inconmensurabilidad perceptual. No son 184 los únicos. Pero quizás el más importante sea Ludwik Fleck, a quien menciona explícitamente, expresando que: “por medio de ella [la Society of Fellows de la Universidad de Harvard] pude descubrir la monografía casi desconocida de Ludwik Fleck, Entstehung und Etnwicklung einer wisseenschaflichten Tatsache (Basilea 1935), un ensayo que anticipaba muchas de mis propias ideas. Junto con una observación de otro Junior Fellow , Francis X. Sutton, la obra de Fleck me hizo comprender que esas ideas podían necesitar ser establecidas en una sociología de la comunidad científica. Aunque los lectores descubrieran pocas referencias en el texto a esas obras o conversaciones, estoy en deuda con ellas en muchos más aspectos de los que puedo recordar o evaluar hoy. (Kuhn 1971, pp. 11-12.)” una monografía tragada por la memoria histórica de la epistemología, las ideas de Fleck no pueden fácilmente en el texto de Kuhn. No hay indicios de los puntos en los que pudieran coincidir y en qué lo anticipó. Durante largos años, nadie se interesó por esto –ocupados como estaban los filósofos de la ciencia en las discusiones entre Kuhn, el neopositivismo y la concepción popperiana de la ciencia–. (Agradezco a Pablo Lorenzano su cuidadosa lectura de este escrito y las sugerencias que me hizo. También le agradezco el que me haya hecho llegar la carta de Fleck a Schlick, que me hizo ver bajo una nueva luz las relaciones filosóficas entre el Fleck y el neo-positivismo.) Del libro de Fleck, del que se editaron 640 ejemplares en 1935, se vendieron apenas doscientos; los restantes permanecieron en la bodega del editor y fueron vendidos como papel viejo incluso despuésde que lo citara Kuhn. Con el “Prólogo” a la traducción inglesa del libro de Fleck, Kuhn presenta su obra a los lectores de habla inglesa y da, finalmente, las esperadas indicaciones acerca de cómo influyó en su propia obra. En estas notas introductorias haremos un breve recorrido por estas indicaciones, para pasar a trazar un perfil biográfico e histórico de Fleck –que explica parcialmente el desconocimiento en que cae su obra–. Posteriormente, sintetizaremos sus principales contribuciones a la filosofía de la ciencia, sopesando si las semejanzas entre ambos autores son tan magras como lo presenta Kuhn. 185 Cuando concluyamos nuestra tarea, resultará evidente que sus semejanzas son más profundas de lo sospechado, llegando incluso a impregnar algunos de los últimos aportes teóricos de Kuhn, en donde vuelve a postulaciones netamente fleckianas. Con respecto al propio Kuhn, advertimos, apenas superponemos los elementos de su concepción de la ciencia con la de Fleck, que su noción de paradigma es funcionalmente equivalente a la de estilo de pensamiento –ambas estructuras determinan qué es posible y qué no lo es en un período histórico determinado-, algo que comparte, como hemos visto, con muchos otros autores. Pero también lo es la comunidad científica y el colectivo de pensamiento, pensados como agentes sociales colectivos de la ciencia. Por otra parte, los estilos de pensamiento, aunque persistentes, no permanecen idénticos a sí mismos durante el tiempo de su vigencia: como los paradigmas, evolucionan, se transforman, decaen y finalmente desaparecen. Pasan, como éstos, por una “época de clasicismo, en la que sólo se ven hechos que encajan perfectamente en ella, y otra de complicaciones, en las que comienzan presentarse las excepciones” (Fleck 1983, p. 76), así como los paradigmas durante la ciencia normal pasan de resolver todos los problemas que se le plantean, a que enfrentarse a anomalías que se multiplican, poniéndolo en cuestión. 186 S ECC I Ó N 1 El reconocimiento de Kuhn En su “Prólogo”, Kuhn menciona una serie de puntos en los cuales acuerda con Fleck, y que pareciera demasiado pequeña para alguien que anticipó sus propias ideas. Brevemente, se limita a señalar que la lectura de su obra profundizó su convencimiento de que: i. en la ciencia existe una dimensión social, que no puede ser dejada de lado; ii. en los cambios en la ciencia, tales como las revoluciones científicas, cambian las formas estructuradas de percibir, las Gestalten que sostienen los científicos de un lado y otro de la ruptura. Una consecuencia de esto es que existen dificultades para concebir a los hechos independientemente de los puntos de vista en juego; iii. existen dificultades para transmitir ideas entre los miembros de dos colectivos de pensamiento distintos. Acota que recién en una relectura, captó la diferencia establecida por Fleck entre ciencia de revistas y ciencia de manuales, lo que le lleva a pensar que su propia concepción sobre 187 los libros de texto científicos debe mucho a ésta última; indica que esta distinción debe ser profundizada y utilizada para el análisis de la ciencia. Estos pocos puntos de coincidencias están acompañados por aquellos con los enfáticamente difiere. Todos ellos rondan el concepto de “colectivo de pensamiento” y tiene que ver con la idea de Fleck de que se trata de una mente colectiva, cuya sociología le resulta “repulsiva” a Kuhn. Hace ver que dicha mente funciona con los atributos de una mente individual, ahora predicados de un colectivo. Lo que estima es un enorme error ontológico. Comencemos, pues, con nuestra tarea de exponer la vida y la filosofía de la ciencia de Ludwik Fleck, a fin de aquilatar si aquello que Kuhn tomó de él se limita a estos pocos puntos o si –interesado como estaba por ese entonces en los problemas lingüísticos de la inconmensurabilidad y ya lejos de La estructura de las revoluciones científicas – fue ciego hacia aspectos que ahora nos resultan quizás demasiado evidentes. Nuestra semblanza de la obra de Fleck se limitará a sus aspectos más centrales, aquellos en los cuales pudo abrevar el pensamiento de Kuhn. Analizarlos en toda su riqueza es una tarea que excede nuestro propósito actual, y quizás merecería una posterior ampliación de este escrito. 188 S ECCI Ó N 2 Esbozo biográfico de Fleck Ludwik Fleck nació en la ciudad polaca de Lwów, que pertenecía en esos días al estado multinacional austro–húngaro, el 11 de julio de 1896. Se recibe de médico, interesándose fundamentalmente por la microbiología, la inmunología y la serología, en las que descuella como investigador. Al mismo tiempo que su carrera científica, desarrolla un intenso interés en la historia de la ciencia –fundamentalmente de su propia disciplina– y en la epistemología, comenzando a publicar acerca de estas cuestiones en 1927. Un corto artículo precede a La génesis y el desarrollo de un hecho científico , un texto que implica una crítica rotunda al neopositivismo, más implacable y más completa que la de Popper, escrito al mismo tiempo que este autor publica el suyo, seguido por un importante artículo en 1936 (Fleck 1936). Luego, el silencio, que rompen dos artículos escritos en 1946 y 1947 (Fleck 1946, 1947). Sabemos que su último trabajo –de fecha tan tardía como 1960– fue rechazado por varias revistas internacionales, por considerárselo de poco interés. En realidad, Fleck señala, además de esta literatura, para especialistas particulares la primera y para especialistas generales la segunda, la propia de la iniciación a la ciencia –los libros 189 de texto– y la destinada a los no-especialistas – los libros de ciencia popular–. (Para una biografía intelectual de Fleck, ver, p.e., Schnelle (1982, 1986). Se trata de Fleck (1927), que lee en el Cuarto Encuentro de la Sociedad de Amantes de la Historia de la Medicina de Lwów. Fleck (1960) fue rechazado por Science , American Scientist , New Scientist y The British Journal of Philosophy of 3 Science , y recién publicado en Cohen & Schnelle (1986), pp. 153-161. Entre 1936 y 1946 –años en los que deja de publicar– media la ocupación nazi a Lwów – ocurrida en 1941–, donde residía. Este suceso signa su destino, así como el de su obra epistemológica. Es hacinado, junto con todos los judíos de Lwów –un tercio de la población total de medio millón de personas–, debiendo dejar atrás sus viviendas y pertenencias, en un ghetto con pésimas condiciones sanitarias. La epidemia de tifus que diezma a la población del ghetto es el terreno social en el que Fleck desarrolla una nueva vacuna contra esta enfermedad, tomando como antígenos a sustancias presentes de la orina de los enfermos. 190 Con ella previene la aparición de formas graves de tifus en él mismo, en su familia y en un pequeño grupo de personas cercanas, en las que pudo constatar su eficacia. Cuando los nazis se enteran de la vacuna, preguntan si podría ser activa en alemanes, a lo que Fleck contesta que posiblemente no, ya que pertenecen a otra raza. El episodio hace que sea deportado a un campo de concentración, y puesto a trabajar en un laboratorio de inmunología junto a otros prisioneros, a fin de que la produjera para enviarla al frente. Poco después es trasladado a Auschwitz, y posteriormente a Buchenwald junto con su familia, que permanece con él en todo este periplo. Debe su vida al hecho de ser reconocido por los alemanes como uno de los mejores especialistas en enfermedades infecciosas, y que lo necesitaran para producir suero y vacuna antitifoidea junto a un grupo de investigación integrado por prisioneros como él. Entonces se las arregla para que fabricar un suero inactivo que envía a las tropas alemanas del frente, mientras por otro lado vacuna a todos los prisioneros del campo que pueden con el suero activo que envían para el control de los expertos alemanes. En pleno campo de concentración, tiene ánimos suficientes para producir uno de los análisis epistemológicos más notables y conmovedores, que publica en 1947, y que se refieren a las investigaciones biológicas que son obligados a hacer un grupo de prisioneros (Fleck 1947). De regreso a Polonia continúa sus investigaciones en el campo de la bacteriología y la inmunología, ocupando un lugar en el Presidium de la Academia Polaca de Ciencias, y, posteriormente, en la Dirección del Departamento de Patología Experimental en Ness–Ziona. En 1956 descubre que padece linfosarcoma. Emigra a Israel, donde vive su hijo. Allí ocupa la cátedra de Microbiología de la Escuela de Medicina de la Universidad Hebrea de Jerusalén. Un segundo infarto le causa la muerte, el 5 de julio de 1961, a los 64 años de edad. No sólo su obra epistemológica se pierde en el olvido. Cuando se intenta reconstruir su vida, la Academia de Ciencias de su país natal declara ignorar sus aportes, pese a que había ocupado un lugar prominente en esa institución. Varias circunstancias pesan para que sucediera esto. 191 En primer lugar, la ya comentada invasión alemana a Polonia, y su prisión en campos de concentración, muy poco tiempo después de editar su libro. Aunque recibió reseñas y comentarios en general positivas en revistas principalmente médicas –12 de 19 en total–, y otras en diarios y revistas populares en diversos países europeos, sólo fue comentado por Guérard des Lauriers (1937) en una revista filosófica belga, y por el filósofo polaco Leon Chwistek (1936) – residente como él en Lwów– en una revista de cultura general, Pion . Poco interesó por esos años el texto de un judío a los alemanes, y a los numerosos polacos antisemitas, editado, para colmo, en Suiza, y en alemán, no en polaco. Quienes lo hubieran leído con gusto fueron dispersados, muertos u obligados al exilio por el exilio. Son sorprendentes por lo alejadas que se encuentran del estilo de pensamiento de Fleck, y de sus intereses vitales, las escasas reseñas de autores alemanes, que lo ven ligado al “nuevo estilo de pensamiento alemán” (presuntamente nacional socialista) (Petersen 1936), o sugiriendo que “se tome en consideración la determinación racial del estilo de pensamiento” (Kroh 1936). Por otra parte, aunque parece haber mantenido conexiones estrechas con la comunidad filosófica de Lwów –su obra fue comentada por uno de sus miembros más conspicuos, aunque no en una revista especializada-, ni era primordial ni plenamente un miembro suyo. Quizás lo hubiera sido, de no interrumpir la guerra los lazos que intentaba establecer por esos años, como lo mencionaré más adelante. Era médico –no filósofo-, cuyos escritos fueron mayormente ignorados por la historia de la epistemología incluso por razones sociológicas, y cuyos interlocutores naturales fueron dispersados, muertos u obligados al exilio por el nazismo. No quisiera dejar de mencionar que el sesgo fuertemente sociológico de su concepción de la ciencia no lo hacía fácilmente asimilable por la corriente predominante en filosofía de la ciencia, ni por los estudiosos de esos días. Su desconocimiento llega casi a nuestros días, pese a las citas de Kuhn, a su traducción inglesa –y española– y a la edición de sus artículos filosóficos por parte de Robert Cohen y Thomas Schnelle (1986), en un volumen en que diversos autores analizan su obra y el contexto histórico y filosófico en el que se desarrolla. 192 Queda todavía por delante una vasta labor de exploración de su obra, tan rica en tantos aspectos, y que preludia toda la filosofía de la ciencia contemporánea. Comencemos, pues, a exponer las nociones centrales de la filosofía de la ciencia de Fleck –las de estilo de pensamiento y colectivo de pensamiento –, que se asientan sobre algunas convicciones epistemológicas básicas. 193 S ECC I Ó N 3 Ls concepciones epistemológicas básicas El núcleo central del pensamiento de Fleck –del que se deriva su teoría de la ciencia– lo constituye una teoría del conocimiento, que brevemente puede ser presentada de la siguiente manera. Según Fleck, el error de las teorías tradicionales del conocimiento consiste en tomar como punto de partida a un sujeto que intenta conocer a un objeto , entendidos ambos como invariables, siempre iguales a sí mismos. Por el contrario, sostiene –y en esto se puede percibir un cierto aire kantiano– que los elementos que intervienen en una relación cognitiva no son dos –sujeto y objeto–, sino tres, existiendo un tercer elemento que media entre aquéllos, constituyéndose en su condición de posibilidad. La peculiaridad de su propuesta consiste en afirmar que dicho tercer elemento es el conocimiento anterior . Esto la opone radicalmente a todas las formulaciones anteriores, pues no se trata simplemente de un añadido a los dos polos tradicionales del conocimiento, sino que redunda en 194 la completa transformación del sistema de relaciones, que es imposible leer desde cualquier epistemología de sujeto-objeto. Ya conocemos los efectos que produjo la epistemología kantiana cuando introduce sus formas a priori: el sujeto epistémico puede ser definido por ese tercer elemento y el objeto – su conocimiento– lleva asimismo su impronta. La maniobra hace que la consideración de ambos parezca superflua para la filosofía. En efecto, es posible hablar directamente sólo de estas formas, obviando toda referencia tanto al sujeto como al objeto. Pues bien. En Fleck, este tercer elemento no es a priori –como lo son las formas puras en Kant– ni individual, sino que es histórico y social. Histórico, pues tiene un desarrollo en el tiempo, y social, pues excede a los individuos, e incluso a generaciones de individuos, que no hacen más que recibirlo y transformarlo. Sucede con esta estructura lo mismo que en la epistemología kantiana, aunque difieran sus efectos. Mientras en Kant un tercer elemento a priori, a-histórico, invariable, redunda en un sujeto epistémico asimismo invariable, igual a sí mismo, a-histórico, y en un objeto-de-conocimiento cuyas características centrales permanecen idénticas en el tiempo –productos todos de entender que la ciencia había llegado a su versión definitiva en la mecánica de Newton–, Fleck trastoca esta quietud, transfigurándola en un cambio perpetuo. Si el conocimiento anterior hace a la adquisición del nuevo conocimiento, una vez que éste se adquiere, lo que llamamos “conocimiento anterior” ya es otro. Al cambiar constantemente las condiciones de posibilidad, cambian tanto lo que llamamos sujeto como lo que llamamos objeto. Lo único constante en la epistemología fleckiana es el cambio. Nada permanece quieto. Fleck nos dice que el conocimiento es como la corriente de un río que altera constantemente su lecho y sus márgenes. Destaquemos las distancias que entonces establece con otras epistemologías. Frente al empirismo, dirá que el sujeto nunca se enfrenta directamente al objeto. Entre ambos media un tercer elemento. Frente al kantismo, dirá que este tercer elemento no es a priori, sino histórico y social. 195 Frente al convencionalismo, acepta que el conocimiento –ese tercer elemento que es indispensable para conocer– es una libre creación del intelecto humano. Sin embargo, difiere en que dicha creación no puede ser arbitraria –como lo piensa el convencionalismo–, ya que los márgenes de libertad están acotados por el desarrollo anterior, por la historia social del conocimiento, y el desarrollo mismo por la resistencia que le opone eso que trata de conocer. Por eso elige el camino de una minuciosa reconstrucción histórica y conceptual de la historia de la ciencia. Sólo a través de ella podrá llegar a conocer ese tercer elemento. Al hacerlo, pasa de una teoría del conocimiento común a una filosofía de la ciencia. Fleck no reniega de la importancia de las construcciones lógicas o conceptuales de la ciencia ni de la constataciones objetivas de los hechos, e incluso menciona que sin ellas –sus justificaciones– no sería una ciencia, tareas todas que le ha asignado tradicionalmente la filosofía de la ciencia. Sin embargo, sostiene que, apenas se recurre a la historia de la ciencia, la simple relación lógica entre conceptos, y entre éstos y la demostración, sólo puede provenir de una “epistemología imaginaria”. (“La biología me enseñó a investigar siempre histórica-evolutivamente todo campo en desarrollo. ¿Quién hace hoy anatomía sin embriología? Pues, de la misma forma, toda teoría del conocimiento que no haga investigaciones históricas y comparativas se queda en un juego de palabras, en una epistemología imaginaria”, Fleck (1935), p. 68.) El estudio histórico muestra –de época en época– divergencias notables en cuanto a la naturaleza de los problemas, de las respuestas admisibles, de los métodos de contrastación –de qué sea considerada una prueba–, del significado de los conceptos involucrados, de incluso los puntos relevantes en una argumentación, lo que vuelve imposible la comparación valorativa, salvo que se establezca dogmáticamente la prioridad de los criterios que se sostienen en la actualidad. Esto hace indispensable –en consecuencia–, para comprenderlos adecuadamente, el estudio comparativo de la evolución de los estilos de la ciencia y de la filosofía de la ciencia actuales. Interviene en las discusiones epistemológicas de su época, reprochando primeramente a la que no vacila en calificar de “epistemología especulativa” de que apoye a una ciencia con fuertes elementos metafísicos, que se basa en “ejemplos simbólicos y que sitúa 196 las conexiones lógicas de los objetos por encima de todo” –una crítica que coincide con la que hace el neo-positivismo–. En cuanto a éste, concuerda en que aunque es importante “ocuparse de la legitimación científica, de sus pruebas objetivas y de sus construcciones lógicas”, no cree que éste deba ser el principal objetivo de la epistemología, y le reprocha que no analice ni a la ciencia real ni a su historia, limitándose a los análisis lógicos, cuando la estructura misma de la ciencia no es lógica y su transmisión se hace en base a elementos irracionales –si asimilamos, como lo hace Popper, la racionalidad con la lógica–. (Fleck 1935, p. 69.) Pudieran extenderse estas críticas a la obra de Popper, quien si bien no cree en la necesidad de formalizar mediante la lógica de los Principia Mathematica de Russell y Whitehead a las teorías científicas –como lo pensaba el neopositivismo– toma de la lógica los mecanismos de refutación de hipótesis. (Dice Fleck 1934, p. 83 en una nota a pie de página: “Todavía hoy se enseña una ciencia que lleva a cabo sus investigaciones especulativas apoyada casi completamente en algunos ejemplos simbólicos y sitúa las conexiones lógicas de lo objetos de la investigación por encima de todas las demás conexiones; nos referimos a la epistemología 7 especulativa”.) Al contrario de ambas epistemologías, que ven a la ciencia como un conjunto de leyes e hipótesis sin que se preste mayor atención ni a la manera en que se pueden conjuntar en unidades mayores, ni a su evolución en el tiempo, estudia esas grandes continuidades del pensamiento humano –y del científico en particular– en cuyo seno se genera el cambio, y sólo a cuyo respecto tiene sentido hablar de desarrollo. El conocimiento anterior en el que piensa no consiste en hipótesis, leyes y hechos que pueden ser verificados o refutados mediante aplicación de reglas de inferencia, sino en un complejo objeto epistémico que se encuentra conformado por conceptos, pero no sólo por ellos, al que denomina estilo de pensamiento [ Denkstil ], y que determina lo que puede ser pensado y percibido; condición de posibilidad de toda ley, de todo hecho. Asimismo, y diferenciándose una vez más de la epistemología moderna y de su tiempo, el estilo de pensamiento no es producido por un sujeto individual, sino que es el producto histórico de una capa social diferenciada de investigadores que lo comparten, un agente social colectivo que se extiende a lo largo de generaciones, al que llama colectivo de pensamiento [ Denkkollektiv ]. 197 Fleck insiste en que es extremadamente dificultoso advertirlo, al menos en disciplinas constituidas, cristalizadas desde hace largo tiempo, o en el conocimiento común, pues al encontrarse tan enraizado en los hábitos, es tan omnipresente, tan obvio, que deviene invisible, como los anteojos para quienes los usan o el agua para los peces. Por este motivo elige para su análisis, y para mostrarlo adecuadamente, una disciplina en continuo cambio, la medicina. Y en ella, dedica sus esfuerzos de historiador al nacimiento de una nueva ciencia, la serología , y dentro de ella a la constitución de un nuevo hecho científico, la reacción de Wasserman . Si recapitulamos el núcleo duro de convicciones a partir de los cuales Fleck elabora su epistemología, tendremos el siguiente cuadro: i. no existe la supuesta relación epistémica entre sujeto y objeto: entre ambos, y haciendo posible la relación, existe un tercer elemento, que identifica con el “conocimiento anterior”; ii. dicho conocimiento anterior –el estilo de pensamiento – es producido por una capa social específica, el colectivo de pensamiento ; iii. la única forma de acceder a él es con el estudio cuidadoso de su proceso de consolidación, de su génesis. Advertimos en este tercer elemento que media entre sujeto y objeto de la epistemología tradicional el rasgo que emparienta a todas las epistemologías que sostienen que el conocimiento consiste en estructuras que evolucionan en el tiempo –un kantismo evolutivo, en suma–, y que en Kuhn recibe el nombre de paradigma . Veamos a continuación cómo caracteriza Fleck a los estilos de pensamiento –con su natural contraparte en los paradigmas de Kuhn– así como a los colectivos de pensamiento – funcionalmente equivalentes, a primera vista, a las comunidades científicas–. Cuando Kuhn advierte que el colectivo de pensamiento proporciona a sus miembros “algo así como las categorías kantianas”, no menciona con suficiente claridad que éstas son un tercer elemento de conocimiento anterior, caracterizado, como lo hace Fleck, por factores que no son sólo lingüísticos, y que es estructuralmente equivalente al paradigma. Si lo hiciera, la distancia entre su propio pensamiento y el de Fleck se estrecharía notablemente, como lo veremos a continuación 198 S ECC I Ó N 4 El estilo de pensamiento Ya que excede los límites de esta exposición presentar de manera pormenorizada al “estilo de pensamiento”, no iré en estos momentos más allá de presentarlo brevemente en las propias palabras de Fleck, para mostrar a continuación las semejanzas que presenta con las posiciones de Kuhn. Dice Fleck: “El estilo de pensamiento no es el particular tono de los conceptos ni la peculiar forma de ensamblarlos. Es una coerción determinada de pensamiento y todavía más: la totalidad de la preparación y disponibilidad intelectual orientada a ver y actuar de una forma y no de otra. La dependencia de cualquier hecho científico del estilo de pensamiento es evidente. (Fleck 1983, p. 111.)” Queda claro que es una estructura que radica en el psiquismo de los agentes epistémicos –a la manera de las formas puras kantianas– que hacen percibir a los hechos científicos como tales, una disposición a ver y actuar de una manera específica, la que corresponde a un estilo determinado. 199 Y añade: Queda caracterizado [el estilo de pensamiento] por los rasgos comunes de los problemas que interesan al colectivo de pensamiento, por los juicios que el colectivo considera evidentes y por lo métodos que emplea como medio de conocimiento. El estilo de pensamiento también puede ir acompañado por el estilo técnico y literario del sistema de saber. (Fleck 1983, p. 145.) Nos parece estar leyendo la introducción a La estructura de las revoluciones científicas, cuando Kuhn acota que antes de investigar los científicos ya saben qué entes pueblan el universo, qué preguntas pueden hacérsele, cuál es la índole de las respuestas y cuáles son los métodos con los cuales se las pone a prueba. En cuanto a las “conexiones activas” y las “conexiones pasivas” [aktive und passive Koppelungen] con que Fleck caracteriza a los estilos de pensamiento –sus elementos básicos– y que tanto intrigaron a Kuhn –y motivaron su rechazo–, me limitaré a señalar que por conexiones activas Fleck entiende esas estructuras de pensamiento que se proyectan sobre el mundo para aprehenderlo; incluyendo en ellas, centralmente, a las que construye el investigador con los materiales aprendidos en el entrenamiento profesional, sus nuevas propuestas. Pero si sólo existieran éstas para el estilo de pensamiento, la construcción del conocimiento sería arbitraria, con la única condición de su coherencia interna. Por ese motivo, Fleck introduce las conexiones pasivas. Expresan “nuestra pasividad total frente a una fuerza independiente a la que denominamos ‘existencia’ o ‘realidad’” (Fleck 1935, p. 43), “lo objetivo”, agregando a continuación, por si hubiera dudas: “los resultados obligados equivalen a las conexiones pasivas y responden a lo que se percibe como realidad objetiva” (Fleck 1935, p. 87). Las conexiones pasivas se dan independientemente de los investigadores e indican, con su “señal de resistencia” [Widerstandaviso], que lo propuesto por las conexiones activas no es una pura fantasía, que es conocimiento auténtico, que “eso” sucede, que no es provocado por la actividad del investigador. Su postulación –como vemos– permite evadir el relativismo teórico, en el sentido de pensar que la realidad es moldeada íntegramente por lo teórico. Lo es, pero lo objetivo, lo que 200 resulta del choque al final de un camino que comienza con una construcción en el interior del estilo de pensamiento, es independiente de éste, y es lo que lo transforma en un conocimiento, en un hecho. Por supuesto, Fleck no es tan claro como debiera, ni presenta una formulación precisa. Tampoco lo fue Kuhn cuando expone qué es un paradigma en su texto más conocido, La estructura de las revoluciones científicas, y piensa todavía que no es necesario avanzar en su elucidación formal. Como veremos a continuación, Fleck adelanta en ese mismo texto una solución a esa imprecisión, que coincide una vez más con un intento similar de Kuhn, realizado siete años después de la publicación de la primera edición de La estructura de las revoluciones científicas, en su “Posdata” de 1969. Sucede cuando analiza un libro de texto sobre inmunología escrito en 1910 por un discípulo de Wasserman –el descubridor de la reacción para detectar la sífilis–, para mostrarnos simultáneamente tanto cuáles son los conceptos y la terminología de esta disciplina, como los elementos conceptuales con los que se forja un estilo de pensamiento. El resultado del análisis epistemológico que realiza revela en el escrito la existencia de: i.&reglas metodológicas que indican la manera de discutir y controlar los resultados experimentales; sus resultados cuantitativos, las diluciones del reactivo con los que se los obtuvo, la necesaria comparación con reactivos testigo; ii.& preceptos generales que forman el estilo de pensamiento, y que orientan la investigación al conectarla a una tradición específica, que estipula que la investigación debe ser clínica y de laboratorio, destinada al diagnóstico, y dedicada a buscar antígenos, anticuerpos, complementos, reacciones de aglutinación, etc.; iii.& enseñanzas concretas, narraciones de ejemplos reales en los que se particulariza la red conceptual del campo de estudio, y las condiciones experimentales de su aplicación. Los preceptos generales, dice Fleck, no son verdaderos ni falsos; sirven de impulso a la investigación y son abandonados, no por falsos, sino porque el pensamiento se desarrolla y dejan de ser útiles para los nuevos caminos. 201 Como se observa, el análisis de Fleck puede superponerse casi por entero a la noción de “matriz disciplinar” de Thomas Kuhn –noción con la que éste intenta clarificar lo que entendía por paradigma–. No se fuerza demasiado el parecido si decimos que los preceptos generales tienden a coincidir aproximadamente con las generalizaciones simbólicas de la matriz disciplinar, núcleo permanente, irrefutable, tanto del estilo de pensamiento como de los paradigmas. Observamos que contiene –como las generalizaciones simbólicas– las nociones más básicas de la serología, al hacer referencia a antígenos, anticuerpos, complementos, y que éstas pueden ser vistas como integrantes de sus leyes más generales. Quizás sean más ricas incluso que las generalizaciones simbólicas, pues contienen además elementos tales como la investigación clínica y de laboratorio, la búsqueda de significado diagnóstico, que en Kuhn se encuentran mencionados como esos valores que comparte la comunidad científica cuando investiga. Las enseñanzas concretas constituirían, parcialmente, los ejemplos paradigmáticos –otro de los miembros de la matriz disciplinar kuhniana– a los que se aplica el estilo. En cuanto a las reglas metodológicas, al comienzo de este apartado mencionamos que Kuhn las introduce como uno de los elementos que deben poseer los científicos antes de comenzar sus investigaciones. Después de exponer aquellos aspectos de los estilos de pensamiento que los aproximan estructural y conceptualmente a los paradigmas de Kuhn, veremos a continuación la manera en que Fleck caracteriza a los hechos de la ciencia, a cuya exhaustiva investigación dedica su libro. 202 S ECC I Ó N 5 Los hechos Nos dice Fleck que “en el campo del conocimiento, la señal de resistencia que se opone a la libre arbitrariedad del pensamiento, recibe el nombre de hecho” (Fleck 1935, p. 147). Si pensamos que las creaciones arbitrarias del pensamiento se encuentran primeramente delimitadas por el estilo de pensamiento –nuestras ya conocidas conexiones activas–, entonces pueden expresarse en “relaciones conceptuales” –enunciados–, y la señal de resistencia que encuentran –las relaciones pasivas serían funcionalmente semejantes a lo que acaece en el mundo–. Siendo esto así, no se aleja demasiado de lo que tradicionalmente se llama hecho, como aquello que enuncia un enunciado empírico cuando es verdadero, con lo que se expresa que no basta la simple enunciación, sino que efectivamente debe acaecer aquello que se enuncia. Para ambas concepciones los hechos son esas conexiones pasivas –lo que acaece–, pero no hay hechos sin que al mismo tiempo existan las conexiones activas –lo que lo enuncia–. Pero aquí terminan las coincidencias. En nuestras caracterizaciones anteriores ya dimos una pista sobre las diferencias que separa a una y otra concepción, más allá de que la concepción tradicional pretende aplicarse al conocimiento común, mientras que la de Fleck está primordialmente interesada en el conocimiento científico, en sus hechos, lo cual se manifiesta cuando aquél analiza el proceso de constitución de una ciencia en toda su complejidad. Al hacerlo, constatará que un hecho no se encuentra aislado, que forma un eslabón en la historia de un estilo de pensamiento, es el resultado de su desarrollo. Y que, en consecuencia, es un acontecimiento que se da en el seno del colectivo de pensamiento, que lo acepta como tal, y le otorga la objetividad de su aceptación intersubjetiva. Para los miembros del colectivo de pensamiento, pasa a ser una forma –una Gestalt– directamente experimentable, que cae dentro de la esfera de sus intereses intelectuales. Es verdadero, en consecuen- 203 cia, para todos aquellos que comparten el estilo de pensamiento. Luego comentaremos estas diferencias cruciales. A los efectos de hacer más notoria la diferencia, comparemos un enunciado clásico de un hecho: “La nieve es blanca”, con el ejemplo de Fleck: “Es un hecho que la reacción de Wasserman indica sífilis en el suero del paciente”. La simple enunciación indica la multiplicidad de presupuestos, el enorme trabajo cognoscitivo de generaciones de científicos que marcan a las “conexiones activas” implícitas en el “hecho”. Si los enumeramos –aun someramente- encontramos que existen algunos requisitos previos a la constitución del hecho. Ellos son: i.&la definición de sífilis como enfermedad infecciosa, debida al Treponema pallidum, ii.& el desarrollo de la inmunología como campo de conocimientos legítimo, los que culminan con: iii.& la serie de trabajos que llevan a la aceptación unánime del “hecho”, y que conllevan, junto con su Gestalt y el desarrollo de una multiplicidad de habilidades de laboratorio para producirlo, el encuentro de las “señales de resistencia” de las “conexiones pasivas”, inextrincablemente unidas a las activas, iv.& para finalmente, la constitución de un nuevo campo de estudios, la serología, a partir de este “hecho”. Todos estos mecanismos, que implican dispositivos conceptuales, formas de ver, habilidades prácticas, diseños experimentales íntimamente ligados, son producidos históricamente por la labor incesante de un “colectivo de pensamiento”. Con ellos, encuentra –en las palabras de Fleck– una sólida “señal de resistencia” que produce la “mayor coerción del pensamiento” con “la menor arbitrariedad del pensamiento”, que deviene objetiva por su aceptación intersubjetiva, construyendo así una porción del “suelo firme de los hechos” que constituye la ciencia. Que distintos hechos pertenezcan a un mismo estilo de pensamiento, y que cada hecho nuevo que se integran en el desarrollo común altere –aunque sea levemente– los presupues- 204 tos de los siguientes, va de la mano con la alteración de la visión –retrospectiva– desde ese punto del desarrollo de los hechos anteriormente constituidos. Como resulta obvio, esta red de hechos interconectados configura un “holismo parcial” propio de cada estilo de pensamiento -que llamamos así para oponerlo al holismo global-, que contribuye con su firmeza a crear la sensación de una realidad fija e independiente. Vemos, también, cómo desde un estilo de pensamiento determinado –inmunología– se constituye un hecho –la reacción de Wasserman–, que a su vez da lugar a un nuevo estilo de pensamiento, la serología, en una transformación de un estilo en otro, aunque conservándose y aun expandiéndose el anterior. Una situación que como hemos observado se reitera con otras teorías del cambio biológico, y que responde a lo que –como veremos luego– Kuhn llama “especiación”. La invención del hecho Uno de los aspectos más interesantes de la reconstrucción histórica de la génesis de la reacción de Wasserman que realiza Fleck, consiste en que muestra cómo se aleja del estereotipo metodológico más común –epistemología del “vini, vidi, vinci”, la llama– puesto que en ella se advierte una secuencia con inconsecuencias, errores e incluso con resultados que se fuerzan hasta que son consistentes con las manifestaciones clínicas de la enfermedad, haciéndolos coincidir con su diagnóstico. En un primer trabajo, Wasserman intenta demostrar –sin conseguirlo– la existencia de sustancias específicas de la sífilis en los órganos y en la sangre –antígenos– y sólo secundariamente la presencia de anticuerpos en el suero. En un segundo trabajo, todavía insiste en que se deben buscar antígenos en vez de anticuerpos, ya que las pruebas fueron positivas para los primeros en un 75 % de los casos y sólo en un 15-20 % para los segundos. Recordemos que lo que se conoce como la reacción de Wasserman es una prueba de sensibilización del organismo ante la presencia de infección sifilítica que se realiza con el suero de los pacientes a los que se les sospecha la enfermedad. Con tan magro resultado inicial – ese 15 a 20 %–, difícilmente podría pensarse que por allí discurriría el camino de una prueba clínicamente utilizable para el diagnóstico. 205 Sin embargo, se había comprobado –pensaban– la existencia de anticuerpos específicos de la lúes. Deciden avanzar en esa dirección, alterando la técnica, hasta lograr que los resultados den positivos, principalmente mediante cambios en la cantidad de suero del paciente que empleaban y en las características del reactivo. Hubo que aprender cuáles eran las dosis óptimas, e incluso cómo debían leerse los resultados –qué cantidad de glóbulos rojos destruidos (lisados, en la terminología científica) debían interpretarse como positivos–, tanteando con la vista fija en los datos clínicos, de tal manera que pacientes sanos no aparecieran diagnosticados con sífilis, ni que pacientes obviamente enfermos fueran negativos. Con los cambios que efectúan, la positividad pasa al 70-90 %: se había logrado –inventado– la reacción de Wasserman. Sólo al forzar las técnicas haciéndolas coincidir con los datos clínicos se logró un punto óptimo que no era necesario variar para que se obtuvieran resultados constantes: habían aparecido las conexiones pasivas, luego de tanta actividad. Algún tiempo después se supo que la positividad no era debida a la presencia de antígenos antisifilíticos en el suero; hasta el momento en que Fleck publica su monografía, a casi 30 años del descubrimiento de la reacción, todavía se ignoraba su causa. Wasserman mismo nunca pudo reproducir los espléndidos resultados de su primer escrito en el que comunica el hallazgo de antígenos sifilíticos, 64 positividades de 69 extractos, y 14 pruebas de control negativas, que indicaban otra ruta que la finalmente seguida. Por eso dirá Fleck: “A partir de presuposiciones falsas y experimentos iniciales irreproducibles, surgió un descubrimiento importante después de muchos errores y rodeos” (Fleck 1935, p. 123). Habiendo casi desaparecido la sífilis, resulta necesario recordar que la reacción de Wasserman fue un hito importante en la historia de la ciencia. A veinte años de publicada, en 1927, se le habían dedicado alrededor de 1.500 trabajos en los que se estudiaban su método y su fundamentación. Ocho años más tarde, su número crecía a 10.000. 206 El relato apasionante que realiza Fleck acerca de cómo se constituye un hecho científico resulta de estudiar lo que llamó “la ciencia de revistas”, siguiendo en las revistas especializadas el curso vivo de las investigaciones. En el relato ya cristalizado de “la ciencia de los libros de texto” las contradicciones han desaparecido y el camino se ha reconstruido hasta mostrarse rectilíneo, sin altibajos. En 1921, el propio Wasserman dirá –contrariando a la historia real– que desde el principio buscaba anticuerpos específicos para la sífilis, racionalizando e idealizando los sucesivos hallazgos. Fleck tiende a pensar que cuando se descubre un hecho, y cristaliza cierta estructura, provoca una lectura retrospectiva que le es afín, reestructurando en la subjetividad el camino recorrido. Esto impide que los científicos vean los sucesos como realmente sucedieron. Los pasos de la construcción se han olvidado; más aún, no se los entiende ni se los piensa posibles. Quizás una interpretación alternativa –al menos en algunos casos– sea que parezca tan poco apropiado narrar los sucesos tal como ocurrieron, una vez superados, que optan por una forma expositiva más tradicional, lógica, ortodoxa. En esta interpretación, al igual que en la anterior, permanece la noción de que toda teoría nace inmersa en un mar de contradicciones y de hechos que no explica –anomalías–, como se dirá tres decenios más tarde. 207 S ECC I Ó N 6 La evolución de los estilos de pensamiento Habíamos mencionado que los estilos son formas conceptuales, perceptuales y prácticas, con una alta tendencia a la persistencia, al punto que puede constatarse su existencia a lo largo de extensos períodos históricos. Probablemente uno de los fenómenos que más impactó a Fleck haya sido descubrir esta persistencia de los estilos de pensamiento, al punto que dedica largas páginas a explicarlo. Los argumentos que adelanta son de índole variada: i.&estructurales: la Gestalt hace que no sea perceptible aquello que no coincide con el estilo, no deja ver lo que pueda contradecirlo; en el plano conceptual, lo contradictorio es impensable e inimaginable. Por este motivo, por excluir incorrectamente alternativas que en algún momento se revelan adecuadas, pero que son inadmisibles para el estilo de pensamiento prevalente, todo descubrimiento se encuentra desde su nacimiento mezclado inseparablemente con el error; ii.& sociales: la interacción social refuerza, por convencimiento mutuo, las relaciones que privilegia el estilo de pensamiento. En caso de percibirse la contradicción, se la silencia o se la explica con un reacomodo adhoc del sistema. Llama a esta situación, que es producto de la armonía interna –y fáctica– del estilo, “armonía de las ilusiones” (Fleck 1935, p. 85), como reflejo de su alejamiento de la concepción clásica de verdad. Los estilos, aunque persistentes, no permanecen idénticos a sí mismos durante el tiempo de su vigencia: evolucionan, se transforman, decaen y finalmente desaparecen. Su evolución consiste en un enriquecimiento de sus disposiciones –en un aumento de conexiones activas– y en un constatar las correspondientes conexiones pasivas: en lograr nuevos “hechos” para la ciencia. 208 En su desarrollo pasan por dos etapas: i.&de clasicismo, en la que sólo se encuentran hechos que coinciden con los esperados; ii.& de complicaciones, en que comienzan a encontrarse las excepciones, que en la fase final pueden llegar a superar a los casos regulares. Posiblemente uno de los aportes más originales de Fleck –dentro de la enorme originalidad de su obra– haya sido la solución que plantea al problema de cuáles son los motores que impulsan los cambios en los estilos de pensamiento, eludiendo al inmanentismo. Las tres instancias que propone como causas de la evolución de los estilos son las siguientes: i.&las preideas, nociones no científicas que proceden de mitologías, teorías antiguas o simplemente del saber popular, ii.& la circulación de ideas, iii.& los intereses socio-políticos. Las preideas son nociones no científicas que proceden de mitologías, teorías antiguas o simplemente del saber popular, que enmarcan, dan sustento y guían parcialmente las investigaciones. Los otros dos puntos son lo suficientemente claros para que no insistamos en ellos, aunque merecerían todos ellos un tratamiento más extenso, que excede los límites que nos impusimos en este escrito. En lo que sigue, avanzaremos en nuestra exposición sobre el otro principio básico de la epistemología fleckiana, el colectivo de pensamiento. En rigor, se trata de una separación estrictamente metodológica, puesto que se encuentra inextricablemente unido al de estilo de pensamiento. 209 S ECC I Ó N 7 El colectivo de pensamiento Para Fleck, el colectivo de pensamiento es el portador del estilo de pensamiento, su agente social; el conocimiento vive en el seno de los grupos humanos, donde se reelabora constantemente. Es esta circunstancia, la identificación mutua de estilo y colectivo de pensamiento, como el agente social que lo porta, y simétricamente la de paradigma y comunidad científica, es la que autoriza a la conocida definición “circular, pero no viciosa” de Kuhn: “paradigma es lo que sostiene una comunidad científica, comunidad científica es la que sostiene a un paradigma”. Desde el momento en que consiste en una disposición a ver y a actuar de determinada manera, queda claro que el estilo de pensamiento es una estructura psicológica, que comparten todos los miembros del colectivo. Pero Fleck sostiene algo más. Sostiene que quien piensa es el colectivo, no las personas individuales. Instala así la problemática idea de una mente colectiva, partiendo de una casi observación poco discutible, pero que no autoriza a las conclusiones a que llega posteriormente. De la afirmación de que cuando tiene lugar intercambio entre dos personas –un colectivo de pensamiento momentáneo– se consigue una actitud especial que ninguno de los 210 participantes aislados puede provocar de por sí, no se sigue que en ese momento hacen su aparición unos “elementos específicos y no aditivos de la psiquis de la masa” (Fleck 1980, p. 159), el germen de una mente colectiva. Curiosamente, cree que cuando otorga sustancia –ontologiza– a una psiquis colectiva la maniobra es inofensiva, puesto que –especifica– al mismo tiempo la funcionaliza. Agrega, además, que si es teóricamente útil a sus fines, se encuentra justificada. Ni una ni otra cosa son ciertas. La maniobra no es inofensiva, ya que elimina la noción de individuo, ni es –como veremos– teóricamente útil a sus fines. Resulta claro que si postulamos un colectivo social, nos comprometemos a sostener su existencia –ontológica– y que, como lo muestra acertadamente Fleck, este colectivo tiene características que ninguno de sus miembros puede poseer aisladamente, por ejemplo, la de ser el portador de (todo) el estilo de pensamiento. Pero esto no implica sostener que tiene además los atributos de los individuos. La crítica de Kuhn es totalmente relevante, puesto que basta, para sostener que el estilo de pensamiento reside en todo el colectivo, y no en cada uno de sus miembros individuales, pensar que en cualquier rama del conocimiento éste es tan vasto y la bibliografía tan extensa que no puede ser abarcado por ningún científico individual. Habrá algunos que conozcan cómo cultivar determinadas células, otros que leyeron tal artículo relevante o que posean la habilidad para manejar determinados instrumentos. Es el hecho de que todos ellos comparten un núcleo básico de conocimientos y habilidades –así como de prácticas– lo que permite identificarlos como portadores de un mismo estilo de pensamiento. No es obligatorio, por lo demás, sostener que los colectivos sociales son unidades orgánicas que responden en bloque, merced a una estructura común, una mente común. Para todos los fines teóricos y epistémicos es suficiente pensar el colectivo como un sistema estructurado por las interrelaciones entre sus miembros, sin necesidad de postular una psiquis colectiva ni de disolver al individuo. En este colectivo sus miembros contribuyen con sus propias elaboraciones al desarrollo del estilo de pensamiento, al que se incorporan para formar parte de su mismo cuerpo En cuanto a los fines perseguidos explícitamente por Fleck, la eliminación de los individuos de la epistemología y de la sociología son incompatibles con una visión democrática de la ciencia y la sociedad, que le es tan preciada (Fleck 1960). 211 ¿Pensó esto realmente Fleck o fue una provocación más de las que lanza a una concepción a-social, a-histórica del conocimiento? Probablemente se trate de esto último, ya que cuando narra la historia de la construcción de la reacción de Wasserman, es sumamente cuidadoso, como buen historiador, en mencionar el nombre de quien hizo cada contribución individual al hecho científico. Por otra parte, la eliminación del individuo en la epistemología, no es demasiado consistente con la personalidad de Fleck, de un acendrado individualismo. 212 S ECC I Ó N 8 La inconmensurabilidad Fleck en época muy temprana introduce la noción de inconmensurabilidad que tanto se discutirá más adelante. Nuevamente, lo hace desde su experiencia como investigador, no desde reflexiones puramente teóricas -metafísicas-, y que se refieren tanto a la percepción cuanto al lenguaje. Las Gestalten y las incomensurabilidades perceptivas Fleck comienza haciendo notar que, de acuerdo con un conocido mito empirista, si se quiere conocer algo, es suficiente observar o hacer un experimento y ya se obtiene una respuesta adecuada. A continuación añade que, contrariamente a lo que se sostiene con esta manera de observar directa, ingenua, ver es tener experiencia para ver, es decir, es estar en posesión de un estilo con su peculiar disposición a percibir de manera dirigida y restringida. Encuentra que ningún científico se encuentra en condiciones de ver aquello que debiera constituir su experiencia más inmediata, si no es luego de un intenso período de entrenamiento. Ver es aprender a ver. No existe –dirá– percepción libre de presupuestos. 213 La noción de que la percepción no lo es de elementos aislados, sino de un sistema de elementos interrelacionados –de una estructura–, proviene de la escuela psicológica de la Gestalt. También provienen de ella que las estructuras perceptivas indiquen cuáles son las variaciones admisibles en los elementos y relaciones para que se los perciba formando siempre una misma estructura –y no otra–, así como la idea de que una Gestalt impide ver otras configuraciones presentes en el mismo campo perceptivo. Estas premisas apuntalan el argumento de Fleck de que el estilo de pensamiento indica qué sea posible y qué no, según sea perceptible o no por su Gestalt específica. Pero su constructivismo no se detiene en este punto, identificándose así completamente con la escuela psicológica de la Gestalt. Puesto que las estructuras perceptivas que teoriza son el resultado de un largo proceso histórico y social, y no una percepción organizada a priori, sin historia, como propone esta escuela. Son notables los ejemplos que maneja Fleck para sostener su posición, con la que se distancia por completo de la psicología de la Gestalt. En uno de ellos, nos muestra ilustraciones, láminas pertenecientes a la historia de la anatomía. Observa que, en cada etapa sucesiva de la evolución histórica, se señalaban en ellas –y veían– cosas distintas en las mismas zonas anatómicas. Así, en una lámina del siglo XV, el autor fue incapaz de ver las curvas características de los intestinos en la cavidad, conocidas por cualquier alumno secundario o aun primario de nuestros días, y dibujó cinco hélices que mostraban un “retorcimiento” genérico y no específico. En el tórax, dibujó 17 líneas paralelas, porque vio el “costillar” genérico, y no 12 costillas. En el estudio de los huesos, los autores renacentistas dedican cerca de treinta veces más espacio a los sesamoideos que en nuestros días, en los que casi carecen de importancia. Los veían más que a los músculos cervicales o algunos otros huesos. No se debía a que tuvieran alterada la percepción, en algo tan simple como lo es dibujar –o describir– algo que se tiene ante los ojos. Simplemente cada Gestalt hace ver una de las infinitas relaciones posibles, y oculta las demás. Nuevamente, se ve lo que se sabe que se ve. 214 No hay entre ellas una visión que sea correcta, ajustada a lo que el hombre anatómicamente es. Todo lo que hay son Gestalten en lucha, en oposición. Incluso las láminas anatómicas más actuales –de principios de siglo– se encuentran marcadas por el estilo. Fleck hace notar cómo la caja torácica se dibuja semejando una máquina, acorde con el estilo mecánico de una época cuyo símbolo es la Torre Eiffel, así como antes era un costillar genérico, en el que no importaban el número ni las relaciones mutuas con estrictez. Cuando se recurre a la disección de cadáveres para aprender su anatomía, la mirada siempre precisa volverse hacia lo que conoce para reconocer los elementos, ya que ellos no resaltan naturalmente; en cierto sentido, necesitan “fabricarse”. Si intentamos ver las detalladas descripciones de la anatomía actual, lo hacemos forzando el preparado anatómico, introduciendo marcas donde se sabe que deben estar, y no siguiendo lo que aparece a primera vista. Nuevamente reconocemos en estas Gestalten los cambios perceptivos que describe Thomas Kuhn, cuando sostiene que mientras un aristotélico ve en una piedra que oscila en un extremo de una cuerda a un cuerpo al que se le impide llegar a su lugar natural, un galileano ve un péndulo. Los cambios de estilos, al igual que los cambios de paradigma, dan lugar a cambios de Gestalt, y, como lo sostiene Kuhn, a inconmensurabilidades perceptivas. La inconmensurabilidad conceptual Los fenómenos de incomunicación –parcial– entre quienes sostienen dos paradigmas es uno de los temas a cuya elucidación Kuhn dedica un enorme esfuerzo en todo el último período de su vida, convencido de que en ellos reside gran parte de lo más característico de la evolución de la ciencia. Refleja su propia experiencia como historiador y las dificultades que encuentra para comprender los escritos de otros tiempos desde su actual conocimiento de la ciencia. Nos muestra que existe en las teorías anteriores al menos un pequeño grupo de conceptos que se aprenden en conjunto y que no pueden verterse en el lenguaje de las teorías actuales. Quien estudia la ciencia de un período histórico dado debe renunciar a leerlo en la jerga que ya posee. Si pretende conocer de lo que habla, debe aprender a usar el nuevo vocabulario, el nuevo lenguaje, tal como se lo usaba anteriormente. 215 Esta vivencia lo marcó para siempre. Nunca renunció a pensar que la inconmensurabilidad es una característica importante del conocimiento científico, pese a la enorme resistencia que provocó al afirmarlo, y dedicó largos años a su elucidación. Nunca cita a Fleck cuando expone sus puntos de vista al respecto. Sin embargo, tuvo que saber que este autor, refiriéndose a la comparación entre concepciones científicas anteriores, dice que “sus palabras no pueden traducirse, y los conceptos no tienen nada que ver con los nuestros” (Fleck 1935, p. 104), así como también que para Fleck la insalvable, inevitable distorsión que se provoca en el proceso de la comunicación humana, es una parte constitutiva de la misma. Para Fleck, los deslices de significado entre hablantes son una fuente de riqueza comunicativa y, en lo que atañe a la circulación de las ideas en un colectivo científico, son la condición de cambio y desarrollo –por cierto, de una manera que no ilustra con demasiado cuidado cuando narra la construcción histórica de los conceptos centrales de la sífilis y de la reacción de Wasserman–. Señalemos, sin embargo, una distinción entre ambos autores. A lo largo de toda su trayectoria, la inconmensurabilidad entre términos de una teoría y otra es para Kuhn un obstáculo que se salva, no traduciéndolos, sino aprendiéndolos, tal como lo se lo haría con los que utiliza un científico del pasado. Para Fleck, no hay aprendizaje posible, ni deseable. Pensarlo, supondría que existe una matriz de pensamiento fija a la que se podría acceder sin equívocos. Simplemente constata que los intentos de comprensión inevitablemente comprometen desfasajes que llevan por nuevos caminos que enriquecen el estilo de pensamiento. 216 S ECC I Ó N 9 El colectivo de pensamiento de Fleck Uno de los aspectos más intrigantes de la vida de Fleck lo constituye la imposibilidad de reconstruir los componentes históricos de su estilo de pensamiento, la trama social y teórica en la que desarrolla su concepción de la ciencia, más allá de los nombres que cita en sus escritos. Puesto que toda su biblioteca, sus papeles personales, se perdieron en los tiempos de la invasión nazi y la guerra, con quién dialoga, y quiénes son sus aliados y adversarios, los lazos que lo unen o lo separan de los miembros de la comunidad epistemológica, no pueden ser sino objeto de conjeturas, muchas veces incomprobables. Quienes quieran conocer exhaustivamente a quienes cita, y a quienes conoció, pueden consultar, entre otras, las monografías de Schnelle “Microbiology and Philosophy of Science” (Schäfer & Schnelle 1980, pp. 3-36), y “Ludwik Fleck and the Influence of the Philosophy of Lwów” (Schäfer & Schnelle 1980, pp. 211-265). Me voy a referir a una conexión impensada por Schäfer y Schnelle, quienes lo presentan como un adversario del neo-positivismo, alguien que escribe “contra la concepción de la ciencia del Círculo de Viena” (“Introducción” a Fleck 1982, p. 9). 217 Resulta curioso verlo de esta manera cuando es difícil encontrar esta posición en su obra, más allá de un interesante pie de página que admite una lectura no necesariamente negativa, en el que se refiere al Aufbau de Carnap, como “quizás el último intento serio de construir el mundo desde lo dado” y comenta su posterior rechazo al “carácter absoluto de los enunciados protocolares”, deseándole que pueda llegar a “descubrir la condicionalidad social del pensar” (Fleck 1935, p. 138, n. 3). La enemistad que se le atribuye es poco probable si tomamos en cuenta que le envió en 1933 el manuscrito de su libro a Moritz Schlick, y que éste –como surge de su correspondencia– lo ofreció a la editorial Springer para que se publicara dentro de la colección Escritos sobre la concepción científica del mundo, editada por él y por Philipp Frank. Lamentablemente, la editorial lo rechazó (Stadler 1997, p. 60, n. 54); de lo contrario –en una muestra de la amplitud de intereses de los miembros del Círculo de Viena–, hubiera compartido el catálogo de la colección neo-positivista con La lógica de la investigación científica de Karl Popper. Existe además una carta del propio Fleck a Schlick del 5/09/33 (Círculo de Viena, Archivo Haarlem) que si bien marca su posición teórica criticando aspectos desarrollados hasta allí por la filosofía de la ciencia, no provoca en Schlick ningún rechazo. Para quienes crean todavía en el mito del desprecio de los aspectos sociales e históricos de la ciencia por parte del neo-positivismo, debe resultar sorprendente la aprobación del manuscrito de Fleck por parte de Schlick, así como muchos años después las cartas sumamente elogiosas de Carnap a la obra de Kuhn. Olvidan que ya en el primer número de Erkenntnis, la publicación periódica del Círculo de Viena, Otto Neurath expresa, de una manera muy próxima a Fleck, que: “Nuestro pensamiento es una herramienta, depende de relaciones sociales e históricas. No se debería nunca olvidar esto” (Neurath 1930/31, p. 123). También es necesario recordar que tanto su comentarista, Leon Chwistek, de quien era amigo Fleck, como Kazimierz Ajdukiewickz –partidario de un convencionalismo radical–, a quien Fleck dedica su artículo “Scientific Observation and Perception in General” junto con su maestro Kazimierz Twardowski, eran miembros de la escuela Lwów-Varsovia de filosofía, estrechamente relacionada con el Círculo de Viena. 218 No es de extrañar, entonces, que Hans Reichenbach, emigrado en 1933 en Estambul, cite el trabajo de Fleck ya en 1938 (en Experience and Prediction), donde lo encontró años después Thomas S. Kuhn. Quienes pudieron ser parte de su colectivo de pensamiento –los filósofos del Círculo de Viena– fueron barridos por los vientos de la historia, como el propio Fleck; muerto Schlick, alejados de Europa los demás miembros, pierde contacto en la posguerra con la comunidad filosófica en la que encontró a sus interlocutores más legítimos, aun disintiendo con ellos en diversos aspectos. Cabe agregar que la obra de Fleck, en su traducción al inglés, fue editada por la editorial que publicaba la colección neo-positivista de la Enciclopedia de la Ciencia Unificada, cumpliéndose impensadamente el pedido de Schlick. Existe una probable influencia no mencionada anteriormente, y que proviene no de la filosofía de la ciencia, sino de la del arte. Hace más de veinte años (Lorenzano 1982), antes de conocer la obra de Fleck, constaté que la teoría de la historia del arte de Heinrich Wölfflin y la concepción de la historia de la ciencia de Thomas S. Kuhn poseían parecidos tan acentuados, que era posible pensar que pertenecían a una misma familia de teorías. Brevemente, Wölfflin sostiene que aquello que debe estudiarse en la historia no son tanto a los artistas y sus obras, sino la evolución en el tiempo de una manera de ver y hacer arte –al que denomina estilo– que marcan aquello que es posible y que no lo es durante largos períodos históricos, que decae y es reemplazado por otro estilo diferente, con una Gestalt distinta –que llama “óptica”–. No es el momento de marcar todas sus semejanzas; con lo expuesto se vislumbra por dónde transcurren, si cambiamos la palabra estilo por paradigma. Wölfflin escribe su obra en 1915, y es desconocido por Kuhn, que sí leyó Fleck. En cuanto a este último, también vislumbramos que su estilo de pensamiento posee algunas semejanzas con los estilos de Wölfflin, quizás las mismas que encontramos en la concepción de Kuhn. No sabemos si Fleck leyó a Wölfflin. Sí sabemos que su padre poseía una galería de arte, y que posiblemente tuviera acceso a la literatura sobre teoría e historia del arte. Si esto fuera así, el colectivo de pensamiento de Fleck comienza en los albores del siglo XX, y se prolonga hasta nuestros días. 219 S ECC I Ó N 10 Desarrollos fleckianos tardíos de Kuhn No es nuestra intención seguir de manera pormenorizada las evoluciones de Thomas Kuhn, ni los vaivenes que sigue con respecto al pensamiento de Ludwik Fleck. Posiblemente un primer alejamiento tenga que ver con su decepción con las herramientas sociológicas a la hora de identificar a paradigmas específicos –derivable de la definición, “circular, pero no viciosa”, de paradigma y de comunidad científica–, y por lo tanto de dotar claridad desde allí a esa controvertida noción –y en un principio demasiado vaga–. Constatamos simplemente que desde ese momento –el de las primeras dificultades en dar nitidez sociológica a las comunidades kuhnianas de la ciencia– es 220 cuando comienza a avanzar en la elucidación de la estructura de los paradigmas (Kuhn 1969), y a aceptar como una interpretación válida de su propuesta a la elucidación de ella realizada por la concepción estructuralista de Sneed y Stegmüller (Kuhn 1976) mediante la utilización de instrumentos formales, y a los programas semánticos de análisis de la ciencia en general (Kuhn 1992). También puntualizaremos que desde al menos los años 80 deja de hablar de la inconmensurabilidad perceptual, dedicado, como estaba, a la elucidación de la inconmensurabilidad conceptual. Sin embargo, en uno de sus últimos artículos, sin discutir ni mencionar a Fleck, Kuhn (1993) retoma dos temas fleckianos. El primero de ellos, cuando sorpresivamente introduce la noción de “especiación” para describir la transformación de una teoría en otra, sin que se abandone por completo el aparato conceptual de la primera y sin romper tajantemente con ella. Alejado del esquema revolucionario de cambio teórico que preconiza anteriormente, y más apegado a la evolución de las especies en biología, se aproxima sin decirlo a la concepción de los estilos de pensamiento de Fleck, que es fuertemente evolucionista. Como bien lo explica el propio Kuhn, el modelo del cambio que tiene ante sí cuando escribe su libro es el del cambio social por revoluciones, una creencia que más tarde –debido a la constatación del fracaso de las revoluciones a la hora de cambiar el mundo– se pierde casi por completo. No es de extrañar que deba orientar su interés hacia otros esquemas de cambio, y reencuentre entonces no a la socialdemocracia –como se dijo–, sino a Fleck y a la evolución en biología. El otro tópico que reintroduce en apenas unas líneas del mismo artículo, es cuando menciona los deslices de significado en la comunicación entre los miembros de la comunidad científica como factor de cambio y desarrollo de la ciencia. Como habíamos mencionado, uno de los temas centrales de Fleck. Creemos que estos resquicios, abiertos por fuera de toda intención de reconocimiento, y hacia el final de su carrera, es por donde podemos vislumbrar el peso que la obra 221 de Fleck tuvo en la suya, y de la que hemos dado apenas una muestra. S ECC I Ó N 11 Síntesis y bibliografía Kuhn menciona en el “Prólogo” aquello que debe a la obra de Fleck. No obstante, el reconocimiento es demasiado recortado. A través de nuestro breve análisis de la obra de Fleck, encontramos que la mayoría de sus grandes tópicos centrales tienen una fuerte correspondencia con los de Thomas Kuhn. Mencionemos entre ellos: i.&su kantismo evolutivo; ii.& la noción de que la filosofía de la ciencia debe fundamentarse en la historia de la ciencia; iii.& las semejanzas entre estilos de pensamiento y paradigmas, así como entre colectivos de pensamiento y comunidad científica, y que abarca desde los elementos que los integran hasta sus formas evolutivas; iv.& su redefinición de los hechos de la ciencia, como artefactos complejos que no pueden comprenderse por fuera de los estilos de pensamiento o los paradigmas; v.&las Gestalten propias de estilos y paradigmas, así como la inconmensurabilidad perceptual que implican; vi.& las dificultades de la comunicación entre estilos y paradigmas diferentes, y la resultante inconmensurabilidad conceptual. Encontramos, además, rastros de la concepción de Fleck en desarrollos kuhnianos posteriores a La estructura de las revoluciones científicas, entre ellos: i.&la semejanza en el análisis de un estilo y la de las “matrices disciplinarias”; ii.& la noción de especiación como cambio entre paradigmas diferente a los cortes revolucionarios; 222 iii.& los deslices de significado en la comunicación como factor de cambio. La distancia que Kuhn toma con respecto a la “mente colectiva” de Fleck es correcta. Sin embargo, no desautoriza a la noción de “colectivo de pensamiento”, que puede ser reformulada en términos que alejen su ontologización, y devuelvan su rol a los individuos, los únicos que poseen una psiquis, en la que reside, parcialmente, el estilo de pensamiento –el paradigma– y que, en conjunto, poseen la totalidad del conocimiento del campo en cuestión. Demasiado próximo a su propio pensamiento, a Kuhn le fue demasiado arduo separar sus convicciones de las de Fleck. Como bien lo expresa, no está seguro de que haya tomado de Fleck más de lo que menciona, aunque “obviamente pudo e indudablemente debió haberlo hecho”. A nosotros, sus sucesores –ya sin esa mezcla de descubrimientos propios, lecturas corroboratorias y pistas para desarrollar que sin duda caracterizaron la relación de Kuhn con Fleck–, nos corresponde esa tarea. Que es, al mismo tiempo, como Kuhn lo quiso siempre que difunde su obra, un homenaje y un reconocimiento a Fleck, quien anticipó muchas de las ideas que hoy son moneda corriente en las más diversas concepciones epistemológicas, puesto que abreva en ella no sólo Thomas S. Kuhn. Reconocemos sus huellas en una extensa serie de filósofos y científicos que piensan, como él, que lo específico de la ciencia es la existencia de determinadas estructuras de pensamiento que se desarrollan en el tiempo. Programas de investigación en Imre Lakatos (1975), tradiciones de investigación en Larry Laudan (1977), habitus en Pierre Bourdieu (1980) son algunos de los nombres que adoptan estas estructuras epistémicas en diversos autores, y que guardan un amplio parecido estructural y conceptual con los estilos de pensamiento de Fleck. Tampoco son ajenas a la influencia de este autor las diversas tendencias en sociología e historia de la ciencia que aparecieron desde entonces. Por él, en cierto sentido, todos los filósofos de la ciencia contemporáneos, todos los que estudian los aspectos históricos, sociales y formales de la ciencia, somos –parafraseando a los estudiantes franceses que protestaban por la expulsión de su líder Cohn-Bendit en 1968– judíos polacos. Sin embargo, no todos –y quizás muy pocos, si acaso alguno– lo reconocen como su legítimo ancestro. 223 Bibliografía básica Bourdieu, P. (1980), Le sens practique, Paris: Editions de Minuit. Versión castellana: El sentido práctico, Madrid: Taurus, 1991. Cohen, R. y T. Schnelle (eds.) (1986), Cognition and Fact: Materials on Ludwik Fleck, Dordrecht: Reidel. Chwistek, L. (1936), “Ciekawa ksiazka” [Un libro interesante. Reseña de Fleck 1935], Pion (15/8/1936). Fleck, L. (1935), Entstehung und Entwicklung einer wissenschaftlichen Tatsache. Einfuhrung in die Lehre vom Denskstil und Denkkollektiv, Basel: Benno Schwabe & Co. Versión inglesa: The Genesis and Development of a Scientific Fact, Chicago: University of Chicago Press, 1979. Versión castellana: La génesis y el desarrollo de un hecho científico, Madrid: Alianza, 1986. Fleck, L. (1946), “Problems of the Science of Science”, en Cohen & Schnelle (1986), pp. 113-128. Fleck, L. (1960), “Crisis in Science”, en Cohen & Schnelle (1986), pp. 129-152. Guérard des Lauriers, M.L. (1937), “Bulletin de Philosophie. IV Philosophie des Sciences. I Philosophie de la Nature”, Revue des Sciences Philosophiques et Théologiques 26, 320-321. Harwood, J. (1986), “Ludwick Fleck and the Sociology of Knowledge”, Social Studies of Science vol. 16, 173-187. Kroh, O. (1936), “Ludwik Fleck, Entstehung und Entwicklung einer wissenschaftlichen Tatsache. Einfuhrung in die Lehre vom Denskstil und Denkkollektiv. Basel, Benno Schwabe & Co., 1935. 150 S. mit mehreren Abb. im Text. RM. 6,40”, Zeitschrift für Psycologie und Physiologie der Sinnesorgane. I. Abteilung. Zeitschrift für Psychologie 138, 163-164. Kuhn, T.S. (1962), The Structure of Scientific Revolutions, Chicago University Press, Chicago, 2ª edición 1970. Versión castellana: La estructura de las revoluciones científicas, México: Fondo de Cultura Económica, 1971. 224 Kuhn, T.S. (1964), “A Function for Thought Experiments”, en L’aventure de la science, Mélanges Alexandre Koyré, Paris: Hermann, pp. 307-334. Reimpreso en Kuhn, T.S. (1977), The Essential Tension. Selected Studies in Scientific Tradition and Change, Chicago: University of Chicago Press, 240-265. Versión castellana: “La función de los experimentos imaginarios”, en Kuhn, T.S., La tensión esencial. Estudios selectos sobre la tradición y el cambio en el ámbito de la ciencia, México: Fondo de Cultura Económica, 1982, pp. 263-289. Kuhn, T.S. (1969), “Postscript 1969”, en Kuhn (1962), pp. 174-210. Versión castellana: “Posdata”, en Kuhn (1971), pp. 268-319. Kuhn, T.S. (1976), “Theory Change as Structure-Change: Comments on the Sneed Formalism”, Erkenntnis 10, pp. 56-90. Versión castellana: “El cambio de teoría como cambio de estructura: comentarios sobre el formalismo de Sneed”, Teorema 7 (1977): 141-165. Kuhn, T.S. (1979), “Foreword”, en Fleck, L., Genesis and Development of a Scientific Fact, Chicago: University of Chicago Press. Kuhn, T.S. (1993), “Afterwords”, en Horwich, P. (ed.) (1993), World Changes: Thomas Kuhn and the Nature of Science, Cambridge, Mass.: MIT Press, pp. 311-341. Lakatos, I. (1970), “Falsification and the Methodology of Scientific Research Programmes”, en Lakatos, I. y A. Musgrave (eds.), Criticism and the Growth of Knowledge, Cambridge: Cambridge University Press, pp. 91-195. Versión castellana: “Falsación y la metodología de los programas de investigación”, en Lakatos, I. y A. Musgrave (eds.) (1975), La crítica y el desarrollo del conocimiento, Barcelona: Grijalbo, pp. 203-343. Laudan, L. (1977), Progress and Its Problems, Berkeley: University of California Press. Versión castellana: El progreso y sus problemas, Madrid: Ediciones Encuentro, 1986. Lorenzano, C. (2002), “Una reconstrucción estructural de la bioquímica”, en Díez, J.A. y P. Lorenzano (eds.) (2002), Desarrollos actuales de la metateoría estructuralista, Quilmes: Universidad Nacional de Quilmes-Universitat Rovira i Virgili-Universidad Autónoma de Zacatecas, pp. 209-231. Lorenzano, C. (1982), “Historia del arte, historia de la ciencia”. Ponencia en el Coloquio Nacional sobre Enseñanza del Arte, México D.F. (por publicarse). Moulines, C.U. (1982), Exploraciones metacientíficas. Madrid: Alianza Universidad. 225 Murchison, C. (ed.) (1930), Psychologies in 1930, Worcester, MA: Clark University Press. Versión castellana de los capítulos 8-10: Köhler, W., Koffka, L. y F. Sander (1973), Psicología de la forma, Buenos Aires: Paidós. Neurath, O. (1930/31), “Wege der wissenschaftlichen Auffassung”, Erkenntnis 1, 106-125. Petersen, H. (1936), “Ludwik Flecks Lehre vom Denkstil und dem Denkkollektiv”, Klinische Wochenschrift 15, 239-242. Piaget, J. (1937), La construction du réel chez l’infant, Neuchâtel: Delachaux & Niestlé. Versión castellana: La construcción de lo real en el niño, Buenos Aires: Nueva Visión, 1976. Popper, K. (1934), Logik der Forschung, Wien: Julius Springer Verlag. Versión española: La lógica de la investigación científica, Madrid: Tecnos, 1962. Rivadulla, A. (1987), “La irrupción de la orientación histórico-sociológica en epistemología”, Arbor 502, 31-63. Rivadulla, A. (1990), “Ludwik Fleck’s Almost Unnoticed Foundation of Sociological Epistemology in the Thirties”, Explorations in Knowledge VII, 19-28. Schäfer, L. (1977), “Theorien-dynamische Nachlieferungen. Anmerkungen zu Kuhn – Sneed – Stegmüller”, Zeitschrift für philosophische Forschung 31, 19-42. Schnelle, T. (1981), “Review of Genesis and Development of a Scientific Fact, by Ludwik Fleck, ed. by Thaddeus J. Trenn and Robert K. Merton, trans. by F. Bradley and T.J. Trenn. Foreword by Thomas S. Kuhn (Chicago and London: The University of Chicago Press, 1979)”, Theory and Society 10, 733-737. Schnelle, T. (1982), Ludwik Fleck – Leben und Denken. Zur Entstehung und Entwicklung des soziologischen Denkstils in der Wissenschaftsphilosohie, Freiburg: Hochschulverlag. Schnelle, T. (1986), “Microbiology and Philosophy of Science, Lwów and the German Holocaust: Stations of a Life–Ludwik Fleck 1896–1961”, en Cohen & Schnelle (1986). Stadler, F. (1997), Studien zum Wiener Kreis. Ursprung, Entwicklung und Wirkung des Logischen Empirismus im Kontext, Frankfurt am Main: Suhrkamp. Stock, W.G. (1980), “Die Bedeutung Ludwik Flecks für die Theorie der Wissenschaftsgeschichte”, Grazer philosophische Studien 10, 105-118. 226 Wittich, D. (1978), “Eine aufschlureiche Quelle für das Verständnis der gesellschaftlichen Rolle des Denkens von Thomas S. Kuhn”, Deutsche Zeitschrift für Philosophie 26, 105-113. Wölfflin, H. (1915), Kunstgeschichtliche Grundbegriffe, München: F. Bruckmann A.-G. Versión española: Conceptos fundamentales en la historia del arte, Madrid: Espasa-Calpe, 1979. Listado de los escritos filosóficos de Ludwik Fleck (1927), “O niektórych swoistych cechach myslenia lekarskiego”, Archiwum Hisorji i Filozofji Medycyny oraz Historji Nauk Przyrodniczch 6, 55-64. Versión inglesa: “Some Specific Features of the Medical Way of Thinking”, en Cohen & Schnelle (1986), pp. 39-47. (1929), “Zur Krise der Wirklichkeit”, Die Naturwissenschaften 17, 425-430. Versión inglesa: “On the Crisis of Reality”, en Cohen & Schnelle (1986), pp. 47-58. (1935), Entstehung und Entwicklung einer wissenschaftlichen Tatsache. Einfuhrung in die Lehre vom Denskstil und Denkkollektiv, Basel: Benno Schwabe & Co. Versión inglesa: The Genesis and Development of a Scientific Fact, Chicago: University of Chicago Press, 1979. Versión castellana: La génesis y el desarrollo de un hecho científico, Madrid: Alianza, 1986. (1935b), “Zur Frage der Grundlagen der medizinischen Erkenntnis”, Klinische Wochenschrift 14, 1255-1259. (1935c), “O obserwacji naukowej i posterzeganiu wogóle”, Przeglad Filozoficzny 38, 57-78. Versión inglesa: “Scientific Observation and Perception in General”, en Cohen & Schnelle (1986), pp. 59-78. (1936), “Zagadnienie teorii poz poznawania”, Przeglad Filozoficzny 39, 3-37. Versión inglesa: “The Problem of Epistemology”, en Cohen & Schnelle (1986), pp. 79-112. (1946), “Problemy naukoznawstwa”, Zycie Nauki I, 332-336. Versión inglesa: “Problems of the Science of Science”, en Cohen & Schnelle (1986), pp. 113-128. 227 (1947), “Patrzec, widziec, wedziec”, Problemy 2, 74-84. Versión inglesa: “To Look, To See, To Know”, en Cohen & Schnelle (1986), pp. 129-152. (1960), “Crisis in Science. Toward a Free and More Human Science”, no publicada. Recién editada en Cohen & Schnelle (1986), pp. 153-159. 228 15 Addenda metodológica Filosofía de la ciencia o metodología estadística Desde hace algunos años, se prefiere emplear el término “Metodología de la Investigación”, que hemos usado como sinónimo de filosofía de la ciencia, o de epistemología para referirse a, centralmente, la metodología estadística. y a una planificación de la investigación por objetivos. Se llega al límite de cuestionar la denominación que aquí utilizamos, o que debiéramos pensar que sus contenidos son estadísticos. Pocos se detienen a pensar que Popper llamó Metodología de la Investigación al Seminario que comenzó a dictar en la London School of Economics apenas se instaló en Londres en 1947, dedicado a la filosofía de la ciencia. O que Mario Bunge llamara en 1960 “La ciencia, su método y su filosofía” a uno de sus libros más difundidos, entendiendo, una vez más, método como filosofía de la ciencia, algo que se repite años más tarde en “La investigación científica” (1967 primera edición en inglés, 1975 Siglo XXI en castellano). 229 Es necesario aclarar que las herramientas estadísticas se utilizan en la filosofía de la ciencia para corroborar o refutar un determinado enunciado básico, derivado de una teoría científica establecida. Alrededor de 1809, Karl Gauss, él mismo astrónomo, constató que los astrónomos diferían en la posición delos cuerpos celestes -toda observación tiene un margen de inexactitud, como bien lo saben las mamás que nunca obtienen la misma altura de su hijo en la puerta si la repiten reiteradamente en el mismo momento- su solución consistió en emplear esos datos como base estadística, y aceptar como correcto la media de una curva de Gauss. De allí en adelante, el método cuyas bases sentó Gauss se extiende a un sinnúmero de experiencias de investigación, en un claro ejemplo del contexto de justificación de la filosofía de la ciencia. Quien quiera hacerlo, verá en la hipótesis cero estadística un ejemplo del método hipotético deductivo de Karl Popper y Claude Bernard, cuando establecen que es constitutivo del método la refutación de contrahipótesis, la búsqueda de casos que podrían refutarla, pero no lo hacen, al contrario del inductivismo que busca apoyo en los casos . En cuanto a presentar los pasos de una investigación como objetivos a lograr, se trata simplemente del reemplazo de los términos utilizados por la filosofía de la ciencia por otros de la jerga pragmatista, sin que aporten alguna novedad al esquema metodológico, que permanece estructuralmente idéntico. Para comprender el método científico, es indispensable conocer la filosofía de la ciencia en la que se apoya. A continuación, sintetizaremos los pasos de la justificación de hipótesis en sus distintas versiones, en paralelo con los pasos metodológicos que autoriza. 230 Método hipotético deductivo liberalizado 231 Al aparecer la concepción de Kuhn, resulta evidente que las hipótesis se dan en el marco de una teoría aceptada, y que esta circunstancia debe señalarse, y que no resultan de una intuición libre, sino del conocimiento de esa teoría y de sus diversas aplicaciones exitosas, así como del profundo conocimiento de la producción de la comunidad científica en ese campo, y/o en otros similares. Esto necesariamente se reflejará en ambos esquemas, que dan cuenta, más ajustadamente, del proceder de los científicos. Epistemología y método después de Kuhn Concluimos así nuestro periplo por la estructura y método de la ciencia, que nos propusimos tomara ejemplos de la medicina, a fin de hacerlo más accesible al no especializado en estos temas. Al mismo tiempo, adelanta aspectos de una epistemología específica de la medicina, que desarrollamos en otros escritos, reunidos como texto. Espero que hayamos logrado nuestros propósitos. 232 233 ULTIMAS REFLEXIONES Suele atribuirse a Marx establecer una distinción importante al decir que el procedimiento de exposición difiere del de investigación. Tanto nos hemos olvidado de esto e insistido en los esquemas método lógicos que los presentamos como si sus pasos indicaran como investigar. Ya argumentamos acerca de que se derivan de la filosofía de la ciencia, siendo el más conocido el que deriva del método Hipotético-Deductivo. Siendo esto así, y acorde con el problema de los contextos, el método ES DE JUSTIFICACION, NO DE DESCUBRIMIENTO. Y la investigación es descubrimiento de algo nuevo. El método no lleva a algo nuevo, sólo lo corrobora. La estructura metodológica de un proyecto expone el marco teórico, qué atrajo la atención (problema), qué se piensa puede ser la solución (hipótesis), etc.. Y desde allí en adelante el tesista (o quien sea) queda solo con su alma sin saber por dónde agarrar. Allí comienza la investigación, que lo lleva por caminos insospechados a nuevos problemas, nuevas soluciones tentativas, nuevas búsquedas bibliográficas, nuevos métodos de análisis. Cuando termina y llegó a algo, lo presenta en su forma canónica. Es la investigación terminada, y la presenta para convencernos que tiene razón, que está justificado en lo que hizo, que los hallazgos corroboran no sólo la hipótesis, sino todos los elementos de la cadena metodológica. Para eso sirve la metodología. No para investigar. ESPERO NO DECEPCIONARLOS. Vuelvan ahora a leer el capítulo “El diagnóstico médico”. Es mi aporte a la concepción estructuralista en el que describo los pasos de una investigación ejemplificando cómo se llega a un diagnóstico, es decir, cómo se construye un conocimiento del que se carecía. Es mi aporte -también- a un esquema muy básico de cómo investigar. Si se lo toma como punto de partida, está bien. Pero no olviden que SOLO SE APRENDE A INVESTIGAR AL LADO DE INVESTIGADORES FORMADOS. 234 16 Introducción a la teoría de conjuntos y de modelos Este apartado fue escrito después de publicar la primera versión de Estructuras y métodos de la ciencia, para que el lector tuviera las herramientas para comprender a las concepciones semánticas y su caracterización del conocimiento científico como modelos. Patrick Suppes, filósofo de la ciencia de Stanford –recientemente fallecido a los 92 años de edad- comienza en los años cincuenta a utilizar las teorías de conjuntos y de modelos en las ciencias fácticas, trasladando a las disciplinas de los hechos la tarea que con tanto éxito emprendiera en las matemáticas el grupo Bourbaki. En un primer artículo, conocido durante muchos años sólo en copias del original mecanografiado, plantea que lo que los científicos mencionan en sus escritos como “modelo” –el modelo atómico, el modelo de la elección racional, el modelo estadístico de los autos que pasan por un punto determinado, un modelo de aeroplano, un modelo de embarcación, pueden ser caracterizados como entidades en las que se 235 cumplen –satisfacen- las caracterizaciones específicas, al igual que se los define en matemáticas. La propuesta significaba que la noción matemática de modelo podía ser utilizada en las ciencias fácticas, conservando toda su potencialidad de herramienta formal. En un segundo artículo de 1957, reconstruye la mecánica clásica de partículas caracterizando sus modelos (en el artículo utiliza el término “sistema”), siendo la primera reconstrucción exitosa de una teoría física. (Un sistema es una estructura que consta de elementos, y de relaciones entre estos elementos. Una teoría científica, como lo hizo Suppes, puede reconstruirse utilizando la noción de sistema, si es establece cuáles son sus elementos y cuáles las relaciones. En el caso de las teorías científicas, una relación importante es la que establece su ley fundamental, que relaciona entre sí a los elementos, y además establece su comportamiento en el tiempo, su evolución, lo que permite no sólo predecir, sino también retrodecir, como se comportó el sistema en el pasado. Las leyes de la astronomía permiten predecir un aclipse, pero además decir si hace mil años hubo un clipse en tal tiempo y lugar. En principio, estructura, sistema y modelo pueden ser utilizados, y de hecho se hace, como equivalentes.) Había nacido la primera concepción semántica de las teorías científicas. Vendrían, años después, otras. La de mayor desarrollo es, como comentáramos en el capítulo anterior, la concepción estructuralista. NOCIONES BASICAS DE LA TEORIA DE CONJUNTOS Y DE MODELOS A partir de las investigaciones de Bourbaki, se estableció que la teoría de conjuntos axiomatizada por Zermelo-Fraenkel es la herramienta básica para construir cualquier teoría matemática, superándose el largo y fracasado intento de reconstuirlas mediante la lógica de primer y segundo orden. 236 Aquí nos vamos a referir a su versión no formalizada –o intuitiva- que es la que emplea en sus análisis de las teorías científicas la concepción estructuralista, dando por supuesto que todo lo que se diga en la versión intuitiva puede ser dicho –a costa de mayor complejidad- la versión formalizada. Definiciones básicas: i. conjunto Un conjunto es una colección de objetos, sean números, polígonos, filósofos, partículas, o enfermos, a cada uno de los cuales se los llama elementos del conjunto. Pueden usarse como sinónimos “conjunto” y “clase”. Los conjuntos se designan con letras mayúsculas, como A, B, C, …., y los elementos con letras minúsculas, como a, b, c,…. Para designar a los elementos que constituyen el conjunto A, se escribe A es igual a sus elementos a, b, c, .. encerrando a estos entre llaves: A = {a, b, c…} Al conjunto sin ningún elemento, se lo denomina “conjunto vacío”, y se lo representa con la letra ∅. ii. pertenencia La noción básica de la teoría de conjuntos es la de pertenencia. Los elementos pertenecen al conjunto. También un conjunto puede pertenecer a otro conjunto. Para denotarlo, se utiliza el símbolo ∈. a∈A El elemento “a” pertenece al conjunto A A∈B 237 El conjunto A pertenece al conjunto B La no pertenencia se expresa así: p no pertenece al conjunto A: p∉A Si en lugar del lenguaje simbólico, empleamos el lenguaje natural y lo transcribimos tenemos lo siguiente: “Sofía es una mujer”, en lenguaje natural se dirá: i. Sofía pertenece a la clase de las mujeres, o ii. Sofía (s) ∈ (M) en lenguaje de conjuntos. Nótese que la noción de pertenencia puede denotarse en el lenguaje natural por el verbo es. iii. igualdad entre conjuntos Dos conjuntos son iguales si tienen exactamente los mismos miembros. Si A tiene los mismos miembros que B, entonces A = B. iv. subconjuntos El conjunto de los números 1, 2, 3 es un subconjunto de conjunto de los números 1, 2, 3, 4, 5. Si el conjunto A pertenece –como elemento- al conjunto B, puede decirse que A es un subconjunto de B. El símbolo ⊂ incluido en la siguiente formula: A⊂B indica que A es un subconjunto de B; también puede leerse A está contenido en B. El conjunto de los filósofos está contenido –o es un subconjunto- en el conjunto de los hombres. 238 Entre los subconjuntos de A se encuentra el conjunto vacío simbolizado por ∅ y el mismo A: ∅⊂AyA⊂A Léase, el conjunto vacío es un subconjunto de A, y A es un subconjunto de A. De esta manera, si consideramos al conjunto A de números, cuyos elementos son 1, 2,3 ,4, 5, cuya escritura es: A = {1, 2, 3, 4, 5, 6}, entonces son subconjuntos suyos: {1}; {6}; {1, 2}; {2, 5}; {2, 4, 6}; {3, 4, 5, 6}; {1, 3, 4, 5, 6} En total, tiene 64 subconjuntos (2 a la sexta). v. subconjunto complemento Un conjunto A es complemento de otro B cuando A está formado por los elementos que no son de B. Se representa mediante el superíndice C: A con c de superíndice x ∈ Ac si y solo si x ∉ A x es un subconjunto complemento de A si no pertenece a A LA TEORIA DE CONJUNTOS EN DIAGRAMAS Es hora de que empleemos los diagramas de Venn como forma gráfica de representar a la teoría de conjuntos de una manera intuitivamente más comprensible. 239 La figura más elemental consta de un rectángulo que representa el dominio total de los elementos, y dentro suyo círculos que representan a los conjuntos, con los elementos correspondientes. a. la inclusión o subconjunto: El conjunto A dentro de B indica que A ⊂ B. b. el complemento: 240 La zona coloreada en un conjunto y en el dominio total indica que son complementos de la zona blanca del diagrama. Operaciones con conjuntos 1. Unión de conjuntos La unión de dos conjuntos es el conjunto formado por los elementos que pertenecen a ambos. Se representa por el simbolo ∪. Así A ∪ B indica que los elementos de A y B están en el conjunto formado por esa union. La zona coloreada muestra el conjunto unión de dos conjuntos. 241 c. intersección Si dos conjuntos se intersectan, la intersección es el conjunto formado por los elementos communes a ambos conjuntos. El símbolo ∩ indica intersección de los conjuntos A y B, tal que: A∩B La zona coloreada del diagrama muestra el conjunto intersección de A y B. d. conjunto potencia Un conjunto potencia es un conjunto formado por todos los subconjuntos de un conjunto dado, A, por ejemplo. Se indica mediante el símbolo P. Así, el conjunto potencia de A se representa P (A). 242 El conjunto R de los números reales tiene como subconjuntos a los números naturales N, enteros Z, racionales Q e irracionales, que a su vez son subconjuntos unos de otros. Relaciones a. pares ordenados y producto cartesiano Trata de conjuntos en los que se indica el orden que presentan sus elementos. Se los indica mediante los símbolos: <…> Se denominado ordenado si sus elementos son dos: <x, y> , y así de seguido, para tres o más elementos. Se denomina producto cartesiano al conjunto de todos los pares ordenados de los conjuntos A y B. Se indica mediante: ‘A x B ’ b. relaciones entre conjuntos R relaciona dos conjuntos a los que llamamos Dominio al primero y Recorrido, Contradominio o Rango al segundo haciendo que a cada elemento del primero correspondan uno o más elementos del segundo. 243 X es el Dominio con sus elementos 2, 6, 8. El Contradominio es Y con sus elementos 3, 5, 7, 9. Las flechas son la relación R, por la cual 2 se relaciona con 3, 8 con 9, y 6 con 5 y 7, cumpliendo así la condición de corresponder 2 y 8 a un elemento, 6 a dos elementos. Sistemas y morfismos a. sistemas Se denomina sistema o estructura a un conjunto ordenado de elementos y de relaciones entre los elementos. c. función Se denomina función a una relación en la cual a cada elemento del Dominio corresponde uno y solo un elemento del Contradominio. En su primera reconstrucción, Suppes llama “sistemas” a los elementos de la mecánica clásica de partículas. Posteriormente, son llamados Modelos. 244 Tenía razón Suppes. No son sólo sistemas matemáticos. Veamos el sistema de la tierra, visto por científicos. Si el primero es una estructura cuyos elementos son obras de arte, y el segundo su percepción por parte de un espectador, podemos decir que se da entre ambas estructuras una relación de isomorfismo si relacionamos cada elemento y relación de una con los de la otra. Una manera informal de describirlo es expresar que podemos superponerlas sin pérdida de información. b. morfismos Lo interesante de la noción de estructura y de morfismos es que los elementos pueden ser de cualquier tipo, mientras conserven las relaciones estructurales. Existe isomorfismo entre dos estructuras si se establecen relaciones biunívocas entre los elementos y relaciones de ambas. 245 Con esto llegamos al final de esta introducción a la teoría de conjuntos y de modelos. Prescindimos de presentarlas mediante su escritura lógico matemática, prefiriendo hacerlo mediante diagramas de Venn, igualmente adecuados, pero más comprensibles para quien no esté entrenado en las disciplinas formales. Personalmente, es la estrategia que sigo en mis reconstrucciones estructuralistas. 246 17 Introducción a la lógica Esta unidad es parte de los contenidos conceptuales propedéuticos para comprender al método científico. Tanto en la metodología inductivista como en la hipotético-deductivista, los argumentos que proponen son de índole lógica. Sin embargo, no nos vamos a referir en esta unidad a la inducción, que es tratada en el capítulo dedicado a la metodología inductivista. Esta unidad trata de los elementos de la lógica que están en la base de la justificación del método hipotético-deductivo, que actualmente se acepta como estándar, habitual en la investigación científica. Veremos a la lógica como la ciencia que trata de los razonamientos o inferencias deductivas correctas, sus componentes, y las maneras de corroborar su corrección o incorrección. Es necesario recordar que la lógica simbólica o matemática es en principio un cálculo sin interpretar, es decir, vacío, cuya correspondencia con el lenguaje natural no siempre es tan 247 precisa como sería de desear. Los ejemplos se dan mediante oraciones de uso habitual o al menos construidas como tales –aunque nadie las emplee habitualmente, como el conocido “Todos los hombres son mortales, Sócrates es hombre, luego Sócrates es mortal”-. En lógica lo que se utiliza no son las palabras, oraciones o razonamientos del lenguaje natural o cotidiano, sino letras (símbolos que representan elementos individuales y proposiciones) que puede interpretarse luego como términos o enunciados del lenguaje. Otros símbolos conectan proposiciones con proposiciones, e indican qué sucede con las proposiciones que unen. Es este sentido funcionan como los signos que representan a más, menos, la suma, multiplicación, etcétera, que son operaciones sobre los números. Esos signos especiales llamados conectivas lógicas indican al igual que en las matemáticas que se hace una operación con las proposiciones que conduce a un resultado, distinto al que tendríamos leyendo cada proposición por separado. Por este último carácter, llamamos cálculo a la lógica, al igual que a las matemáticas, pues podemos operar con los símbolos –las letras- sin tomar en cuenta que pueden tener correspondencia con el lenguaje natural. Es este carácter formal, vacío, de la lógica, lo que le otorga su potencia para desarrollar inferencias que difícilmente podrían alcanzarse de otra manera. Entre ellos, las que realizan esas sofisticadas máquinas de calcular que son las computadoras. También iluminan aspectos del lenguaje natural y del razonamiento con él, que no se verían con claridad si sólo utilizáramos a éste. Patrick Suppes llama con justicia a su texto de lógica “Introducción a la lógica simbólica”. El escrito está formado por dos grupos conceptuales. El primero habla de términos, proposiciones, razonamientos. Lo hace con ejemplos fundamentalmente de la lógica aristotélica, que persistió cerca de dos mil años, y que todavía tiene vigencia. Término, proposición, razonamiento, verdad, validez o corrección, y formas de razonamiento válidas son el tema de esta unidad. El segundo, habla de la lógica proposicional, nacida de los trabajos pioneros de Gotlob Frege y Bertrand Russell. Aunque la supera, conserva a la lógica aristotélica en su seno. Veremos en él las nociones de proposición, conectivos lógicos, forma proposicional, tabla de verdad, tautología, contradicción, contingencia, falacias. Quienes lo lean, conocerán puntos fundamentales de la lógica y adquirido herramientas para completar y comprender quizás mejor los argumentos inductivistas e hipotético deductivistas. 248 Debo esta Introducción a la Lógica al prof. Luis Larisson En una primera parte se desarrolla la lógica estándar, y en la segunda la lógica proposicional. I. ELEMENTOS DE LOGICA DE CLASES I. Término, proposición y razonamiento: las estructuras lógicas básicas. Razonamiento: La mayoría de los lógicos coinciden en afirmar que la Lógica tiene como objeto el estudio de los razonamientos o argumentos para determinar su corrección o incorrección (también puede hablarse de validez o invalidez). Esta primera caracterización exige aclarar qué se entiende por "razonamiento” y por “corrección" en esta disciplina. Frecuentemente las personas construyen razonamientos. Estos consisten en una serie de proposiciones relacionadas de una manera peculiar. Cuando se formula una proposición, normalmente se garantiza su verdad puesto que se infiere de otras proposiciones cuya verdad se da por sentada . Lo mismo ocurre en el plano científico. Por ejemplo, alguien puede afirmar: "Las hormigas tienen tres pares de patas " y dar como fundamento de la verdad de esta proposición las siguientes proposiciones: "Todos los insectos tienen tres pares de patas " “Las hormigas son insectos" 249 Las proposiciones que se dan como fundamentos son llamadas premisas, mientras que aquella que se infiere de ellas se denomina conclusión. El razonamiento como la forma que adoptan puede definirse, pues, como un sistema de proposiciones de las cuales una, llamada conclusión, se fundamenta en una u otras, llamadas premisas. En este contexto, usaremos “razonamiento”, “argumento” e “inferencia” como términos equivalentes. 2. Premisas y conclusión. Premisa y conclusión son términos relativos, en el sentido de que una proposición que aparece como conclusión en determinado razonamiento, puede cumplir en otro el papel de premisa (o viceversa). Veámoslo con el ejemplo dado en el punto anterior: 1º. Razonamiento: PREMISAS *Todos los insectos tienen tres pares de patas. Las hormigas son insectos. CONCLUSION Las hormigas tienen tres pares de patas. (La línea indica que entre la segunda proposición y la tercera media una inferencia) 2°. Razonamiento: PREMISAS La libélula es un insecto y tiene tres pares de patas La langosta es un insecto y tiene tres pares de patas. La hormiga es un insecto y tiene tres pares de patas. CONCLUSION *Todos los insectos tienen tres pares de patas 250 La proposición señalada con el asterisco ha pasado a ser conclusión en el segundo razonamiento. Ahora, ¿cómo detectamos, en un razonamiento, cuál es la proposición que se fundamenta en las otras? Es decir, ¿cómo sabemos que estamos frente a una premisa o frente a una conclusión? Generalmente aparecen los llamados "indicadores" de conclusión y de premisas (que se anteponen a las proposiciones que figuran como tales). Algunos de ellos son: Indicadores de conclusión: Indicadores de premisas: -por lo tanto -ya que -por ende -puesto que -por consiguiente -dado que -luego -pues -sigue que, etc. –porque, etc. Identificar estos indicadores ayuda a entender la estructura de un razonamiento (no obstante, a veces pueden faltar y, en ese caso, premisas y conclusión se sacan por contexto). Ejemplos: "El preparado ha permanecido totalmente aislado; por consiguiente, no puede estar contaminado con sustancias ambientales". - “Por consiguiente”: encabeza le conclusión; "no puede estar,.." "En la casa hay luz, pero este velador no enciende; por lo tanto, o la bombita se quemó o el cable está averiado en alguna parte". - “Por lo tanto”: encabeza la conclusión; "O la bombita se quemó o el cable está averiado en alguna parte". "Si todos estamos de acuerdo, entonces, podemos salir, pues el 251 público espera ansiosamente el resultado de la votación". - “pues”: encabeza le premisa; "el público espera.." d) "Es necesario que el equipo gane hoy, ya que sólo queda otra fecha y nuestros rivales no podrán alcanzarnos." - “Ya que”: encabeza una premisa; "sólo quede otra fecha" ("nuestros rivales no podrán alcanzarnos" es otra premisa). Proposiciones: Los razonamientos están compuestos, según vimos, por proposiciones. Las proposiciones son expresiones que afirman o niegan algo. Se reconocen por una característica que poseen: la de ser verdaderas o falsas. Nunca se insistirá demasiado con recordar que sólo las proposiciones son verdaderas o falsas; los razonamientos son correctos o incorrectos. (A fin de no entrar en discusiones sobre qué es la verdad, cuando leamos “verdadero” o “falso”, en realidad estamos dicendo “que es sabido como verdadero” o “que es conocido como falso”. En esta distinción introducimos la noción de que una proposición es verdadera o falsa para determinada comunidad de conocimiento, en cierta época. La evolución del conocimiento a través del tiempo nos muestra que proposiciones sabidas como verdaderas luego son sabidas como falsas, y viceversa. Cuando se dice “verdadera” o “falsa” sin más, les atribuye esta condición sin consideraciones de tiempo y lugar, eternamente.) Esta característica de les proposiciones permite diferenciarlas de otras expresiones del lenguaje como órdenes, pedidos, exclamaciones, interrogaciones, etc., que no son proposiciones, pues no son verdaderas ni falsas. Ejemplos: 252 -Los cúmulo-nimbos son nubes que presagian tormenta (Proposición) -Buenos Aires es capital de Brasil. (Proposición) -Prohibido asomarse y sacar los brazos por la ventanilla (Orden) -¡Ojalá llueva pronto! (Exclamación) - El fútbol no es un deporte acuático. (Proposición) 4. Términos: Las proposiciones se componen a su vez de términos: son los elementos lógicos más simples de que constan las proposiciones. Como tales, no son verdaderos o falsos, ni correctos o incorrectos. Distinguiremos entre los términos a aquellos que se denominan categoremáticos. Son términos que se refieren a elementos del mundo, sean individuos, sustantivos, predicados. Cuando se los representa mediante un símbolo (una letra), su significado no es fijo, es decir, que son auténticas variables, reemplazables por cualquiera de las constante que sea el caso. Estos términos que pueden variar se denominan asimismo términos no lógicos y, como hemos visto, poseen significación propia, independientemente de la estructura lógica. La armazón, la estructura de la lógica la brindan, sin embargo, otros términos, a los que llamaremos sincategoremáticos, o términos lógicos: En las siguientes proposiciones: a) Todos los inteligentes son estudiosos; b) Todos los salteños son argentinos; c) Algunos mamíferos son ballenas; d) Algunos argentinos son salteños; 253 vemos que varían algunos términos ("inteligentes", "estudiosos”, “saltemos", "argentinos”, "ballenas", "mamíferos”) y otros permanecen invariantes. Estos últimos ("Todos", "son", ”algunos” permiten obtener proposiciones elementales o simples, como los ejemplos a), b), c) y d) arriba expuestos. Son precisamente los términos lógicos, también llamados "símbolos impropios", pues carecen de significado propio, y sólo lo adquieren en contacto con las otras partes de la proposición. Existen además otros términos lógicos, que relacionan proposiciones simples entre sí y permiten obtener proposiciones compuestas. Ejemplos: e) La vaca es herbívora y el leopardo es carnívoro. f) Tomaremos el tren por la mañana o alcanzaremos el avión de la noche. g). Si la biblioteca está abierta, entonces nos reuniremos allí.. Vemos que "y", "si...entonces", actúan como nexos entre proposiciones. También son términos lógicos los signos de puntuación (paréntesis, corchetes, llaves). Resumen: Podemos reseñar los temas tratados hasta aquí de la siguiente manera: - Terminos: los integrantes más simples de las proposiciones, se dividen en lógicos y no lógicos (sincategoremáticos y categoremáticos). - Proposición: estructura lógica, integrada por términos, que tiene la propiedad de ser verdadera o falsa. Los términos se dividen en lógicos y no lógicos. - Razonamiento: conjunto de proposiciones tales que de una o más de ellas, llamadas premisas, aparece derivando otra, llamada conclusión. 254 Pueden ser correctos (válidos) o incorrectos (inválidos). 5. Tipos de razonamientos: Hay razonamientos que parten de algunas proposiciones formuladas (premisas), para llegar a otras que se encuentran implicadas en ellas (conclusiones). Precisamente, por estar implicada en las premisas, la conclusión se sigue necesariamente de ellas. Razonamiento deductivo es aquel en el cual la conclusión se desprende necesariamente de las premisas. Ejemplo: Todos los mamíferos son animales de sangre caliente y todos los gatos son mamíferos; por lo tanto, todos los gatos son animales de sangre caliente. "Todos los gatos son animales de sangre caliente" se desprende necesariamente de las premisas. Hay razonamientos, en cambio, en que la conclusión no está implícita, implicada, en las premisas, sino que tiene más información que la dada en ellas. De ahí que la conclusión se desprenda con probabilidad, y no necesariamente como en los razonamientos deductivos. A ese tipo de razonamiento se lo denomina no deductivo. Los razonamientos no deductivos son aquellos en los cuales la conclusión se desprende de las premisas con un grado mayor o menor de probabilidad. Ejemplo: El paciente x fue tratado con este medicamento y mejoró. El paciente y fue tratado con este medicamento y mejoró. El paciente z fue tratado con este medicamento y mejoró. 255 Por lo tanto, todos los pacientes tratados con este medicamento mejorarán. La conclusión no se desprende con necesidad de las premisas, pues bien podría darse un caso donde el paciente no mejorara 6. Ejemplos y características de cada uno de los tipos de razonamientos mencionados: Los razonamientos no deductivos pueden ser inductivos o analógicos. El que acabamos de exponer es un razonamiento inductivo. La característica de estos razonamientos (los inductivos) es que la conclusión tiene un grado mayor de generalidad que las premisas. Mientras que en los razonamientos analógicos la conclusión tiene el mismo grado de generalidad que las premisas. Ejemplo: Marte es un planeta y gira alrededor del sol. La tierra es un planeta y gire alrededor del sol. Venus es un planeta y gira alrededor del sol. Saturno es un planeta. Por lo tanto, Saturno gira alrededor del sol. Es decir, los razonamientos inductivos y analógicos tienen en común que las conclusiones se desprenden en forma probable de las premisas. Pero los diferencia el hecho de que en los razonamientos inductivos la conclusión tiene un grado mayor de generalidad que las premisas. 7. Los razonamientos deductivos. Validez e invalidez: Dijimos que en los razonamientos deductivos la conclusión se desprende en forma necesaria de las premisas, pues está implícita en ellas. El problema consiste en que, a veces, la conclusión parece estar implícita en las premisas, pero realmente no lo está. Precisamente la lógica tiene como objeto determinar la validez de 256 los razonamientos deductivos, es decir, si son válidos (correctos) o inválidos (incorrectos). Como ello depende de la forma del razonamiento, esta lógica se llama lógica formal Un razonamiento deductivo es válido cuando premisas y conclusión están relacionadas de tal manera que resulta imposible que las premisas sean verdaderas y la conclusión falsa. En este caso, la relación entre unas y otras es una relación objetiva de implicación, y su forma es correcta. Pero, ¿qué se entiende por “forma”? (I) Si escribimos: Todas las estrellas son astros con luz propia. Sirio es una estrella. Sirio tiene luz propia. Esto es un razonamiento. (II) Si ahora escribimos todo A es B x es A x es B Esta es la forma de un razonamiento. En (II) tenemos la forma del razonamiento expresado en (1) pero no sólo de ese razonamiento, sino de todos aquellos que tengan la misma forma, tales como: Todos los jugadores de tenis son deportistas. Sabatini es jugadora de tenis 257 Sabatini es deportista Todos los músicos son sensibles Mariano Mores es músico Mariano Mores es sensible Pero, ¿cómo obtuvimos la forma lógica del primer razonamiento? a) Reemplazando, en las proposiciones que lo componen, sus términos no-lógicos (estrella, luz propia, Sirio) por letras (A, B, x), llamadas variables. El proceso mediante el cual se eliminan esos contenidos (o significados), puede llamarse, desde la filosofía de Aristóteles, abstracción. Se encuentra estrechamente ligada a su concepción de las esencias, que no es necesario compartir. b) Además de las variables, vemos que han quedado los términos lógicos (todos, son, es, que todavía no hemos simbolizado), los cuales constituyen, precisamente, la armadura lógica de las proposiciones y se llaman constantes lógicas. Forma: es el esqueleto lógico que queda cuando prescindimos del contenido o materia, y sus componentes son las variables y las constantes lógicas. Volviendo al ejemplo: Todo A es B X es A X es B es una forma válida Si reemplazamos las variables (que en realidad designan lugares vacíos) por términos con información, el razonamiento resultante será "bueno", ya que su validez no depende mas que de la forma del molde (que permanece invariable, sin afectar el razonamiento). Ahora, ¿cómo sabemos cuando una forma es válida? 258 La lógica ha desarrollado, para ello, técnicas y métodos apropiados. Una vez que, sobre la base de ellos, se determina la validez de la forma, será válida independientemente de la verdad o falsedad de las proposiciones que figuran como premisas y conclusión. Ejemplos: Forma válida Razonamientos válidos Prop. Todo A es B x es A (I) Toda estrella es un astro con luz propia Sirio es una estrella V V X es B Sirio es un astro con luz propia V (II) Toda estrella es un astro con luz propia V La Tierra es una estrella F La Tierra es un astro con luz propia F (III) Todos los satélites tienen luz propia F La Tierra es un satélite F La Tierra tiene luz propia F (IV) Todos los satélites tienen luz propia F El sol es un satélite F El sol tiene luz propia V Estos cuatro razonamientos son válidos: no sólo (I), cuyas premisas y conclusión son verdaderas, sino también aquellos que tienen premisas o conclusión falsas. 259 Esto significa que la lógica garantiza la validez del razonamiento, no la verdad de las proposiciones (esa es tarea de quien la formula, en la vida cotidiana y en la ciencia). Lo que asegura la lógica es que si a esa forma de razonamiento, determinada como válida, le colocamos premisas verdaderas, la conclusión forzosamente será verdadera De ahí que se sostenga que la lógica interviene en todo conocimiento razonado, pero no en la totalidad de él. En la ciencia no sólo interesa si la forma del razonamiento es válida (tal cual determina la lógica), sino también si las premisas y conclusión son verdaderas. Un razonamiento válido, con premisas verdaderas, se denomina sólido. Esto cobra gran importancia si tenemos en cuenta que de premisas verdaderas no se sigue necesariamente una conclusión verdadera. ¿Cómo es posible que se pueda concluir algo falso de premisas verdaderas? En esos casos se debe a que la forma es inválida (porque si fuese válida sería imposible, como ya sabemos, que de premisas verdaderas se concluyese una proposición falsa) Ejemplos: Forma inválida Razonamientos inválidos Todo A es B Todos los árboles son vegetales V X es B El trigo es vegetal V X es A El trigo es árbol 260 F como vemos, las premisas son verdaderas y la conclusión es falsa: También podríamos obtener una conclusión verdadera: Todos los arboles son vegetales V El pino es vegetal V El pino es árbol V Sin embargo, sigue siendo inválido. Por supuesto, puede darse las restantes combinaciones de V (verdadero) y F (falso): Todos las árboles son vegetales V El coral es vegetal F El coral es árbol F Todos los árboles son gigantes F El maíz es gigante F El maíz es árbol. F Todos los árboles son flores F El ciprés es una flor F El ciprés es un árbol V Resumen 261 Pasos del análisis lógico señalados hasta aquí: 1º)Reconocimiento de un razonamiento y de sus partes componentes, premisas y conclusión. 2º) Proponer la forma de ese razonamiento. 3º) En caso de tratarse de un razonamiento deductivo, aplicación del cálculo lógico para determinar la validez o invalidez de esa forma de razonamiento (la lógica formal analiza exclusivamente razonamientos deductivos). Si el resultado del cálculo es que esa forma es válida, significa que: Si le colocamos premisas verdaderas, le conclusión será, indefectiblemente, verdadera. Esa forma es válida no sólo para ese razonamiento particular del cual la hemos propuesto, sino para todo otro que tenga esa forma (universalidad de la forma) La verdad o falsedad de las proposiciones que figuran como premisas y conclusión, no depende de la lógica, sino (en el ámbito que aquí nos interesa) de la ciencia. razonamiento válido, con premisas verdaderas; es un razonamiento sólido. Si el resultado del cálculo determina la forma como inválida significa que: i. esa forma es inválida no sólo para el razonamiento particular para el cual la hemos propuesto, sino para todo razonamiento que tenga esa forma. Las posibilidades que se dan son las siguientes: i. puede tener premisas y conclusión verdaderas; ii. premisas verdaderas y conclusión falsa; iii. premisas falsas y conclusión verdadera; 262 iv. premisas y conclusión falsas. Ejercicios de revisión I. Señalar cuales de las siguientes expresiones son proposiciones y cuales no. En este ultimo caso, aclarar por qué. Cierre la puerta con cuidado al salir. La puerta está cerrada. ¿Podría cerrar la puerta?. El autor de "Cuentos de amor, de locura y de muerte" es Horacio Quiroga. El autor del "Martín Fierro" es Miguel de Cervantes. 6. ¡Ojalá que escriba esta semana! . El agua de mar no posee ni una pizca de sal. El A.D.N. tiene forma helicoidal. El canguro es un animal típico de Australia. Los estudiantes deben tener el máximo cuidado al manipular los objetos del laboratorio. II. Las expresiones que usted marcó con no en el ejercicio anterior. ¿pueden funcionar como premisas o conclusión de un razonamiento? ¿Por qué? III. En los siguientes razonamientos, señalar: a. premisas. b. conclusión, c. indicadores de premisas y conclusión, si hay. 1. Los médicos aconsejan prevenir antes que curar; por consiguiente, recomiendan evitar el contacto con los alérgenos como tratamiento ideal para las alergias. 2. Un grupo de científicos realizó excavaciones buscando restos de nidadas de dinosaurios, pues se plantearon el siguiente razonamiento: "Los dinosaurios eran reptiles; los reptiles son 263 ovíparos; luego, donde se ha comprobado que habitaban, pueden haber quedado restos de sus huevos y algunos indicios de nidadas o lugares de cría". 3. Ya que existen mamíferos acuáticos, terrestres y aún voladores, podemos afirmar que se trata de animales con gran poder de adaptación. 4. Puesto que todos los cuadriláteros tienen cuatro lados, y el trapezoide es un cuadrilátero, el trapezoide tiene cuatro lados. 5. "Según la relatividad general, la gravedad no hace ninguna distinción entre una partícula y una antipartícula; lo único que cuenta es la energía de la partícula...La energía de una partícula es la misma que la de la partícula correspondiente. Por lo tanto la antimateria caerá al suelo exactamente igual que la materia". Golman, Hughes y Nieto: "Gravedad y antimateria” Investigación y ciencia. N°140 6. Muchos astrónomos consideran que la formación de cuásares sólo tuvo lugar en la historia temprana del Universo, pues todos parecen ser objetos distantes. 7. "La importancia de ver los aspectos sanitarios de la alimentación, en el desarrollo de los países, se nota si observamos la desnutrición y la malnutrición, ya que son algunos de los problemas que más aquejan al siglo XX". A. Sonis: "Salud, medicina y desarrollo". Es sabido que, sea como fuese que nos movamos sobre la superficie terrestre, cualesquiera sean los puntos del globo terráqueo desde los cuales observamos la bóveda celeste, veremos siempre a las estrellas a una misma distancia una de las otras. Esto se debe a que las estrellas están situadas a distancias tan enormemente grandes de nosotros, que nuestros movimientos sobre la Tierra comparados con esas distancias son insignificantes. Podemos considerar, por consiguiente, las dimensiones angulares como dimensiones absolutas". Landau - Rumer: "Qué es le teoría de la relatividad". 264 9. "Cabe suponer que los peces antárticos han logrado algún tipo de adaptación especial frente al frío, puesto que la Antártida, el habitat más frío del planeta, esta llena de peces, y en presencia de hielo la mayoría de los peces de aguas templadas y tropicales se congelan". "Peces antárticos". Rev. Investigación y ciencia N° 124. 10. "Si la ventana hubiese estado abierta, enseguida hubieseis pensado que se había arrojado por ella...Por tanto, si hubiese estado abierta...sólo quedaba la hipótesis del suicidio. En cuyo caso, no la habríais dejado enterrar en tierra consagrada. Pero, como la habéis enterrado cristianamente, las ventanas debían de estar cerradas". Umberto Eco; El nombre de le rosa 11. "El bien de un libro consiste en ser leído: Un libro está hecho de signos que hablan de otros signos que, a su vez, hablan de cosas. Sin unos que lo lean, un libro contiene signos que no producen conceptos. Y por tanto, es mudo". Umberto Eco: El nombre de la rosa. 12. El mundo, tal como aparece en cada momento, no es el mundo tal como es en ese instante, pues los objetos más alejados se ven en un estado anterior de su historia". G. J. Whitrow: La estructura del Universo. 13. Los conocimientos más universales para el hombre son quizás los más difíciles de adquirir, puesto que son los más alejados de las sensaciones'. Aristóteles: "Metafísica", Libro I. 14. Los animales, por naturaleza, están dotados de sensación pero en algunos, a partir de ella, no se constituye ulteriormente el recuerdo y en otros sí. Por esta razón, los últimos son más avisados y más capaces de aprender que los que carecen del poder de recordar, pues los 265 incapaces de percibir sonidos son más avisados, más no poseen la facultad de aprender, tal como ocurre con la abeja y con cualquier otro género de animales que esté constituido de esa manera". Aristóteles: "Metafísica", Libro I. 15. "Puesto que le novedad de las hipótesis de esta obra es cosa que ya se ha difundido ampliamente, no abrigo dudas que algunos hombres ilustrados se sientan seriamente ofendidos, porque el libro declara que la Tierra se mueve y el sol se halla quieto en el centro del universo". Prefacio intercalado sin nombre en la primera edición del libro de Copérnico "De las revoluciones celestes", por el canónigo Osiander, sin permiso del autor. 16. "La adicción a las drogas, o toxicomanía, se caracteriza por un estado da intoxicación periódica o crónica, perjudicial para el individuo y la sociedad, producido por la administración repetida de una droga. Dan su carácter a la toxicomanía: a) la tolerancia, b) la dependencia psíquica a hábito propiamente dicho; y c) la dependencia física. Por lo tanto, toda droga que de lugar a las tres condiciones precedentes es capaz de engendrar toxicomanía. Definición del Comité de Expertos de la 0.M.S. "Cuando se habla de curvas, técnicamente se incluye entre ellas a las líneas rectas. La recta es un caso particular y trivial del concepto más general de. curva. Luego, si introducimos la velocidad, el cambio de velocidad y la fuerza para el movimiento curvilíneo, estos conceptos quedan automáticamente definidos, también para el movimiento rectilíneo". Einstein e Infeld: “La evolución de la Física” “El movimiento de un cuerpo que cae por una pendiente se acelera, mientras que el movimiento hacia arriba se frena; de esto se infiere que el movimiento sobre un plano horizontal es perpetuo pues, si la velocidad es uniforme, no puede disminuirse o mermarse y, menos aun, destruirse". Galileo Galilei: "Dos ciencias nuevas". 266 "EL asesino tenía más de seis pies de altura, pues cuando una persona escribe en una pared, instintivamente lo hace a la altura, más o menos, del nivel de sus ojos. Pues bien: aquel escrito estaba a un poco más de seis pies de altura ". Conan Doyle; "Estudio en escarlata". ¿Y lo relativo a su edad? - le pregunté. Verá Ud.: cuando un hombre es capaz de dar pasos de cuatro pies y medio sin el menor esfuerzo, no es posible que haya entrado en la edad de la madurez y el agotamiento. De esa anchura era un charco que había en el camino del jardín, y que ese hombre había, sin duda alguna, pasado de una zancada... Luego, el asesino es una persona joven". Conan Doyle: "Estudio en escarlata”. 21."También es probable que haya factores en la leche materna que ayuden a revestir el epitelio intestinal del recién nacido, pues este fenómeno de impermeabilización está bien documentado en recién nacidos". “La alergia”. Rev. Investigación y ciencia, N° 73. 22. “Si en la inmensidad del Universo existieran civilizaciones tanto o más avanzadas que la nuestra, seguramente estarían tratando de comunicarse con sus vecinos galácticos... El lenguaje común que nos permitiría llegar a comprendernos sería, sin duda, la ciencia, ya que las leyes de la Naturaleza son las mismas en todo el Universo". "Una aguja en el pajar cósmico ". Rev. Ciencia Hoy, N° 5. 23. "En general, los tallos crecen erguidos y en dirección opuesta a la fuerza de gravedad del planeta, mientras que las raíces también crecen verticales, pero siguiendo la fuerza que ejerce el campo gravitatorio. Así mismo, tanto las ramificaciones de los tallos como los de la raíz, se orientan con ángulos variables a la vertical; existen casos especiales en los que los tallos pueden orientarse, incluso, en forma horizontal tal coma sucede con los estolones de la frutilla o los rizomas de las violetas. Es posible afirmar, entonces, que las plantas usan la gravedad para orientarse en el espacio aéreo y... del suelo". 267 "Gravitropismo". Rev. Ciencia hoy, N.° 5 24. "Puesto que si la afirmación es verdadera, la negación es falsa, y puesto que si esta es verdadera, no sería posible que la misma cosa sea afirmada y negada al mismo tiempo". Aristóteles: "Metafísica". Libro IV. IV. Las siguientes son formas de razonamientos deductivos válidos. Reemplace las variables por términos no lógicos. Ningún P es M Todos los M son P Algún S es M Todos los S son M Algún S no es P Todos los S son P V) Proponga la forma lógica de los razonamientos deductivos válidos que se dan a continuación: a) Todos los cordobeses son argentinos Ningún peruano es argentino Ningún peruano es cordobés b) Todos los mosquitos son insectos Algunos invertebrados son mosquitos Algunos invertebrados son insectos VI) En los ejemplos del ejercicio III identifique, por lo menos, tres razonamientos cuya conclusión sea probable (razonamientos no deductivos). 268 Bibliografía Blanché, Robert (1963), Introducción a la lógica contemporánea, Ediciones Carlos Lohlé, Buenos Aires. Cohen y Nagel (1993), Introducción a la lógica y al método científico, Amrrortu editores, Buenos Aires. Copi, Irving (1981), Introducción a la Lógica, Eudeba, Buenos Aires. Garrido, Manuel (1974), Lógica simbólica, Ed. Tecnos, Madrid. Lungarzo, Carlos (1986), Lógica y lenguajes formales, Centro Editor de América Latina, Buenos Aires. II. ELEMENTOS DE LÓGICA PROPOSICIONAL El objetivo del presente capítulo es el de aclarar el concepto de validez tratado anteriormente, lo que, a su vez, permitirá establecer la diferencia entre reglas y falacias formales. Nos referiremos a algunas nociones de lógica proposicional para lograr tal propósito. Lógica Proposicional. 269 El análisis que realiza la lógica proposicional se detiene en la proposición tomada como un todo, prescindiendo de la consideración de sus elementos internos (los términos). Por ejemplo, la proposición “Kepler era astrónomo”, se simboliza con la letra “p”, tomando la proposición como unidad. Clasificación de las proposiciones. Las proposiciones se conectan entre sí formando proposiciones más complejas. Habíamos visto que ciertas partículas del lenguaje conectan entre sí proposiciones enteras y que por esta razón se las llama conectivas interproposicionales. Estas conectivas (“y”, “o”, “si...entonces...”, “si y sólo si”, etc. ), al combinar proposiciones dan lugar a una nueva proposición: la proposición compuesta o molecular. De esta manera, encontramos dos clases de proposiciones: las proposiciones simples (o atómicas)y las proposiciones compuestas (o moleculares): Proposiciones simples o atómicas: son aquellas que no incluyen dentro de sí otra proposición. Ejemplo: Kepler era astrónomo. Kuhn era historiador de la ciencia A este tipo de proposiciones las reconocemos por la ausencia de conectivas lógicas Proposiciones compuestas o moleculares: son aquellas que contienen dentro de sí otra proposición (u otras). En este caso, la presencia de las conectivas interproposicionales mencionadas nos permite reconocerlas. Ejemplo: “Kepler era astrónomo y Kuhn era historiador de la ciencia” Si es verano, entonces hace calor La presencia de las conectivas “y” y “si...entonces...” están indicando que estamos frente a proposiciones compuestas o moleculares. La lógica proposicional estudia precisamente estas conectivas que unen proposiciones. Formas proposicionales 270 Tanto las proposiciones como las conectivas se simbolizan. Símbolos de proposiciones: Los símbolos que reemplazan a las proposiciones se llaman variables proposicionales, y normalmente, en el proceso de reemplazo, se comienza con la letra p y se continúa siguiendo el orden alfabético a medida que se van reemplazando nuevas proposiciones. Así, teniendo en cuenta las proposiciones formuladas más arriba: la proposición (1) se simboliza p la proposición (2) se simboliza p la proposición (3) se simboliza p y q la proposición (4) se simboliza si p entonces q Símbolos de conectivas Se utilizan los siguientes signos: “.”: simboliza a la conectiva “y”(conjunción). También: “pero”, “aunque”, “sino”, etc. “v”: simboliza a la conectiva “o” en sentido débil (disyunción inclusiva). También: “a menos que”, “y/o”, etc. “w”: simboliza a la conectiva “o” en sentido fuerte (disyunción exclusiva). También: “o bien”, etc. “→” simboliza a la conectiva “si... entonces...” (condicional). También: “es condición suficiente para”,etc. “ ⇄ ” simboliza a la conectiva “si y sólo si” (bicondicional). También”es condición necesaria y suficiente para”, etc. Las formas proposicionales se construyen con símbolos de conectivas y variables proposicionales. 271 De acuerdo a esto, las proposiciones (3) y (4) se simbolizan de la siguiente manera: proposición (3): p . q (forma proposicional) (se lee: p y q) proposición (4): p q (forma proposicional) (se lee: si p entonces q) Una forma proposicional es, pues, una sucesión de símbolos (de conectivas y de proposiciones). Este proceso mediante el cual simbolizamos una proposición y nos quedamos con su “esqueleto” (la forma proposicional), se llama simbolización. El proceso inverso es la interpretación, que consiste en reemplazar las variables y los símbolos de conectivas por proposiciones atómicas y conectivas. Ejemplo: Forma proposicional: p → q Interpretación: si estudio, entonces aprobaré. Los valores de verdad. Al hablar de valores de verdad aludimos al hecho de que una proposición es verdadera o falsa. Los valores de verdad de una proposición son: verdadero, falso. La lógica proposicional es una lógica bivalente, precisamente, porque distingue sólo dos valores de verdad: una proposición es o verdadera o falsa: no existe una tercera posibilidad. La proposición “Kepler era astrónomo” es verdadera o es falsa, no hay otra alternativa. Ahora bien, la verdad (o falsedad) de las proposiciones simples depende del estado de cosas a los que se refieren, depende de los hechos. En cambio, cuando se trata de proposiciones compuestas, la verdad (o falsedad) depende de las conectivas utilizadas. 272 En este sentido, decimos que a la lógica proposicional le interesa la verdad o falsedad lógica, y que lo que determina el valor de verdad de una proposición compuesta es la definición de la conectiva que une en cada caso a las proposiciones simples. Tablas de verdad. La verdad de toda forma proposicional depende de los valores de verdad de las proposiciones que la componen; por lo tanto, todas las formas proposicionales son funciones de verdad. Las tablas de verdad constituyen un procedimiento de cálculo para determinar la verdad o falsedad de las proposiciones moleculares. Las siguientes son las tablas que definen a las conectivas interproposicionales, y que constituyen la base para la resolución de cualquier forma molecular. TABLA ABLA DE LA DISYUNCION INCL INCLUSIVA USIVA P V Q V V V F V V V V F F F F TABLA ABLA DEL CONDICION CONDICIONAL P 273 Q V V V V F V Las tablas de verdad se construyen poniendo valores de verdad (Verdadero o Falso a cada variable proposicional p y p, de tal manera que existan entre ellas todas las combinaciones posibles. Así, una de ellas se indica como verdadera, mientras la otra se indica como verdadera o falsa (para que se de la combinatoria deseada. Lo mismo se hace con la falsedad. Existen, como es natural, cuatro combinaciones posibles. TABLA DE P Q V V V V F V V F F V F F Véase la tabla de verdad sin la definición del uso del símbolo que la caracteriza, con únicamente los valores de verdad de las proposiciones atómicas p y q, para advertir la combinatoria a la que hicimos alusión anteriormente: Algunas indicaciones poniendo ejemplos del lenguaje natural puede aclarar la asignación de verdad o falsedad del conectivo lógico. Supongamos que la proposición p es “llueve” , la proposición q es “truena” , y la conjunción “.” corresponde en el lenguaje natural, como es obvio a “y”. En este caso, la proposición compuesta por estas dos proposiciones simples, se lee “llueve y truena”. El valor de verdad (V o F) que ponemos en la columna de la conectiva corresponde al que posee cada proposición compuesta, según sea la combinatoria que forman p y q alternativamente verdaderas o falsas. Es natural pensar que entre ellas es verdadera la proposición compuesta que expresa que son verdaderas al mismo tiempo “p” (que efectivamente llueve) y “q” (efectivamente truena). En este caso, “y” está correctamente usado. Con respecto a la disyunción inclusiva “v”, (léase o), si admitimos nuevamente que la proposición p es “llueve”, mientras que la proposición q es “truena”, la proposición compuesta correspondiente es “llueve o truena”. Esta conectiva es llamada “inclusiva” pues admite que “v” (o) sea verdadero si al menos es verdadero que llueva o que truene, o los dos hechos simul274 táneamente. Esto se refleja en la definición del conectivo en las tablas de verdad, cuando se pone que únicamente es falsa la proposición compuesta, si al mismo tiempo es falso que llueva, y es falso que truene. En el cálculo lógico casi no se utiliza la disyunción exclusiva que corresponde estrictamente a la “o” del lenguaje natural, en el que “llueve o truena” se utiliza en sentido fuerte, por el cual únicamente será verdadera si una de las proposiciones que la forman es verdadera, i.e. si es verdadero que llueve, o es verdadero que truena, pero no si son verdaderas las dos a la vez, como en la disyunción inclusiva. Con respecto a la conectiva llamada condicional, su versión en lenguaje natural es “si ..... entonces ....”, donde los puntos suspensivos ocupan el lugar de las proposiciones atómicas “llueve” y “truena”. Con el correcto reemplazo, leemos “si llueve, entonces truena”. En esta proposición compuesta, la proposición primera “llueve” se denomina antecedente, y la segunda “truena”, consecuente. Como vemos consultando la tabla de verdad que rige el uso de la conectiva condicional, vemos que indica que únicamente se prohibe (la proposición compuesta es falsa) que la primera proposición o antecedente “p” –llueve- sea falsa, y que la segunda proposición o consecuente –truena- sea verdadera. Prohíbe en síntesis, que se pueda conectar la falsedad de la primera proposición con la verdad segunda, pero curiosamente permite que se pueda sostener que si el antecedente es falso, el consecuente puede ser tanto verdadero como falso. El bicondicional, que puede leerse como indicando que p y q son equivalentes, naturalmente esta proposición compuesta es verdadera tanto si son verdaderas o falsas simultáneamente. Por último, la negación. La proposición “ p”, que leemos con el reemplazo adecuado de p por “llueve” como “no llueve” es verdadero si “llueve” es falso. Sintetizamos a continuación esta interpretación de las tablas, que muestran cuales son las combinaciones admisibles como verdaderas por cada conectiva. Interpretación de las tablas: Conjunción: sólo es verdadera si sus dos componentes son verdaderas 275 Disyunción (inclusiva): sólo es falsa si el valor de verdad de las proposiciones componentes es falso Disyunción (exclusiva): es verdadera cuando una de las proposiciones es verdadera, pero no cuando las dos lo son. Condicional: sólo es falsa si la proposición antecedente es verdadera y la proposición consecuente es falsa. Bicondicional: es verdadera sólo cuando las proposiciones componentes tienen igual valor ( las dos son verdaderas o las dos son falsas). En los otros casos es falsa. Negación: la negación de una proposición verdadera es falsa, la negación de una proposición falsa es verdadera. Tautología, contradicción y contingencia: Si en el resultado final encontramos sólo valores de verdad en todas sus filas, entonces decimos que es una tautología. Si encontramos sólo valores de falsedad, el resultado es una contradicción. Y la tercera posibilidad que tenemos, que en el resultado aparezcan tanto valores de verdad como de falsedad, se llama contingencia. Formas de razonamientos: Hasta aquí nos hemos referido a proposiciones y formas proposicionales, y a una de las maneras de determinar la verdad o la falsedad de dichas formas. Ahora trataremos de razonamientos y formas de razonamientos. En este sentido debemos recordar que cuando se trata de formas de razonamientos se habla de validez o invalidez, y no de verdad y falsedad como en el caso de las proposiciones. Dado el siguiente razonamiento: Si apruebo el ingreso, entonces cursaré primer año. Apruebo el ingreso. Por lo tanto, cursaré primer año. Previo a la simbolización, conviene ordenarlo: (A) Si apruebo el ingreso, entonces cursaré primer año. 276 Apruebo el ingreso Por lo tanto, cursaré primer año. Simbolizando las proposiciones que funcionan como premisas y conclusión, obtenemos: (B) p → q p -----------q (A) es un razonamiento (B) es la forma del razonamiento Condicional Asociado: Como sucede en todas las lógicas, la lógica proposicional cuenta con técnicas y métodos para determinar la validez o invalidez de las formas de razonamientos. Tendremos en cuenta sólo una de las técnicas (el condicional asociado) por dos razones: una, que el objetivo es comprender en que se basa la lógica para sostener que una forma de razonamiento es válida o inválida; otra, que permite el uso de las tablas de verdad que hemos estado viendo. La técnica del condicional asociado consiste en transformar una forma de razonamiento en una forma proposicional condicional, cuyo antecedente está formado por la conjunción (.) de las premisas, y el consecuente por la conclusión de dicho razonamiento. Ejemplo: Si partimos de la forma del razonamiento (B): pq p 277 hacemos la conjunción de las premisas: (pq) . p que constituirán el antecedente del condicional, y la conclusión q pasa a ser el consecuente del condicional, quedando lo siguiente: (C) [(p q) . p] Antecedente q Consecuente Una vez que obtenemos la forma condicional (C), aplicamos las tablas de verdad correspondientes, y realizamos el cálculo. Si el resultado es una tautología (es decir, todos los valores son verdaderos), la forma de razonamiento (B) es válida. Pero si da contingencia o contradicción, es inválida. Estamos, entonces, ante un proceso cuyas etapas son las siguientes: 1ª - reconocimiento del razonamiento (A), señalando premisas y conclusión 2ª - siombolización del razonamiento (B) 3ª - transformación de la forma de razonamiento en forma de proposición molecular condicional(por ej. C). 4ª - aplicación de la tabla de verdad 5ª -determinación de validez o invalidez de acuerdo al resultado de la tabla de verdad. Reglas lógicas: Modus Ponens y Modus Tollens. Cuando una forma elemental de razonamiento es válida, es una regla lógica (es legítimo llamarla asimismo ley lógica). Y cuando es inválida, es una falacia formal. Esa forma especial del razonamiento deductivo válido, denominado tautología, no expresa ninguna información. Otra manera de decirlo es que es trivialmente verdadero. Las leyes lógicas fundamentales son, por lo tanto, tautologías. La primera ley lógica es el principio de identidad, afirma que si cualquier enunciado es verdadero, entonces es verdadero. 278 En la escritura que introdujimos anteriormente, se afirma que todo enunciado de la forma p p es verdadero (si algo ocurre, entonces algo ocurre: “si llueve, entonces llueve”). (Otra manera de escribirlo es A = A). Su fundamentación última estriba en la necesaria coherencia del pensamiento, en el que algo no puede mientras transcurre un razonamiento cualquiera pasar a ser una cosa diferente a lo que se presentó al comienzo. Cuando se comienza a hablar de mariposas, no puede seguir el discurso refiriéndose a mesas de cocina como si se hubiera variado aquello a lo que se refiere, como si fueran la misma cosa. La segunda ley lógica es el el principio de no contradicción, que expresa que algo no puede ser él mismo y su contrario. En lenguaje lógico se escribe: (p. p) (léase: no es posible que algo sea p y no p: “no es posible que llueva y que no llueva”) Otra tautología característica es el principio que expresa que todo enunciado es o bien verdadero o bien falso, llamado también principio del tercero excluido: “llueve o no llueve” (p o no p) Simbolizado resulta: p v p Es el principio más discutido, pues tiende a eliminar los matices. Desde hace pocos años, se desarrollan lógica sin ningún tipo de defecto que prescinden del principio de no contradicción, o lo atenúan. Se llaman lógicas para-consistentes. 279 En ninguna de estas proposiciones centrales de la lógica es necesario consultar cómo es el mundo para saber si es verdadero. Es simplemente verdadero (tautológicamente) pues no puede ser de otra manera, sólo por su forma. En el segundo caso, es obvio que es verdadero, cualquiera sea el tiempo, pero no nos informa si el tiempo es lluvioso o no lo es. Las tablas de verdad, si las realizamos, confirman su carácter tautológico. Mencionaremos a continuación dos reglas muy importante, y que recibieron su nombre en la lógica medieval: el Modus Ponens y el Modus Tollens. Son sumamente importantes en el razonamiento, el primero pues permite afirmar lo que ocurre; el segundo, pues es la herramienta lógica que utiliza el método hipotético-deductivo. Modus Ponens: p→q Si tengo un condicional p entonces q p y afirmo el antecedente p --------q concluyo válidamente el consecuente q Modus Tollens: p→q -q Si tengo un condicional p entonces q y niego su consecuente no q ---------p concluyo válidamente la negación de su antecedente no p Algunos autores prefieren utilizar como variables, en lugar de p y q, las letras A y B. Esto se debe a que en realidad tanto el antecedente como el consecuente pueden ser una proposición simple o una molecular. El Modus Ponens, por ejemplo, se simboliza A→ B A 280 B Se lee alternativamente: Si A entonces B, y B es verdadero, entonces A es verdadero Falacias: En sentido estricto, una falacia es una creencia errónea o un proceso erróneo de llegar a una creencia. Falacias formales: Se denomina falacia a un razonamiento que tiene la apariencia de ser correcto, pero no lo es. Son falacias de proceso de argumento. Es esta similitud con razonamientos reconocidamente correctos los que los hace falaces, pues si fueran evidentemente erróneos, no podrían inducir a equívocos. Negación del antecedente y Afirmación del consecuente. Mencionaremos dos ejemplos de falacias: () Negación del antecedente A →B A si A entonces B no A ---------B por lo tanto no B () Si tengo un condicional y niego su antecedente, la conclusión de su consecuente es inválida. 281 () Afirmación del consecuente: A→ B si A entonces B B ---------A por lo tanto A () Si tengo un condicional y afirmo su consecuente, la conclusión de su antecedente es inválida. Esta última falacia forma parte de argumentos centrales del método hipotético-deductivo, como veremos a su tiempo. Falacias no formales: Mencionaremos únicamente dos falacias que no implican confusión con una forma de razonamiento válida. La primera de ellas es la falacia de petición de principio. Consiste en razonar en base a una o unas premisas no aceptadas como verdaderas por aquel con el cual se polemiza. En general, toda discusión acerca de una posición dada, realizada desde otra, constituye una petición de principios. Para una discusión racional, las premisas tienen que ser aceptadas por todos los que intervienen en ella. No se puede invocar la voluntad de Dios al discutir el ateismo, o la solidaridad al discutir el el darwinismo social. En síntesis, se da por probado aquello que se quiere probar. Otra falacia es la falacia ad-hominem. Consiste en afirmar la verdad de una proposición (o negarla) según quien sea quien la propone, o trasladando la supuesta pericia de quien la propone de un campo de conocimiento a otro. Pueden ser ejemplo de esto último las recomendaciones publicitarias de futbolistas exitosos para comprar el mejor electrodoméstico, o del primero, el rechazar los datos estadisticos de renta nacional simplemente porque fueron elaborados por técnicos de la Unión Industrial. Bibliografía: Blanché, Robert (1963). Introducción a la lógica contemporánea, 282 Ediciones Lohlé, Buenos Aires, capítulo segundo. Quine, W. V. (1958) El sentido de la nueva lógica, Editorial Nueva Visión, Buenos Aires, parte I. Quine, W. V. (1981). Los métodos de la lógica, Editorial Ariel, Barcelona, parte I. Seiffert, Helmut (1977) Introducción a la lógica, Editorial Herder, Barcelona, cap. 2. 283 El autor César Lorenzano CV BREVE DEL DR. CESAR JULIO LORENZANO ESTUDIOS REALIZADOS: Medicina: Facultad de Ciencias Médicas. UBA. Médico. 1960. Especialista en Diagnóstico por Imágenes: Colegio Médico Distrito IV 1971 Filosofía: Universidad Nacional Autónoma de México: Maestría en Filosofía. 1980 Doctorado en Filosofía. 1986 TRABAJOS DE INVESTIGACIÓN: cclxxxiv Tesis de Maestría: Relaciones entre estética y epistemología Tesis de Doctorado: La estructura del conocimiento Libros: La estructura psicosocial del arte. Siglo XXI. México. 1982 Reedición Ediciones Cooperativas. Buenos Aires. 2002 Los cuadernos de Vlady. UNAM. México. 1986. La estructura del conocimiento científico. Zavalía. Bs.As. 1988. 2ª. Edición aumentada en 1996. Por los caminos de Leloir. Biblos. Bs. As. 1994. El pensamiento astronómico desde los griegos a Newton. Teorías y Contexto socio-cultural César Lorenzano (ed.). Ed. Siete Colores. Buenos Aires. 2001. Historias de la ciencia argentina I. César Lorenzano (ed.) EDUNTREF. Universidad Nacional de Tres de Febrero. 2003 Historias de la ciencia argentina II. César Lorenzano (ed.) EDUNTREF. Universidad Nacional de Tres de Febrero. 2005 Historias de la ciencia argentina III. César Lorenzano (ed.) EDUNTREF. Universidad Nacional de Tres de Febrero. 2007 Historias de la ciencia argentina IV. César Lorenzano (ed.) EDUNTREF. Universidad Nacional de Tres de Febrero. 2011. El enigma del arte. Prometeo. Buenos Aires. 2009. cclxxxv ARTICULOS PUBLICADOS Artículos publicado en revistas nacionales: cincuenta y nueve. Artículos en publicaciones internacionales: treinta y cinco Artículos publicados en libros: veintiuno PONENCIAS EN CONGRESOS: Congresos Nacionales Mexicanos: cinco congresos Congresos y Jornadas Nacionales Argentinos: cuarenta y nueve congresos y jornadas Congresos Internacionales: cincuenta y seis congresos Editor de revistas especializadas Editor de I + D Investigación y Desarrollo, Secretaría de Ciencia y Técnica de la Argentina, 1995-1998 Coeditor con Pablo Lorenzano de la revista Metatheoria, revista de filosofía e historia de la ciencia, EDUNTREF, primer número octubre de 2010. Indexada en la actualidad ACTIVIDAD ACADEMICA Profesor Titular de Filosofía de la Ciencia en la Facultad de Filosofía y Letras de la Universidad Nacional de México 1976-1986 Profesor Titular de Historia de la Ciencia en la Facultad de Filosofía y Letras de la Universidad Nacional de México 1976-1986 Profesor Titular de Filosofía de la Ciencia en el Ciclo Básico Común de la Universidad de Buenos Aires 1987-2004 cclxxxvi Profesor Titular de Teoría y Sociología del Arte en la Facultad de Ciencias Sociales de la Universidad de Buenos Aires 1987-2008 Profesor Titular de Filosofía de la Ciencia en la Universidad Nacional de Tres de Febrero 1998 y continúa Profesor Invitado en más de 20 universidades de Argentina, Brasil, Europa Profesor de Posgrado en más de 15 instituciones universitarias en Argentina y el exterior EVALUADOR DE INSTITUCIONES Evaluador de la Universidad Nacional de Tucumán, CONEAU, Argentina Evaluador del Instituto Universitario del Ejército, CONEAU, Argentina Autor de la Autoevaluación de la Universidad del Museo Social Argentino, Argentina Autor de la Autoevaluación de la Universidad Nacional de Tres de Febrero, Argentina PLANIFICACION UNIVERSITARIA Autor del Proyecto Institucional y Académico de la Universidad Nacional de Tres de Febrero Autor del Plan de Estudios de la Facultad de Medicina, Universidad Maimónides Autor del Plan de Estudios de la Maestría y Doctorado en Epistemología e Historia de la Ciencia, Universidad Nacional de Tres de Febrero Coautor de los planes de estudio de más de 15 carreras de grado y de posgrado cclxxxvii GESTION UNIVERSITARIA Director de Departamento de Introducción al Pensamiento Científico de la Universidad de Buenos Aires 1988-1996 Director del Departamento de Ciencias Sociales de la Universidad Nacional de Tres de Febrero desde 1998 y continúa CoDirector de la Maestría en Psicoanálisis de la Universidad Nacional de La Matanza 1999-2014 Director de la Maestría y Doctorado en Epistemología e Historia de la Ciencia de la Universidad Nacional de Tres de Febrero desde 1999 y continúa los diversos reglamentos de ética que se aplican en esta institución. Desde 2005 4. Homenaje como Maestro de la Filosofía Argentina. Congreso Internacional Extraordinario de Filosofía. San Juan. 2007 5. Nombrado “Académico Correspondiente Efectivo y Perpetuo por la Academia Brasileira de Filosofía en Honra a su Mérito. 2010”. 6. Presidente Asociación Filosófica Argentina AFRA 2010-2012. 7. Miembro del Comité Ejecutivo de la Federación Internacional de Sociedades de Filosofía FISP, elegido en su Asamblea General, en Atenas, agosto de 2013. PREMIOS Y DISTINCIONES: 1. Premio Nacional de Historia de la Ciencia “Dr. José Babini”. CONICET. 1990 Luis Lelor. Un científico paradigmático. Mención Especial. 2. Premio Nacional Instituto Nacional de Bellas Artes. México. 1983. La revolución y los elementos. Murales de Vlady. Primer Premio 3. Miembro fundador del Comité de Etica del CONICET y coautor en ese carácter de cclxxxviii 8. Representante argentino ante la Asamblea General de la División de Historia de la Ciencia DHST / Unión Internacional de Filosofía e Historia de la Ciencia IUHPS. Desde 1998. 9. Representante Argentino ante la División de Lógica, Metodología y Filosofía de la Ciencia DLMPS / Unión Internacional de Historia y Filosofía de la Ciencia IUHPS 18 Contratapa NUEVO LIBRO DE EPISTEMOLOGIA DE CESAR LORENZANO Si bien comparte algunos temas de epistemología con “La estructura del conocimiento científico” de su autoría, constituye una completa novedad. El enfoque cambió, enriquecido por las investigaciones y estudios realizadas por César Lorenzano en los treinta años transcurridos de la primera edición de “La estructura”, muchas de las cuales culminaron en artículos en publicaciones periódicas y libros especializados –en número cercano a los 100-. En ellos se utilizan las concepciones epistemológicas más actuales para analizar teorías científicas en su estructura, historia y aplicación a fenómenos del mundo, en la creencia que la filosofía debe servir para conocer en profundidad teorías científicas reales, y no para la escolástica habitual de interpretación de autores y discusión de otras interpretaciones. Es un libro de texto para alumnos universitarios sin formación en filosofía. Reúne la experiencia del autor en cursos de grado y posgrado por más de treinta años, escrito especialmente para ese tipo de lectores. El lenguaje es ágil, y los ejemplos pertenecen a la medicina, una disciplina con la que todos tiene contacto, lo que los hace sumamente comprensibles. 289 Se procura que a su término, el lector puede responder las siguientes preguntas básicas, que resumen las preocupaciones de la epistemología, también llamada filosofía de la ciencia, o metodología, como Popper denominó a su primer seminario en Londres. ¿Qué es la ciencia, y cuál es su estructura? ¿Cuál es su método? ¿Cómo se investiga? En el texto se presentan en su sucesión histórica las distintas epistemologías, comenzando por la metodología inductivista, se continúa con la hipotético-deductiva, para pasar a considerar la crítica que le efectúa desde la historia de la ciencia la concepción de Thomas Kuhn y de Imre Lakatos, para terminar con las concepciones semánticas, particularmente el estructuralismo. En esta última se da la síntesis entre la tradición que utiliza lenguajes formales para comprender la ciencia y la que introduce su historia. Se presenta a la concepción estructuralista sin usar formulas matemáticas, y posteriormente se muestra cómo puede utilizarse para analizar aspectos de la medicina, en este caso, la estructura científica del diagnóstico médico, usando en vez de teoría de conjuntos o de modelos, diagramas que muestran la estructura de manera rigurosa, pero fácilmente comprensible. Si le interesa el tema, sea como alumno o profesor universitario, o simplemente alguien interesado en el tema, puede adquirir un ejemplar digital hermosamente diagramado e ilustrado en la página web que el autor sostiene a fin de dar a conocer su producción filosófica e histórica. Primeramente se encuentran en la página libros y videos. Posteriormente estarán la totalidad de los artículos publicados, y de ser posible, los PowerPoint presentados congresos. Los libros están arancelados, para compensar el esfuerzo económico editorial realizado por el autor. No es así los videos, ni los artículos y las presentaciones en PowerPoint. 290 Se recomienda leer los libros mediante el programa iBook de Apple, disponible para cualquier plataforma además de OS X o IOS de Apple, como lo son las de Windows de Microsoft o Android de Google, pues permite pasar las hojas como las de cualquier lector digital, mediante un click en equipos de escritorio, o táctilmente en una tabla. Los videos, realizados íntegramente por César Lorenzano, intentan presentar de manera diferente y mas clara concepciones epistemológicas y teóricas en general, en la creencia que es imprescindible salir del clásico “paper” leído a apuradas en los congresos, y que la información que portan las imágenes es comprensible incluso para legos con escolaridad media. La página es la siguiente: www.epistemology.com.ar El motivo para registrar el nombre en inglés fue que epistemología –elegido como primera y única opción- ya estaba registrado por la Universidad de Rosario. En cambio, no lo estaba su traducción al inglés en la entidad del Ministerio de Relaciones Exteriores que otorga y registra los nombres de las páginas web. No se quiso registrar en el exterior (.com, y no com.ar) para conservar sus características argentinas. Sepa el lector disculparlo. 291