Historia de La Fisica-Universidad Cienfuegos PDF
Historia de La Fisica-Universidad Cienfuegos PDF
Historia de La Fisica-Universidad Cienfuegos PDF
Rolando Delgado Castillo
Francisco A. Ruiz Martínez.
Universidad de Cienfuegos.
INTRODUCCIÓN
PRÁCTICAS Y TEORÍAS FÍSICAS DEL MUNDO ANTIGUO
DE ARISTÓTELES A PTOLOMEO EN EL MUNDO GRECOROMANO
ESPLENDOR DE LA CIENCIA ÁRABE Y REVOLUCIÓN DE COPÉRNICO
LA REVOLUCIÓN DEL XVII, NEWTON Y EL PARADIGMA MECÁNICO
ELECTRICIDAD Y CALOR EN EL XVIII
APOGEO DEL ELECTROMAGNETISMO EN EL XIX
REVOLUCIÓN CIENTÍFICO – TÉCNICA DEL SIGLO XX
1
INTRODUCCIÓN
Rolando Delgado Castillo y Francisco Arturo Ruiz.
Universidad de Cienfuegos
En la actualidad, un gran interés despierta el conocimiento y la comprensión
del proceso sociohistórico que ha conducido al desarrollo de la ciencia. Las
relaciones entre la Ciencia, la Tecnología y la Sociedad se han convertido en un
amplio campo de estudio [1].
Paradójicamente, en medio de los avances que supone vivir los tiempos de “la
sociedad de la información”, una gran confusión se advierte cuando se pretende
juzgar la responsabilidad de la ciencia en los peligros y desafíos que
caracterizan nuestra época histórica y se vinculan los grandes descubrimientos
científicos casi exclusivamente con el genio de determinadas personalidades.
2
ante todo para transformar el mundo en función de las necesidades que un
contexto sociocultural impone en un escenario históricamente condicionado.
Imagen: The Galileo Project Web Site http://galileo.rice.edu/bio/index.html
Siguiendo los principios esbozados arriba, deseamos subrayar que el credo que
orienta este trabajo se sintetiza en:
El rechazo a la retrógrada intención, recordada tristemente por la Historia,
de satanizar los resultados de las ciencias, y a cualquier retoque académico
que pretenda desplazar hacia el progreso científico la responsabilidad de los
enajenantes problemas de la sociedad contemporánea.
La admisión de la notable influencia que ha de ejercer la dotación genética
en el complejo proceso de formación de un genio, pero el desconocimiento a
cualquier intento de atribuir a sexo, raza o región geográfica, el monopolio
del talento.
La confianza en la utilidad enaltecedora de la virtud solidaria frente a la
egoísta y decadente moral del éxito.
La creencia firme de que una sociedad mejor es posible, y que su construcción
dependerá en buena medida de las conciencias que se abonen a través de una
universal batalla de ideas, en la que jugará un importante lugar el discurso
que se haga de la Historia.
3
Por consiguiente, nos interesa especialmente contribuir a:
Entender la ciencia no sólo como un resultado sino también como un proceso
que se renueva y amplia por la actividad de individuos que se organizan en
comunidades científicas, en interacción permanente con las coordenadas
económicas, políticas y éticas de su propio escenario sociohistórico.
Humanizar la imagen de los genios que escriben la historia de las ciencias.
Comprender los momentos más trascendentes de expansión del universo de los
conocimientos matemáticos, físicos y químicos, aquellos que emergen de
profundas crisis en el campo de las ideas y que constituyen verdaderas
revoluciones científicas.
Imagen: The Center for History of Physics. http://www.aip.org/history/curie/
Revelar las resonancias que el progreso científico ha producido en la esfera
material y espiritual de la sociedad.
No nos parece superada la conceptualización alcanzada por Krober: "…entendemos
la ciencia no sólo como un sistema de conceptos, proposiciones, teorías,
4
hipótesis, etc., sino también, simultáneamente, como una forma específica de la
actividad social dirigida a la producción, distribución y aplicación de los
conocimientos acerca de las leyes objetivas de la naturaleza y la sociedad. Aún
más, la ciencia se nos presenta como una institución social, como un sistema de
organizaciones científicas, cuya estructura y desarrollo se encuentran
estrechamente vinculados con la economía, la política, los fenómenos culturales,
con las necesidades y las posibilidades de la sociedad dada" [4].
Respecto a la clásica obra de T. S. Khun (19221996) “Estructura de las
Revoluciones Científicas” sólo reconocemos y tácitamente usamos la original y
extendida terminología que nos legó su original visión sobre la Historia de las
Ciencias. Al hacerlo, aceptamos una parte de sus supuestos, como la aguda
percepción sobre la polémica en el seno de la comunidad científica y su
reconocimiento a las crisis de las ideas que preceden a las revoluciones
científicas [5].
La Física se parte en dos cuando aparecen publicados en 1687
sus famosos “Philosophiae Naturales Principia Matemática”. Se
subvierte entonces todo la cosmovisión aristotélica del
movimiento de los cuerpos y una nueva Mecánica emerge: se ha
producido un desplazamiento megaparadigmático.
Transcurrirían más de dos siglos para que apareciera la teoría
de la relatividad einsteniana que limita los contornos en que
se cumplen los Principios de Newton. Para tener una idea del
grado de validez de la mecánica newtoniana baste saber que el
diseño, control y corrección de las órbitas de los satélites
terrestres y las naves espaciales, son realizados enteramente
con arreglo a las predicciones de las leyes de Newton. [6]
Imagen: School of Mathematics and Statistics. University of St Andrew.
Scotland. http://wwwhistory.mcs.standrews.ac.uk/Mathematicians/Newton.html
Pero más que estas concepciones nos interesa destacar la compleja dialéctica
entre el desarrollo del conocimiento científico y las coordenadas
socioculturales del escenario histórico en que se verifican. Por otra parte
compartimos el criterio expresado por Steven Weinberg (Premio Nóbel de Física en
1979) en una retrospectiva sobre el trabajo de Kuhn:
“No es verdad que los científicos sean incapaces “de conectarse con diferentes
formas de mirar hacia atrás o hacia delante” y que después de una revolución
científica ellos sean incapaces de comprender la ciencia que le precedió. Uno de
5
los desplazamientos de paradigmas a los cuales Kuhn brinda mucha atención en
“Estructura” es la sustitución al inicio de esta centuria de la Mecánica de
Newton por la Mecánica relativista de Einstein. Pero en realidad, durante la
educación de los nuevos físicos la primera cosa que les enseñamos es todavía la
buena mecánica vieja de Newton, y ellos nunca olvidan como pensar en términos
newtonianos, aunque después aprendan la teoría de la relatividad de Einstein.
Kuhn mismo como profesor de Harvard, debe haber enseñado la mecánica de Newton a
sus discípulos” [7].
El determinismo que defendemos no ignora la autonomía relativa que desarrolla
el sistema teórico de una ciencia, en particular de la Matemática, y que ha
conducido en no pocas ocasiones a penetrar en áreas que no encuentran en la
época de su desarrollo una explicación al origen de sus fuerzas motrices. Más
tarde, sin embargo, las abstracciones indescifrables de determinadas obras han
encontrado una relevante aplicación. Tampoco desconoce el papel de la casualidad
acaso representado por el legendario grito de eureka. Por lo tanto no se trata
de que exista un condicionamiento lineal y estático entre el desarrollo de la
ciencia y la época histórica dada.
La Matemática, en un cierto sentido reina de las ciencias, no parece que se
iniciara como resultado de la inclinación humana por un saber abstracto. Las
primeras civilizaciones necesitarían del desarrollo de los conocimientos
geométricos para la construcción de sus asentamientos y a veces monumentales
edificaciones.
6
impacto de estas nuevas Geometrías con sus grandes abstracciones fue decisivo
para el desenvolvimiento de la Física Teórica Moderna. El siglo XX vería
aparecer la Geometría Fractal de Mandelbroit, que reconoce las dimensiones
fraccionarias, con extraordinaria incidencia en el desarrollo de las imágenes
computarizadas. El camino al infinito mostrado en la construcción histórica
del conocimiento geométrico es sólo un caso particular de la naturaleza del
conocimiento.
Hoy las Matemáticas definen como objeto de estudio las cantidades, magnitudes y
propiedades, así como las operaciones lógicas utilizadas para deducir
cantidades, magnitudes y propiedades desconocidas.
Filosofía y reflexión matemática encontraron comunión en algunos sabios griegos
de la talla de Tales, Pitágoras y Eratóstenes. Luego del Renacimiento Europeo,
también se apreciaría esta integración de notables filósofos que logran ser
extraordinarios matemáticos. Hacia la primera mitad del siglo XVII se destaca
como exponente de esta fusión, la monumental obra de René Descartes considerado
fundador de la Geometría Analítica y de la Filosofía Moderna.
El maridaje de las Matemáticas con las Físicas se aprecia con fuerza ya en el
resplandor de la cultura alejandrina, con el desarrollo de la Astronomía y
determinadas ramas de la Física; continúa en la trascendental formalización
matemática de los estudios de Kepler y Galilei; resulta decisivo y hace
coincidir el nacimiento de la Mecánica Clásica y del Cálculo Infinitesimal; es
clave en el desarrollo del paradigma electromagnético; y llega hasta nuestros
días con el desarrollo de la Mecánica Cuántica y la descripción de las leyes del
mundo subatómico.
7
La Física, la ciencia que estudia las propiedades y la estructura de la
sustancia (partículas y sistemas de partículas) y de los campos y las
interrelaciones entre ellos, ha sido construida pues en permanente interrelación
con el desarrollo de las Matemáticas.
En 1939 Einstein junto con otros físicos envió una carta al
presidente Roosevelt solicitando el desarrollo de un programa
de investigación que garantizara el liderazgo de los aliados
en la construcción del arma atómica. En 1945, intentó
disuadir al presidente para que el arma nuclear ya creada no
fuera utilizada. [9]
El resto es conocido: el 9 de agosto de 1945 la humanidad se aterrorizaba
con la hecatombe nuclear en Hiroshima, días después se repetía la escena en
Nagasaki. Se inauguraba la época del arma nuclear. Después de la guerra,
Einstein se convirtió en activista del desarme internacional. [8]
Imagen: Nobel eMuseum,© The Nobel Foundation.
El objeto de estudio de la Física engloba así distintas formas particulares del
movimiento de la materia, el movimiento mecánico y el movimiento físico,
constituido a su vez por el movimiento térmico y el movimiento electromagnético.
Como se trata de estudiar estas formas del movimiento, la Física se relaciona
intrínsecamente con las propiedades más generales del espacio y el tiempo,
formas universales de existencia de la materia.
El amplio dominio de la Física abarca:
El estudio de los movimientos mecánicos de las partículas y los sistemas de
partículas, tanto para el macromundo como para el micromundo, para las bajas
y altas velocidades.
Los procesos de transmisión del calor y de energía en general, de masa y de
cantidad de movimiento para una partícula aislada y para sistemas de
partículas, tanto a las altas temperaturas y presiones como a las bajas
temperaturas y presiones.
8
Los procesos de interacción entre las partículas y los sistemas de partículas
cargadas eléctricamente, en reposo o en movimiento con respecto a un sistema
de referencia dado, con el campo electromagnético, tanto en la región
macroscópica como para la microscópica, para bajas y altas velocidades.
Las áreas de estudio clásicas encuentran una culminación alrededor de la mitad
del siglo XIX y a la vez, con la explosión de los avances científicos iniciada
en los límites del siglo XIX al XX, se van conformando nuevos ámbitos entre los
que se pueden citar: Física de las Bajas Temperaturas; Cromodinámica; Física de
la Gravitación; Física del Sólido; Física de las Altas Energías y otras que
marcan la punta de los progresos en las Ciencias Físicas.
En las fronteras con otras ciencias han aparecido ramas tales como: Astrofísica;
Física de la Atmósfera; Metalofísica; Física de los Materiales (enmarcada en las
Ciencias de los Materiales); Cosmogonía; Biofísica, etc.
El físico teórico Stephen Hawking (1942 ) es la figura líder
de la moderna cosmología. Mientras estudiaba Física y
Matemáticas en las universidades de Oxford y Cambridge tuvo
que aprender a convivir con un desorden degenerativo del
sistema nervioso, conocido como enfermedad de Lou Gehrig, que
lo conduciría a una cuadriplegia, es decir, a una
inmovilización total. Su talento no se perdería temprano
gracias a la alta tecnología puesta a su servicio y al
extraordinario espíritu de Hawking. Los médicos le dieron al
diagnosticar su enfermedad dos meses de vida, este año
cumplió los sesenta.
Hawking logró enlazar la mecánica cuántica y la relatividad las dos
principales teorías de la Física moderna, desarrollando la teoría cuántica de
la gravedad.[9]
Imagen: Sitio web personal. http://www.hawking.org.uk/about/aindex.html
9
El impacto de los conocimientos físicos en la sociedad moderna abarca
prácticamente todos los ámbitos de su realidad. Pero tres símbolos de los
grandes retos de la humanidad, la conquista del cosmos, el dominio de nuevas
fuentes energéticas, y la revolución en las comunicaciones han recibido un
impulso decisivo con el progreso de las Ciencias Físicas.
Es curioso advertir que uno de los protagonistas de la Revolución de la Química
del siglo XVIII, J. Priestley (17331804), en su relación epistolar con B.
Franklin (17061790) le confiesa (20 años antes de los experimentos de C.
Coulomb (17361806)) su deducción de que la atracción electrostática debía
estar sujeta, de acuerdo con ciertas experiencias conducidas por Franklin, a
leyes del mismo carácter matemático que las de la gravitación. Sorprende
asimismo conocer que el invento de la pila eléctrica por A. Volta (17451827),
le permitió a H. Davy (1778 – 1825) entre 1807 y 1808 descubrir 5 metales
activos, el mismo número de elementos que se descubriría durante siglos de
infructuoso esfuerzo alquimista.
De otro lado, un experimentador como Faraday, considerado uno de los padres del
electromagnetismo por el descubrimiento de la ley de inducción magnética,
descifró las leyes de la electrólisis y aisló por vez primera el benceno.
Recorriendo el camino “descendente” hacia la práctica, la Física Química sirve
de plataforma de lanzamiento de las Ciencias de los Materiales, los Procesos de
Ingeniería y la Electrónica. El dominio de este ámbito convergente de la Física
y la Química ha resultado premisa para el desarrollo impetuoso de cinco áreas
vitales para la sociedad contemporánea: energía, producción de alimentos, salud,
transporte y comunicaciones.
10
El químicofísico estadounidense Linus Pauling (19011994)
mereció el Premio Nobel en dos oportunidades, el primero en
1954 por sus investigaciones sobre la naturaleza del enlace
químico y en 1962 por su relevante labor a favor de la paz.
Sus predicciones sobre la compleja estructura molecular de las
proteínas ejercieron una profunda huella en el desarrollo de
los conocimientos sobre los procesos de la vida. Linus y su
compañera de vida Ava H. (19031981) trabajaron
infatigablemente por el desarme nuclear, por detener el
desarrollo del armamento atómico, y por prevenir todo tipo de
pruebas que afectaran nuestra atmósfera o mares. Ava tuvo
razón cuando proclamó en un Congreso de Químicos que más
importante que el enlace de hidrógeno es el enlace humano.
[10] Imagen: Nobel eMuseum,© The Nobel Foundation.
La interpenetración del conocimiento físico con el estudio de los seres vivos,
para dar lugar a un sistema teórico con problemas y objetos propios, la
Biofísica, aparece ya en el siglo XX aunque numerosas aplicaciones de las
invenciones y principios epistemológicos de la Física se aprecian desde mucho
antes en la construcción del conocimiento biológico .
En efecto los métodos cuantitativos y experimentales de la Mecánica practicados
en Pisa por Galileo, encontraron eco en las Escuelas de Medicina de Padua y
Bolonia. Correspondió al médico Santoro Santorio (15611635) introducir en la
práctica clínica diferentes instrumentos de medición como el pulsilogium y el
termoscopio galileano.
Un siglo después, cuando el mecánico Robert Hooke (1635 – 1702), construye un
microscopio perfeccionado que le permitió descubrir en 1665 la existencia de
células en tejidos, estaba poniendo en manos de los investigadores de los seres
vivos una técnica que significaba una amplificación de la visión y el
descubrimiento de un universo microscópico invisible para una práctica humana de
miles de años. Así el fisiólogo italiano Marcello Malpighi (16281694) inaugura
la Anatomía Microscópica, y descubre la red de capilares pulmonares que viene a
completar el ciclo circulatorio descrito por Harvey. A partir de entonces los
planteamientos y soluciones de los problemas de esta disciplina se apoyan cada
vez más en los logros de la Mecánica, y de la Física, apartándose de
explicaciones basadas en designios sobrenaturales.
Bajo el paradigma del microscopio, a fines del siglo XIX, Walther Flemming
(1843 – 1905) descubre que durante la mitosis celular ciertas estructuras
11
adoptan forma de cintas y se dividen longitudinalmente en dos mitades idénticas.
La segregación en el núcleo de pares de estructuras a las células hijas no pudo
relacionarse con la deducción de Gregor Mendel (1822 – 1884), de que cada uno
de los caracteres del organismo está determinado por un par de “factores” o
unidades hereditarias, que son aportados uno por cada progenitor.
Schwann (1810 – 1882) que asigna a la célula la unidad de estructura y función
de todas las formas de vida y se considera el principio de estructuración de
las ciencias biológicas. Fue asimismo el microscopio el instrumento
indispensable para la invasión del hombre, en la cabeza visible de Pasteur,
hacia el universo de los organismos microscópicos y la fundación en
consecuencia de la Microbiología [11]. Imagen: Instituto Tecnológico de
California.
www.its.caltech.edu/~atomic/snowcrystals/earlyobs/micrographia.jpg
Cada invención conectada con el universo físico y en particular las tecnologías
relacionadas que se difundieron durante el siglo XX, fueron fertilizando la
12
conquista del mundo biológico. También el descubrimiento de nuevas radiaciones
penetrantes exigió el empeño de un nuevo tipo de investigador y de colectivo de
investigación que integraran conocimientos físicos y biológicos para evaluar su
impacto sobre los mecanismos de la vida y su reproducción.
El propio surgimiento de la Biofísica resume este largo proceso de integración y
convierte a esta disciplina en una aliada de las áreas más dinámicas del
conocimiento del nuevo siglo: la Biología Molecular, la Ingeniería Genética y la
tercera generación de la Biotecnología.
Sin embargo, lo que podría considerarse logros de la humanidad, ha comenzado a
despertar inquietud en la opinión pública por las controvertidas consecuencias
éticas, jurídicas y sociales que se derivan de la manipulación genética
irracional de los seres vivos. Buena parte de la comunidad científica ha
alertado sobre estos peligros y ha rechazado posibles turbios manejos de la
información genética.
Así una evaluación del impacto que la Ciencia y la Tecnología pueden ejercer en
el desarrollo de la sociedad contemporánea revela la importancia de impulsar
una batalla en el campo de las ideas, en la cual la educación (y la lectura que
se haga de la historia) jugará un rol decisivo para salvaguardar los logros de
la humanidad. El progreso científicotécnico podrá ser usado para el bien o
para el mal.
13
de la ingeniería genética.
A este acto fundacional asistían dos biofísicos, un bioquímico y una química
física. Rosalind, que víctima de un cáncer muere con solo 38 años, se ha
considerado un ejemplo de la discriminación de la mujer aún en el campo de la
ciencia en época tan reciente como la segunda mitad del siglo XX.
[12] Imagen: Department of Physics and Astronomy. Universidad de California,
Los
Ángeles. http://www.physics.ucla.edu/~cwp/Phase2/Franklin,_Rosalind@841234567.
html
BIBLIOGRAFIA:
[1] Núñez J (2000): La Ciencia y la Tecnología como procesos sociales. Sala de
CTS. Organización de Estados Iberoamericanos para la Ciencia, la Educación y la
Cultura http://www.campusoei.org/salactsi/nunez00.htm#9
http://www.nobel.se/chemistry/laureates/1911/mariecuriebio.html
[4] Kröber, G. (1986): Acerca de las relaciones entre la historia y la teoría
del desarrollo de las ciencias, Revista Cubana de Ciencias Sociales, enero
abril, año IV, Nº 10, p.37. La Habana.
[5] Kuhn, T.S. (1982): La estructura de las revoluciones científicas. Fondo de
Cultura Económica. México.
[6] O'Connor J. J., Robertson E. F. (2000): Isaac Newton. School of Mathematics
and Statistics.University of St Andrew. Scotland.
http://wwwhistory.mcs.standrews.ac.uk/Mathematicians/Newton.html
[7] Stenger Victor J. (2000): Cita de Steven Weinberg en 2. The Whole is Equal
to the Sum of its Particles. p. 30. Timeless Reality: Symmetry, Simplicity and
Multiple Universes. Amherst, N.Y. Prometheus Book.
[8] Braun Eliezer (1997): Una faceta desconocida de Einstein. Fondo de Cultura
Económica de México.
http://omega.ilce.edu.mx:3000/sites/ciencia/volumen1/ciencia2/19/htm/sec_14.htm
14
[9] www.hawking.or.com (2005): About Stephen. A brief story of mine.
http://www.hawking.org.uk/about/aindex.html
[10] a] Marinacci Barbara (1994): Linus Pauling—Scientist for the Ages. The
Linus Pauling Institute.
Oregon State University. http://lpi.oregonstate.edu/ss01/avpauling.html
[11] O'Connor J. J., Robertson E. F. (2000): Mathematicians born from 1600 to
1649. School of Mathematics and Statistics. University of St Andrew.
Scotland. Hooke
http://wwwhistory.mcs.standrews.ac.uk/Indexes/1600_1649.html
[12] UCLA Department of Physics and Astronomy website (2003): Rosalind
Franklin (1920 – 1958).Contributions of 20th Century Women to
Physics.http://www.physics.ucla.edu/~cwp/Phase2/Franklin,_Rosalind@841234567.htm
l
15
Prácticas y teorías físicas del Mundo Antiguo
Rolando Delgado Castillo y Francisco Arturo Ruiz
Universidad de Cienfuegos
El impreciso término de Mundo Antiguo
Bibliografía
Al emplear aquí el término de “Mundo Antiguo” estamos considerando ese extenso
período histórico que se inicia, según los datos arqueológicos disponibles, en
Oriente Próximo y en Egipto hacia finales del IV milenio a.C., y termina con el
proceso de disolución del imperio romano hacia la mitad del siglo V. En otras
palabras estamos intentando sumariar los logros en el conocimiento físico y
otros hitos relacionados con este ámbito, durante el colosal intervalo de cuatro
mil quinientos años, unas tres cuartas partes de los tiempos históricos.
Lo que reconocemos como egipcios, sumerios, chinos o mayas es un producto
cultural, con su repertorio de realizaciones materiales y espirituales, cuya
identidad se alcanza en un escenario territorial a partir de un momento
determinado. A pesar de lo irrepetible y singular de la construcción de cada
cultura del llamado mundo antiguo se torna claro que ciertas regularidades
presidieron esa compleja edificación histórica.
El proceso de transformación de la aldea en ciudad se combina con la producción
de espectaculares descubrimientos o inventos, que coinciden cronológicamente en
16
cada región porque se dan las condiciones oportunas, pero que al mismo tiempo
contribuyen decisivamente a la transformación de la realidad.
El progresivo incremento del excedente agrícola y el correspondiente aumento de
la actividad comercial abren la posibilidad de una especialización o división
social del trabajo. Resultado de esta división social aparecen diferentes
ocupaciones entre las que se encuentran los encargados de desarrollar e imponer
una ideología, como paradigma cultural al servicio del grupo dominante. El
aparato estatal está entonces en el orden del día histórico para garantizar los
intereses de esta clase y supuestamente regular las normas y relaciones en
beneficio de la colectividad.
Con los estados surge una mecánica de la violencia en las relaciones
intercomunitarias, basada en la solución del litigio mediante la confrontación
bélica. La filosofía de la guerra, alentada por el botín como fuente de
adquisición de riqueza, que en un momento determinado alcanza al propio hombre
esclavizado, conduce al ciclo de vida de los imperios esclavistas: la expansión,
el esplendor, la crisis de las contradicciones internas y, a la larga, la
decadencia y desaparición.
La memoria social atrapada en la escritura aparece
soportada por diferentes materiales. La propia
piedra, una tablilla, fueron los primeros materiales
sobre los cuales el hombre inscribiría sus memorias.
El papiro vendría a representar una revolución en
los procedimientos para perpetuar una escritura. El
papiro (Scirpus lacustris) crecía en extensas zonas
pantanosas del Nilo, y de su caña fabricaban, por un
ingenioso procedimiento que utilizaba el propio
jugo del tallo como pegamento, los rollos del
papiro.
Gracias a los papiros que se conservan conocemos el nivel alcanzado por la
ciencia y la técnica del Antiguo Egipcio.
Las primeras grandes civilizaciones tenían ante sí diversos problemas de
supervivencia que los sabios de la época debieron abordar y contribuir a
resolver desde la luz que ofrece la teoría. Investidos generalmente de atributos
religiosos, en las primitivas formas que adoptó la división social del trabajo,
sus conocimientos eran mantenidos y transmitidos en comunidades cerradas, como
un instrumento más de poder.
17
Los conocimientos en el área de las transformaciones físico químicas de las
sustancias que constituyeron conquistas de las civilizaciones del mundo antiguo
no estuvieron acompañadas de una reflexión teórica, sino más bien de una
práctica iluminada por el ensayoerror y no pocas veces asistidas por la
casualidad. Esto no niega la existencia de una práctica intencional dirigida a
aprovechar todos los elementos naturales o sus modificaciones para bien de la
comunidad.
Los primeros asentamientos humanos se establecieron en los valles de los grandes
ríos. Mesopotamia, una de las cunas de la civilización, debe su nombre a su
ubicación geográfica "entre dos ríos". En la llanura que se extiende entre el
Tigris y el Eúfrates, región fértil que ofrecía potencial capacidad para el
desarrollo de la agricultura, surgió la civilización sumeria hacia el 3250 a.C.,
y con ella las primeras ciudades. Sumerios, asirios y babilonios fueron tres
culturas que se sucedieron a lo largo de tres milenios, teniendo como escenario
este territorio, y que sobresalieron por sus logros en el campo de la vida
material y espiritual de sus ciudades.
La inauguración hace unos diez mil años de la cultura de la cerámica, supuso el
dominio de la arcilla, mineral complejo formado por un silicato de aluminio que
posee una cierta naturaleza plástica y que al secar o ser sometido a
calentamiento endurece.
Al aprender el hombre a trabajar el barro, se inicia la producción de ladrillos
y el desarrollo del arte alfarero, que coincide en ciertas civilizaciones con
el desarrollo de la agricultura y la edificación de los primeros asentamientos
humanos. La ciudad antigua de Jericó, una de las primeras comunidades agrícolas,
muestra en su segundo nivel de ocupación, que data del milenio VIII a.C., un
gran número de casas redondas de ladrillo de adobe.
de la cultura de la tierra y la práctica de la caza, facilitó el progreso de
las construcciones y finalmente transfiguró el escenario bélico.
18
Imagen:http://www.mundofree.com/diomedes/hmasurbcazleoG.jpg
El suelo de Mesopotamia proporcionaba la arcilla que aprendieron a cocer sus
artesanos para obtener la terracota con la que realizaron cerámica, esculturas
y tablillas para la escritura. Sobre tales tablillas, los sumerios desarrollaron
un sistema de escritura que se ha dado en llamar cuneiforme (por adoptar un
sistema de símbolos en forma de cuñas).
También nos legan los sumerios, sobre doce tablillas o cantos de arcilla, el
primer poema de la antigüedad, el Poema de Gilgamesh, escrito alrededor del año
2000 a.C. Este poema heroico recibe el nombre de su héroe, Gilgamesh, y narra la
epopeya tejida por dos personajes que forjan una admirable amistad.
En materia de tecnología y construcciones se atribuye a la cultura sumeria: la
invención de la fundición del bronce por el método de la cera perdida; la
construcción de carretas y furgones; la fabricación de ladrillos empleados en la
elevación de murallas defensivas en ciudades como Uruk (2800 a.C.); la erección
de palacios como el de Sargón el Grande (23352279 a.C), el primer creador de un
gran imperio que conquista toda Mesopotamia, parte de la actual Siria, Asia
Menor, y buena parte del territorio que más tarde fuera Persia; el levantamiento
de diques y la apertura de canales en evitación de las inundaciones (hacia el
2630 a.C.); la edificación de templos de adobe decorados con fina metalurgia y
una ornamentación de ladrillos vidriados como el gran zigurat de Ur erigido en
el segundo milenio a.C. y dedicado a la deidad lunar de la religión sumeria; la
utilización del alabastro y el trabajo con algunos metales como el oro, la plata
y el cobre en la escultura.
En el primer período de la dinastía babilónica, uno de cuyos gobernantes fue el
célebre Hammurabi (1790 a.C.), se desarrollan las aportaciones de los
babilonios a la naciente Matemática. Como lo demuestra la existencia de una
tablilla de arcilla datada entre los años 1900 y 1600 a.C. (llamada Pimton 322)
los babilonios dominaban unas matemáticas más avanzadas que los egipcios.
Sobresale en esta obra la revelación del método para obtener las raíces
positivas de ecuaciones de segundo grado, y la compilación de una gran cantidad
de tablas matemáticas que incluyeron las operaciones de multiplicación y
división.
Los babilonios inventaron el sistema de numeración en base 60 que todavía esta
presente en nuestro sistema de medida del tiempo y de los ángulos. Tal sistema
de numeración babilónico, venía representado por un sistema de cuñas. El número
1 se representó por una cuña sencilla y el número 10 por una especie de flecha.
19
Así los números hasta el 59 eran simbolizados por un procedimiento aditivo,
cinco flechas sucesivas y nueve cuñas. Pero el 60 mereció el mismo símbolo del
uno. Se generó así el llamado sistema sexagesimal, que tiene como base el 60. La
ventaja de este sistema radica en el hecho de que el 60 es divisible por 2, 3,
4, 5, 6, 10, 12, 15, 20 y 30, lo que elimina el frecuente trabajo con fracciones
que causaba problemas para los antiguos. Implícitamente aún hoy lo seguimos
utilizando ya que dividimos la hora en 60 minutos y este en 60 segundos; además
el círculo tiene 360º (60 x 6).
Los babilonios inventaron el sistema de numeración de base
60 que todavía esta presente en nuestro sistema de medida
del tiempo y de los ángulos. Tal sistema de numeración
babilónico, venía representado por un sistema de cuñas. El
número 1 se representó por una cuña sencilla y el número 10
por una especie de flecha. Así los números hasta el 59 eran
simbolizados por un procedimiento aditivo, cinco flechas
sucesivas y nueve cuñas.
Imagen: http://wwwhistory.mcs.st
andrews.ac.uk/HistTopics/Babylonian_numerals.html
Los asirios, otra de las grandes culturas desarrolladas en Mesopotamia,
fundaron su primer imperio en la parte media de la cuenca del Tigris entre 1800
1600 a.C. teniendo por capitales las grandes ciudades de Assur, Kalach y
Nínive. Luego del dominio durante varios siglos del imperio de Mitani, reino del
este del Eúfrates que tuvo su apogeo en los siglos XVI XIV a.C., fueron
liberadas sus ciudades y ampliado la extensión de sus territorios hacia el
Mediterráneo hasta Tarso, y hacia la cuenca inferior del Eúfrates hasta
Babilonia (1244 1208). Pero el gran esplendor de Asiria y sus notables
hallazgos nos llegan con el resurgimiento del Nuevo Imperio (911 800 a.C.) que
se extendió por todo el territorio de Mesopotamia hasta Siria y Palestina. En
este período reina Assurnasirpal II (883 859 a. C.) que mandó a construir uno
de los más suntuosos palacios de todo el Medio Oriente y se le atribuye haber
sido el primero en incorporar la caballería como cuerpo militar.
20
Tras la dominación asiria hubo otra época de predominio político de los
babilonios, el imperio neobabilónico (625 539 a.C.), a la cabeza del cual nos
encontramos con Nabucodonosor II que extiende las fronteras hasta las costas del
Mediterráneo. Bajo su imperio Babilonia se convierte en una de las legendarias
ciudades del Mundo Antiguo. La famosa torre templo de Etemenanki, monumental
estructura piramidal de siete plantas, restaurada por Nabucodonosor, fue acaso
obra arquitectónica emblemática de todo este período de esplendor económico. Su
primera destrucción se ha relacionado con la leyenda bíblica acerca de la Torre
de Babel del Antiguo Testamento.
Para su riego los babilonios empleaban bombas que sacaban el agua del Eúfrates
y la elevaban hacia las
terrazas. Imagen: articles.roshd.ir/articles_folder/art/architecture/7%20Wonder
s%20
21
Acompaña al brillo imperial el esplendor del arte babilónico dentro del cual
sobresalen las obras en la cerámica vidriada que si bien comenzó a fabricarse
1500 años a.C, encuentra en este momento en la llamada Puerta de Istar (575
a.C.), construida por ladrillos vidriados, un exponente del nivel alcanzado por
el artesano babilónico y da fe de la justeza del nombre que lleva la ciudad pues
en Acadio, Babilonia significa "Puerta de Dios".
En el siglo V a.C., un siglo después de la invasión persa, cuando los griegos
alcanzaban el brillo de la época de Pericles, los babilonios realizaban
conquistas sobresalientes en el campo de la Astronomía. Comprobaron que los
movimientos aparentes del Sol y la Luna de oeste a este alrededor del zodíaco no
tienen una velocidad constante. La tarea de describir matemáticamente el
carácter cíclico del movimiento de la Luna con su fase de velocidad
creciente durante la primera mitad de su revolución y la reducción de la
misma hasta el mínimo originario permitió a los astrónomos babilonios predecir
la luna nueva y el día en que comenzaría el nuevo mes. Como consecuencia,
conocían las posiciones de la Luna y del Sol todos los días del mes.
Las técnicas involucradas en el reconocimiento de los minerales, el proceso de
reducción a metales y su fundición, la forja y el templado de los metales han
tenido tal repercusión en el progreso social que los historiadores han
periodizado etapas de desarrollo como Edad del Cobre, del Bronce y del Hierro.
No obstante, el desarrollo desigual que experimentaron las civilizaciones
antiguas, erigidas en distintos escenarios naturales, hace que el dominio de un
material y el arte o técnica de elaboración de objetos con él aparezca en fechas
bien distintas.
Precisamente la génesis de la metalurgia se presenta cuando los hombres
aprendieron que un calentamiento enérgico de una mena azulada con fuego de
leña, producía un nuevo material rojizo, resistente, y que poseía una propiedad
no exhibida por la piedra, su carácter maleable. El cobre, elemento 25 en
abundancia relativa en la corteza terrestre, puede encontrarse en estado nativo
y se reduce de sus óxidos con relativa facilidad. Este material permitía la
fabricación de instrumentos más efectivos y duraderos. Asistimos al inicio de la
Edad del Cobre en dos regiones tan distantes como el Medio Oriente y la actual
Serbia, unos 4 000 años a.C.
Sorprende que descubrimientos arqueológicos demuestren la entrada en escena de
un nuevo material más duro que el cobre, unos 500 años antes del inicio de la
Edad del Cobre. En el sudeste asiático, en la tierra de los Thai, debieron
practicar la reducción de una mezcla de minerales que diera origen a la primera
aleación trabajada por el hombre: el bronce. El bronce, una aleación constituida
22
por cobre y estaño (y en menor proporción otros metales), es más duro y
resistente que cualquier otra aleación común, excepto el acero, y presenta un
punto de fusión relativamente bajo.
Uno de los más interesantes bajorrelieves de la cultura
hitita muestra a guerreros en marcha con la espada curva
de hierro apoyada en el hombro derecho. Los hititas,
pueblo que se instala en el Asia Menor durante siglos,
debieron vencer las dificultades prácticas que supone
aislar el hierro de sus óxidos minerales. Se necesita
ahora el fuego del carbón vegetal y una buena
ventilación.
Imagen: www.specialtyinterests.net/hittites.html
Los territorios del Asia Menor, que se extendían en la península de lo que hoy
ocupa la Turquía asiática, sirvió de asentamiento de diversas culturas que
conocieron del brillo y del declive. Hacia el 1900 a.C se extendieron por estos
dominios, los hititas. A ellos correspondió el mérito histórico de vencer las
dificultades prácticas que supone aislar el hierro de sus óxidos minerales e
inaugurar la edad del hierro.
El dominio del hierro trajo considerables ventajas: se lograban producir
herramientas y armas más fuertes y duraderas, y además el hierro aventajaba al
cobre en la abundancia de sus yacimientos. De cualquier forma, Europa no
implanta la tecnología del hierro hasta el siglo VII a.C., en China se inicia un
siglo después, y en el África subsahariana hacia el siglo V a. C.
Al desarrollar la técnica de la fundición de este metal, los hititas se
convirtieron en poderosos guerreros que conquistaron toda la Anatolia central
hasta el Mediterráneo creando un gran imperio que rivalizó con Egipto, Babilonia
y Asiria. El esplendor de su imperio termina hacia el 1200 a.C cuando son
derrotados por las invasiones de los pueblos del mar.
El apogeo del imperio lidio en el Asia Menor transcurre hacia el siglo VII a.C.
Su famosa capital de Sardes es tomada por el rey persa Ciro II el Grande en el
546 a.C. con lo cual anexiona sus dominios y riquezas al pujante imperio persa.
23
El territorio que ocupa Lidia poseía vastos yacimientos de oro y plata y según
los griegos, fueron los lidios los primeros en acuñar monedas. Siglos más tarde,
la Roma imperial estableció el monopolio estatal en la acuñación de monedas
para darle un valor de cambio único en todo el mundo romano.
Se admite que las armas de bronce de la cultura micénica
no pudieron resistir el empuje de los dorios a los
cuales llegó el secreto de los hititas,
asentados a unos 1 200 km al este de Grecia. Esto selló el fin de la Edad
Micénica. , y así fueron reducidas e incendiadas las ciudades del Peloponeso,
Esparta, Mecenas, Tirinto y Argos hacia el siglo XII a. C. Imagen: www.
uv.es/.../ 06.%20mascara_de_agamenon.jpg
Imagen: http://www.laconia.org/sparti_Tomb_of%20_vafio.htm
La arqueología ha demostrado que durante un largo período histórico, desde el
3000 hasta el 1200 a.C., perteneciente a la llamada Edad del Bronce se
desarrollaron dos culturas, la minoica, que tuvo como centro la isla de Creta y
la micénica que hacia el 1450 a.C. pasó a convertirse en el eje de la
civilización del Egeo.
A los pies de otro gran río, el Nilo, creció una de las culturas más brillantes
de la Antigüedad. Se distinguen tres imperios en un período histórico que abarca
24
unos 18 siglos desde la primera dinastía fundada hacia el 3 000 a.C. que los
historiadores han llamado el Antiguo Egipto, el Imperio Medio y el Nuevo Imperio
cada uno con una vida de aproximadamente cinco siglos, y un total de unas
treinta dinastías. Egipto se destacó especialmente por su esplendor cultural a
partir de la III dinastía, radicada en Menfis.
Tras su conquista y conversión en provincia asiria por el Rey Assurbanipal (669
– 627 a.C.) hacia el 650 a. C. jamás volvería Egipto a recobrar su grandeza. En
el año 525 a.C. Dario I (c. 558 486 a.C.) lo sometió al imperio persa. El
macedonio Alejandro Magno ( 356 – 323 a.C.) lo conquistó en el año 332 a.C. y a
su muerte, Egipto fue regido por una dinastía de griegos hasta el 30 a.C. en que
fue anexionado por Roma.
En su larga existencia, la cultura egipcia legó a la humanidad un sinnúmero de
inventos y descubrimientos que trascenderían a su época y aun hoy resulten
sorprendentes sus avances en la Astronomía, Geometría, Arquitectura, e incluso
el origen de la Química.
Paradójicamente, ciertos ritos y creencias sobrenaturales, reflejos de diversas
enajenaciones terrenales y del misterio de la muerte, impulsaron el desarrollo
del conocimiento en diferentes áreas. Las colosales pirámides egipcias, una de
las maravillas del mundo antiguo, comenzadas a construirse hace más de 2 500
años a.C. indican la necesidad del dominio de un saber matemático que según se
recoge en el papiro de Rhind, escrito unos 3 600 años atrás, llegó a abarcar
desde mediciones de superficies y volúmenes hasta las reglas para cálculos
aritméticos con fracciones, el cálculo de áreas, y la resolución de ecuaciones
simples de primer grado. Se afirma que los egipcios debieron dominar el llamado
teorema de Pitágoras para el trazado de líneas perpendiculares.
En la construcción de las colosales pirámides y en el
propósito de vida eterna para sus moradores se
integrarían los saberes y habilidades egipcios desde
la Geometría, la Astronomía hasta las prácticas de la
Khemeia. Imhotep constructor de la primera pirámide
egipcia, de carácter escalonado, unos 2700 años a.C.,
se considera también el primer médico y un precursor de
la khemeia egipcia.
En su afán de momificar los cadáveres, los egipcios desarrollaron métodos de
conservación que exigió el estudio de las sustancias con propiedades
balsamáticas y antisépticas. Sus resultados sorprendieron milenios después al
mundo occidental.
25
Se ha podido establecer que la antigua sociedad egipcia en su división social
del trabajo separó al médico del sacerdote y al hacerlo ponía en manos del
médico el desarrollo de las terapias terrenales para la salvación del cuerpo,
mediante el análisis empíricoracional de las enfermedades y su tratamiento.
Algunos elementos de la farmacopea como el desarrollo de los laxantes y el
conocido empleo que le dieron al ácido tánico en el tratamiento de las
quemaduras llegan hasta nuestros días.
Cuando recordamos que tanto Babilonia como Egipto crecieron en los valles de
grandes ríos y que el éxito en la programación de plantaciones y colectas de sus
productos agrícolas constituía una necesidad social básica, comprendemos mejor
que los hombres encargados de la reflexión especulativa (originalmente mística
pero preteórica en fin) pronto asociaran ambos problemas con el estado de la
cúpula celeste y del movimiento de los astros sobre sus cabezas.
No constituye pues mera veleidad del pensar los esfuerzos por penetrar en la
descripción primitiva de mapas estelares, registrar el movimiento de los astros,
construir el concepto del tiempo. Ello no significa que los hombres que debieron
abordar estos aspectos, luego de emprendida la empresa, tuvieran conciencia
plena de la necesidad social a la cual respondía el trabajo que desplegaban. No
es difícil imaginar que inmersos en la tarea por resolver, el pensamiento
reflexivo de los sabios volara en una u otra dirección sin aparente conexión
con necesidades inmediatas, y a menudo rodeado por una aureola mística.
El año nuevo egipcio se celebraba cuando Sirio, la estrella más brillante del
cielo, aparecía en el horizonte por el oriente, un momento antes de la aurora.
Sirio indicaba que la primavera había terminado y que muy pronto se produciría
la anhelada inundación de tierras por la crecida de las aguas del
Nilo. Posteriormente, a fin de ajustar el año lunar con la aparición de Sirio en
el horizonte, los astrónomos agregaron cinco días a cada año. Asimismo
propusieron, sin éxito, la adición de un día cada cuatro años para que el año
concordara aún más con el ciclo solar.
Por esta época, hacia el 400 a.C. los babilonios comprobaron que los movimientos
aparentes del Sol y la Luna de oeste a este alrededor del zodíaco no tienen una
velocidad constante. La tarea de describir matemáticamente el carácter cíclico
del movimiento de la Luna con su fase de velocidad creciente durante la primera
mitad de su revolución y la reducción de la misma hasta el mínimo originario
permitió a los astrónomos babilonios predecir la luna nueva y el día en que
comenzaría el nuevo mes. Como consecuencia, conocían las posiciones de la Luna y
del Sol todos los días del mes.
26
La Gran Pirámide de Giza es la más vieja y la única
"maravilla" que ha desafiado el paso del tiempo y
llegado hasta nosotros. Fue levantada en 2560 a.C.
por el Faraón del Antiguo Egipcio Keops. Es parte de
un complejo de tres pirámides. De acuerdo con
Herodoto su edificación se extendió durante 20 años
y en ella participaron más de cien mil
trabajadores. Esta es la más grande de las
maravillas con 138 metros de altura.
Imagen:www.culturageneral.net/arquitectura/jpg/piramide_de_keops.jpg
El calendario solar egipcio de 365 días, una de las aportaciones fundamentales
de esta civilización nació de las observaciones al pie del Nilo cuando
determinaron las estaciones del año a partir de los cambios que mostraba el río
con el paso del tiempo.
Sus tres estaciones: la "inundación" o época de la crecida, que duraba
aproximadamente tres meses; la "aparición de los campos al retirarse el agua",
con su duración de cinco meses; y la "sequía", con sus cuatro meses, para volver
a repetirse el ciclo, indicaba la periodicidad buscada. Este calendario, que
era bastante certero, se usó desde el tercer milenio a. C. y tuvo una finalidad
práctica: el control de los ciclos agrícolas. Además, partiendo de la
observación de la Luna, los egipcios dividieron su año en 12 meses, con 30 días
cada uno.
En la dirección de la conquista de los materiales, los egipcios no sólo
conocieron y trabajaron los metales más importantes de cada época: el oro, la
plata, el cobre, el hierro, el plomo y otros, sino que aprendieron a preparar
pigmentos naturales, jugos e infusiones vegetales, tinturas y colorantes. El
algodonero egipcio (Gossypium hirsutum), creció en el valle del Nilo, y sus
rendimientos propiciaron el inicial desarrollo del telar en el 2 500 a.C. unos 4
27
400 años antes del telar mecánico de Arkwright. Sus telas teñidas resultaron
especialmente apreciadas y ello propició, el desarrollo de tintes y colorantes.
Hacia el 3 500 a.C., los egipcios que disponían de minas de cobre en el desierto
oriental entre el Nilo y el Mar Rojo, fabricaban el bronce según lo demuestran
hallazgos encontrados en la tumba del faraón Itetis. Resulta de interés apuntar
que a partir de la IV dinastía egipcia iniciada con el Faraón Snefru, es decir
hace unos 4 900 años, la extracción de minerales valiosos y la fabricación de
metales fueron operaciones encargadas a los más altos oficiales egipcios. El
monopolio imperial de estas actividades revela la importancia que le concedía el
estado al dominio y secreto de las prácticas metalúrgicas. Cabe conjeturar dada
la alianza entre la familia real y la clase sacerdotal que fueran los
laboratorios de sacerdotes dónde se guardaran tales prácticas.
La fermentación constituye el proceso biotecnológico que
primero dominó el hombre. En particular la fermentación
alcohólica se reconoce por la mención que se hace en
unas tablas de arcilla escritas en lenguaje sumerio
sobre la preparación de una bebida estimulante que
llaman siraku y cuya antigüedad se remonta a unos 4.000
años. Los egipcios, recogiendo los métodos sumerios,
elaboran una cerveza que bautizan con el nombre de
"zythum", descubren la malta y añaden azafrán,
miel, jengibre y comino con el propósito
de proporcionarle aroma y color. La industria del alcohol para bien y para
mal se abriría paso en la historia del hombre.
Imagen: www.thekeep.org/ kunoichi/themestream/egipto_column. html
28
China es uno de los países del mundo con más antiguo desarrollo económico. Hace
cinco o seis mil años, la gente que vivía en la cuenca del río Amarillo ya se
dedicaba a la agricultura y a la cría de ganado. Hacia el siglo XXI a.C.,
aparece la primera dinastía China, la Xia, con su peculiar forma de sociedad
esclavista, terminando así el largo período de sociedad primitiva. Las
siguientes dinastías Shang (siglo XVIIXI a.C. aprox.) y Zhou del Oeste (siglo
XI770 a.C. aprox.), representan momentos del desarrollo de las relaciones de
producción esclavista. Los sucesivos Período de la Primavera y del Otoño (770
476 a.C.) y el Período de los Reinos Combatientes (475 221 a.C.) son
considerados como etapas de transición hacia formas de producción feudales.
Hace más de 3.500 años, al inicio de la dinastía Shang, , ya se conocía la
técnica de fundir el bronce, utilizaban instrumentos de hierro, y producían
utensilios de alfarería blanca y esmaltada. La producción de seda y su tejeduría
también estaban bastante desarrolladas en esa época.
En el Período de Primavera y Otoño (770 476 a.C.), apareció la técnica de
producción artesanal de acero. En el Período de los Reinos Combatientes (475
221 a.C.) la famosa obra hidráulica de Dujiangyan fue construida en las
cercanías de la actual ciudad suroccidental de Chengdu, y ha venido
desempeñando, durante más de dos mil años, un papel importante en el regadío,
desviación de inundaciones y la evacuación de arena.
En el año 221 a.C. Qin Shi Huang, primer emperador chino, puso fin a las
posesiones de feudos por los dignatarios del Período de los Reinos Combatientes,
y fundó un estado feudal, pluriétnico unificado, y de poder centralizado. El
primer emperador unificó las letras, la unidad de medida y la moneda.
Qin Shi Guang ordenó construir la Gran Muralla China, la obra más extensa
construida por el hombre. El objetivo era defender su país contra las invasiones
de los mongoles. Se afirma que casi medio millón de trabajadores participaron en
la construcción de esta muralla que empieza en el mar y continúa durante 2 450
kilómetros, atravesando valles y montañas, torrentes y ríos.
Al tiempo que se desarrollan las primeras escuelas de la
filosofía griega, en Egipto, 500 años a.C., era empleado el
ábaco en el cálculo numérico. Pero existen referencias de
que la historia del ábaco, se remonta unos 3 000 años atrás
a la China, en el período de la dinastía esclavista de
Zhou. El ábaco es considerado como el primer instrumento de
cálculo realmente importante, ya que brinda la posibilidad
de realizar multiplicaciones y divisiones o el trabajo en
29
distintas bases.
Aún antes, hacia el 1500 a.C. en el marco de la necesidad de cuantificar las
variables que determinó la adopción en cada cultura de su propio sistema de
numeración, en China se conoció el sistema binario o en base dos. Este tiene
la ventaja de utilizar solo dos símbolos: uno (1) y cero (0)
La invención del papel es una de las grandes aportaciones de los chinos a la
cultura universal. Aunque se registran enormes discrepancias en la fecha en que
aparece aplicada esta invención lo cierto es que la técnica de producción del
papel a partir de celulosa fue dominada por los chinos casi mil años antes de
ser introducida en Europa por los árabes a través de España (1150). Existen
fuentes que admiten como restos del papel chino más antiguo el hallazgo
arqueológico encontrado en el pueblo de Lou Lan en el Turquestán chino, de
fecha cercana al siglo II, otras lo sitúan tres siglos antes durante la dinastía
de los Han de Occidente.
La impresión de dibujos e imágenes en tejidos en la China precedió en más de un
siglo a la técnica de impresión de textos. La invención del papel constituyó un
importante antecedente para el asalto a esta técnica. El papiro, una verdadera
revolución en su época, era demasiado frágil como superficie de impresión y el
pergamino, que sustituiría poco a poco al papiro empleado por griegos y romanos
hasta el siglo IV d.C. resultaba un material caro y de difícil producción masiva
(se obtenía por un tratamiento de la piel de ovejas, terneros o cabras, con cal
y posterior largo proceso con polvo de piedra pómez para devastarla
convenientemente). El papel por su parte es bastante resistente y económico, se
obtenía inicialmente de la corteza del árbol llamado morera. Se ha señalado como
otro factor que empujara la invención de la imprenta de tipos móviles por los
chinos, la difusión de la religión budista por sus extensos dominios que arribó
al Asia Central en el siglo I d.C, siguiendo las rutas del comercio y que a
pesar de las persecuciones que sufrieron sus adeptos se fue consolidando y
adaptando a las costumbres de este inmenso país. En verdad es práctica de toda
religión la reproducción de copias de sus textos sagrados y de sus oraciones.
La navegación marina tuvo también en un invento chino, la brújula, importante
condicionante para su desarrollo. Dos tipos de sustancias: la resina fósil
conocida como ámbar y la magnetita demostraron que las fuerzas de acción a
distancia no sólo se observaba en la naturaleza en la caída de los objetos hacia
la tierra.
A China debe el mundo en materia de medicina tradicional el desarrollo como
terapia alternativa, mucho antes de la fabricación de agujas imantadas, de la
30
técnica conocida como acupuntura, consistente en la penetración de agujas en
determinados puntos del cuerpo humano, para el tratamiento de enfermedades
reumáticas y otras dolencias; del masaje para la armonía del cuerpo.
Imagen: www.gardensafari.net/hania/china/route3/i011229.htm
Por lo visto, los chinos empezaron a usar la brújula desde tiempos remotos,
primero para orientarse en las expediciones por tierra y para el trazado de
planos en los terrenos de construcción, sólo después en la navegación marina.
31
Ts'ai Lun es el personaje chino al que se atribuye la
fabricación masiva del papel. En el 105 a. C. Lun estaba
al frente de los suministros de la Casa Real. Desde este
puesto se dio a la tarea de organizar la producción del
papel a gran escala. China en ese tiempo era ya una
sociedad burocrática que requería documentos en
abundancia para llevar sus registros por escrito. Se
iniciaban las bases para el desarrollo de un material más
ligero, fácil de almacenar y transportar que las
tablillas de madera, los papiros, los pergaminos o las
telas de seda.
Imagen: Collage
papel/chinoart20xx.com/art/rauschenberg/rauschenberg_g.jp
g
Las culturas precolombinas se desarrollaron según tres períodos históricos: el
período formativo o preclásico que presenta sus contornos difusos desde el 1 500
a.C. hasta el 250 d.C., el período clásico entre el 250 – 900 de la era
cristiana, y el postclásico desde el 900 – 1500, cuando se produce el
encontronazo cultural que significó la conquista europea.
Dos áreas geográficas representaron las civilizaciones de mayor desarrollo:
Mesoamérica y el área andina. En las páginas que siguen apenas rozaremos los
logros más significativos de dos culturas del período formativo: la cultura
olmeca y maya en Mesoamérica, y la cultura paracas del área andina. Más
adelante, cuando abordemos el medioevo y renacimiento, nos detendremos en los
avances de las culturas mayas, aztecas y andinas en los períodos clásico y
postclásico.
La cultura más antigua de la Mesoamérica precolombina fue la omelca cuyo período
de mayor florecimiento se desarrolla entre el 1200 – 900 a.C. Llama la atención
que el propio término olmeca signifique “la gente del país del hule o del
caucho”, lo que supone que estos dominaran la técnica de recolección del látex
de las plantaciones y su posterior aplicación en diversos fines. Esto ocurría
siglos antes de que llegara a la Francia del siglo XVIII, desde las selvas
Amazónicas, los rollos del caucho que casi un siglo después el inventor y
químico escocés Charles Macintosh (17661843), lograra emplearlo en la
manufactura de tejidos impermeables.
32
La civilización maya, uno de los imperios más poderosos de Mesoamérica, llegó a
ocupar un territorio equivalente a tres veces la superficie del archipiélago
cubano, extendiéndose desde la península de Yucatán por las tierras bajas de
México, Belice y Guatemala hasta Honduras. El período formativo o preclásico de
esta cultura se fija entre 2000 a.C. hasta 250 d.C.
La dimensión cultural alcanzada por la civilización maya se evidencia en su
elaborado sistema de escritura jeroglífica, su impresionante capacidad
arquitectónica y el notable desarrollo científico y artístico que alcanzaron.
Los conocimientos mayas en el campo de las matemáticas y la astronomía
constituyen ejemplos elocuentes del talento creativo de este pueblo.
El logro más importante del sistema de numeración maya es la utilización del
cero matemático. A diferencia del sistema que Occidente adoptó basado en las
diez cifras que nosotros usamos, los números mayas eran sólo tres, el
punto con el valor de una unidad, la barra horizontal para representar el
cinco y el cero que se representa con una concha o caracol o una flor
calendárica, símbolo del calendario sagrado, emblema de la eternidad, del
tiempo y de la regularidad cósmica.
Según los estudios realizados en las escrituras de los monumentos y
estelas que han quedado de la devastación realizada a partir del siglo XVI por
la conquista europea, la antigüedad de este sistema se remonta al año 35 a.C.,
es decir, 911 años más antigua que la más antigua inscripción encontrada en la
India que contenga el cero matemático, que corresponde al año 876 d.C.; en 639
años antecede a la más antigua de las encontradas en Cambodia con esa misma
característica.
Recientes investigaciones arqueológicas fechan entre el
1400 y el 1250 a.C. la construcción de escenarios para
la práctica del tlachtli, la pelota de los pueblos
mesoamericanos precolombinos. El terreno de juego
consistía en una superficie en forma de I mayúscula,
limitada por muros verticales y en cuyo centro se
situaba un anillo de piedra. La pelota, una bola
maciza de caucho, se fabricaba a partir del
látex de diferentes especies vegetales, tenía un
diámetro de unos 12 cm y se producía de forma masiva.
Las reglamentaciones establecían el golpe de la bola no con bate sino con el
área del cuerpo por encima de la rodilla hasta las caderas. Los jugadores
usaban protectores para los genitales, y las zonas de contacto con la pelota.
Una analogía con el jonrón acaso se presentaba con el punteo obtenido cuando se
33
lograba rebotar la pelota por encima de los muros laterales, aunque el máximo
gol se alcanzaba cuando se lograba introducir la pelota por el anillo central
del terreno que representaba la victoria y el fin del juego. El contenido
religioso del espectáculo deportivo fue apreciado por la Inquisición como un
paganismo incompatible con la evangelización cristiana y en consecuencia le fue
aplicado el bando de la prohibición. En enero de 2006 arqueólogos mexicanos
anunciaron el hallazgo de un campo para disputar el juego de pelota de 25
siglos de antigüedad, en una zona cercana a Mérida, capital del estado de
Yucatán.
Imagen: http://www.mayadiscovery.com/es/arqueologia/copan.htm
Tanto en el sistema decimal como en el vigesimal el cero es necesario para
que funcione la estructura posicional. Sólo que la representación del cero
matemático tal y como aparece en la escritura asiática (representada con
un punto) asombra por su simplicidad, y la del sistema mesoamericano en
forma de concha o de flor, expresa una madurez y una implicación cosmológica y
filosófica que asombra por la belleza de su diseño.
El uso del cero en estas culturas, es sin dudas un prodigioso logro en el
pensamiento, pues muchas culturas de la antigüedad no lo conocieron y la misma
Europa lo conoció a través de los árabes, de modo que la numeración
posicional y el uso del cero que ella conlleva, sólo fue conocida por el mundo
occidental a partir del siglo X, y su propagación fue muy lenta debido al uso
del sistema de numeración romana, llegando a generalizarse solo a partir del
siglo XVI.
Además de la notación de barras y puntos, los números tienen una expresión
jeroglífica en forma de caras. En el caso del cero la cara que se usa para
expresarla con frecuencia lleva una mano cruzada bajo la mandíbula, a la que se
atribuye un significado de muerte o término, por eso se ha insistido por
algunos autores en el significado de fin de una cuenta que el cero tiene
en las inscripciones calendáricas.
El calendario solar maya o haab (de 365 días), una de las conquistas más
brillantes de esta cultura se remonta probablemente al siglo I a.C. Asentado
sobre un sistema vigesimal constaba normalmente de cinco períodos, que se
correspondían con las divisiones de tiempo relativas a día, mes, año y ciclos
superiores de veinte y cuatrocientos años civiles que se elevaban a períodos
progresivos de veinte en veinte, de la siguiente forma: el Kin, representaba el
día; el Uinal comprendía 20 kines; el Tun incluía 18 Uinales, es decir 360 días;
el Katun abarcaba 20 Tunes, 7200 días; y el Baktun a su vez 20 Katunes, 144 000
días.
34
La progresión perfecta se veía interrumpida por la segunda potencia del
veinte, ya que el año no consta de 400 días, por ello, se vieron obligados a
introducir el número 360 como valor del año vigesimal. Los dieciocho meses de
veinte días dan el año vigesimal (tun) de 360 días. Los cinco días que
completan la duración del año solar para dar los 365, eran considerados días
aciagos, días sin nombre, se denominaban Uayeb, fin o muerte del año.
El sitio arqueológico de la Venta (1100 – 900 a.C.), uno de
los más antiguos de México, muestra la habilidad alcanzada
por los artistas olmecos en el labrado de la roca volcánica
basáltica para esculpir las enormes obras líticas conocidas
como las cabezas olmecas, que llegan a alcanzar los 3 metros
de altura por tres de diámetro y hasta 65 toneladas de peso.
El traslado de estas rocas desde canteras distantes supone el
dominio de mecanismos de tracción, cuerdas firmes, rodillos
de madera y palancas, sin haber aprendido a fabricar útiles
de hierro.
Imagen: Cabeza no. 8 Museo de Jalapa www.liceus.com/cgi
bin/gui/03/1262.asp
El mes de 20 días es una invención vigesimal de gran originalidad y, cada uno de
ellos, así como cada uno de los días del mes recibe un nombre de acuerdo a su
dios patrono o idea que se relaciona con ellos. Lo mismo sucede con cada uno de
los 18 meses del año. En la tabla de abajo se relacionan los nombres de los días
(fila superior) y de los meses mayas.
Imi Akba Chich Cim Mani Lama Mulu Chue Ci Caba Ezna Caua
Ik Kan Oc Eb Ben Ix Men Ahau
x l án i k t e n b n b c
El sistema vigesimal maya queda perfectamente representado por la cuenta larga o
serie inicial, método para fijar fechas a lo largo de la corriente del tiempo, a
partir de un día base con el que se inicia la era, a esta podríamos llamarla
fecha cero.
El problema de correlacionar las fechas del Calendario maya con el nuestro, que
surgió tan pronto se comenzó a descifrar la cuenta larga, es un problema
35
complejo en el que entran a jugar factores tanto de computación calendárica
como astronómica. Los investigadores para descifrar la correspondencia entre las
fechas mayas y las del calendario gregoriano contaron con el registro en el
calendario maya de acontecimientos históricos ocurridos en Yucatán durante el
período de la conquista.
Así pudieron determinar que la fecha inicial del calendario maya fue fijada como
el 7 de septiembre de 3113 a.C. Todos los cálculos y dataciones inscriptas en
estelas, altares, tablero y códices mayas parten de esta fecha cero.
A diferencia del sistema que Occidente adoptó basado en las diez cifras
que nosotros usamos, los números mayas eran sólo tres, el punto con el
valor de una unidad, la barra horizontal para representar el cinco y
el cero que se representa con una concha o caracol o una flor
calendárica, símbolo del calendario sagrado, emblema de la eternidad,
del tiempo y de la regularidad cósmica. La representación del cero
matemático tal y como aparece en la escritura asiática (representada
con un punto) asombra por su simplicidad, mientras que el cero maya
sorprende por la belleza de su diseño al tiempo que conmueve por la
implicación cosmológica y filosófica que le es dada.
Desde épocas tan tempranas como el 600 a.C comenzó
a erigirse la ciudad maya de Tikal, que con el
paso del tiempo llegaría a convertirse en la
ciudad dominante del período clásico (300 – 900
a.C.). Centro ceremonial, religioso, político y
comercial tiene inscrita en su estela 29 una de
las primeras dataciones conservadas, 8.12.14.8.15
13 Men 3 Zec, que se lee como 18 Baktunes, 12
Katunes, 14 tunes, 8 Uinales, 15 Kines,
es decir 1 243 615 días o 3 405,289 años,
lo que significa
36
A miles de kilómetros de Mesoamérica, contemporánea con la cultura olmeca, se
desarrolla entre 1200 a.C. y el 200 a.C., en una extensa zona de la costa y la
Sierra peruana la cultura matriz de la civilización andina: el movimiento
unificador Chavín. Es curioso advertir que en la iconografía religiosa de ambas
culturas aparece ocupando una posición especial la figura felina.
El nombre que recibe esta cultura se debe a que uno de sus grandes centros
ceremoniales, cuyas ruinas constituyen los monumentos arqueológicos más
importantes del Perú, fue levantado en el territorio que hoy ocupa la población
Chavín de Huantar, situada a 3117 m. sobre el nivel del mar, a 300 km al norte
de Lima. El centro ceremonial en “U” de Chavín de Huantar es un conjunto de
edificios piramidales con galerías en su interior; plazas hundidas flanqueadas
por estructuras menores que se proyectan de las construcciones nucleares o
templos; terrazas de distintos niveles que van unidas por monumentales graderías
líticas; portadas y escalinatas que fueron hechos como parte de dos grandes
proyectos, cada uno con sus modificaciones y ampliaciones respectivas, que se
habrían ejecutado entre el 1.200 a.C. y 200 a 300 a.C
La cultura Chavín trabajó el oro, la plata, el cobre y posiblemente algunas
aleaciones. Para fundir los metales debieron emplear hornos de arcilla y carbón
vegetal; las técnicas empleadas fueron: la cera perdida, el labrado, el repujado
y la incisión. Los objetos metálicos hallados actualmente son herramientas,
adornos corporales, objetos rituales y armas.
37
El arte de la momificación es uno de los aspectos
culturales paraquenses, que se desarrolla
especialmente durante la faseParacas Necrópolis. El
fardo funerario es el paquete, de forma cónica, en el
que se halla envuelto el cadáver con objeto de su
inhumación. Los cadáveres antes de ser enfardelados
pasaban por un proceso de momificación que recuerda
al egipcio. Luego del vaciamiento de órganos y
vísceras, el cuerpo era rociado con
Imágenes:
http://www.gabrielbernat.es/peru/preinca/cultpreincaicas/formativo/PARACAS/par
acas.html
En la imagen, la Puerta del Sol, monolito de tres metros de altura por cuatro
de ancho decorado con relieves de espléndida ejecución. La más grande
construcción de la ciudad es el Acapana, vestigio de una pirámide con
terrazas de 15 metros de altura y 152 metros por cada lado. Las pirámides
precolombinas a diferencia de las egipcias no tuvieron fines funerarios sino
que se dedicaban a las divinidades de sus religiones politeístas.
Imagen:
http://www.gabrielbernat.es/peru/preinca/cultpreincaicas/dregionales/TIAHUANAC
O/tiahuanaco.html
38
A unos 45 km de la actual ciudad de México se levantó
entre los siglos II y I a.C. la ciudad más antigua de
América, la ciudad estado de Teotihuacan. Luego de
cuatro siglos se había convertido en una imponente
ciudad que llegaría a ser el principal núcleo de poder
centralizado en el interior del valle de México. Se
extendía sobre una superficie de más de 20 km2 y llegó
a contar con una población de más de 125 mil
habitantes.
Conviene recordar que el Madrid del siglo XVII, casi mil años después, apenas
superaba los ochenta mil habitantes.
Los conocimientos del Mundo Antiguo por lo visto eran recibidos y transmitidos
por artesanos y técnicos mediante la tradición, pero ignoramos las reflexiones
que acompañaban a sus prácticas de instrucción. Esto significa que si entendemos
la ciencia no sólo como el saber hacer (arte y técnica), sino además como el
conocer y poder explicar las razones por las cuales se hace así y no de otra
manera, debemos admitir que ella comienza cuando ya la técnica en la cual se
apoya y a la cual soporta, hace mucho tiempo ha sido establecida.
El momento en que puede considerarse se inicia la evolución de un pensamiento
teórico precientifíco data del siglo VI a.C. y tiene como escenario “clásico”,
en la Historia de la cultura occidental, la sociedad esclavista de la Grecia
Antigua. La definición de este momento se avala por ser entonces cuando se
inicia una reflexión teórica, metódica y productiva sobre la naturaleza. Es
significativo que en la base de los sistemas filosóficos aparecidos por entonces
en muy distantes escenarios culturales, con Confucio y Lao Tse en China; Buda,
en la India; y Zoroastro en Persia; se aprecian ideas generales que evidencian
una cierta unidad en la concepción del mundo de los pueblos de aquella época. De
cualquier modo, se hace obligado la referencia específica al mundo greco romano
en el cual se alcanza la expresión más completa de la doctrina acerca de la
sustancia y sus componentes. De esto trataremos en la sección que sigue...
39
Bibliografía:
Abascal, Juan Manuel; AlmagroGorbea, Marín (2004): América Precolombina.
Antigua. Historia y Arqueología de las Civilizaciones. Biblioteca Virtual Miguel
D Cervantes.
http://www.cervantesvirtual.com/portal/antigua/aprecolombina.shtml
http://www.cervantesvirtual.com/historia/TH/cosmogonia_maya.shtml
All empires.com (2004): The Hittite Empire. An Online History Community.
http://www.allempires.com/empires/hittites/hittites1.htm
Arab Sameh M (2000): Medicine in Ancient Egypt. Part 1, 2 and 3. Sameh M.
Arab, Associate Professor of Cardiology. Alexandria University. Arab World
Books.
http://www.arabworldbooks.com/articles8.htm
http://www.arabworldbooks.com/articles8b.htm
http://www.arabworldbooks.com/articles8c.htm
Bernat Gabriel (2004): Culturas preincaicas de los Andes Centrales.
http://www.gabrielbernat.es/peru/preinca/
Cultura Paracas.
http://www.gabrielbernat.es/peru/preinca/cultpreincaicas/formativo/PARACAS/parac
as.html
Cultura Chavin.
http://www.gabrielbernat.es/peru/preinca/cultpreincaicas/formativo/CHAVIN/chavin
.html
Boyce Alex (2003): Timeline of Chinese Dynasties.
History Section. MSU EMuseum. Minnesota State University, Mankato.
http://www.mnsu.edu/emuseum/history/
http://www.mnsu.edu/emuseum/prehistory/china/timeline.html#ancient
Briceño Monico (1999): Culturas precolombinas. Universidad de Guadalajara.
http://mexico.udg.mx/historia/precolombinas/olmecas/index.html
Del Rio, Fernando; León Máximo (1998): Capítulo VIII. La Edad del Hierro.
Cosas de las Ciencias. Fondo de Cultura Económica. México.
40
http://www.jcce.org.cu/libros/Libros_1/ciencia2/21/htm/SEC_10.HTM
Demand Nancy (2000): Medicine in Ancient Egypt. The Trustees of Indiana
University. http://viator.ucs.indiana.edu/~ancmed/egypt.HTM
Ead Hamed A. (1998): Medicine in Old Egypt. Hamed A. Ead. Professor of Chemistry
at the Faculty of Science University of Cairo, Giza, Egypt and director of the
Science Heritage Center. Alchemy Web Site.
http://www.levity.com/alchemy/islam22.html
Ead Hamed A. (1996): Earliest Egyptian Chemical Manuscripts. Ministry of
Tourism. Egypt. http://www.touregypt.net/chemicals.htm
EFE (2006): Hallan un campo para disputar el juego de pelota maya con 25 siglos
de antigüedad en Yucatán. Mérida, elmundo.es., 03/01/2006.
http://www.elmundo.es/elmundo/2006/01/03/ciencia/1136257395.html
Evans J. C. (1995): Chapter 3. Mesopotamian and Egyptian Cosmology. Physics &
Astronomy Department, George Mason University.
http://www.physics.gmu.edu/classinfo/astr228/CourseNotes/ln_ch03.htm
Figurovski N.A. (1979): Los conocimientos químicos en la Antigüedad. Historia
de la Química. P 59.Editorial Pueblo y Educación. La Habana.
García Cebrían, María J. (1998): Los papiros matemáticos. El Antiguo Egipto.
http://www.jimena.com/egipto/apartados/papiros.htm
Gombáu García C. (2002): Aportes científicos y culturales de China. Historia.
El Paraíso de las Matemáticas. http://www.matematicas.net/php/historia.php?
id=historia/ch_cientif.php
Hach Robert A. (1999): History of Science. Department of History. University of
Florida.
http://web.clas.ufl.edu/users/rhatch/pages/03SciRev/SCIREVTeaching/HISSCI
STUDYGUIDE/index.htm
Egyptian Contributions to Astronomy.
http://web.clas.ufl.edu/users/rhatch/pages/03SciRev/SCIREVTeaching/HISSCI
STUDYGUIDE/0011_egyptianContrib2Astron.html
Babylonian Astronomy.
http://web.clas.ufl.edu/users/rhatch/pages/03SciRev/SCIREVTeaching/HISSCI
STUDYGUIDE/0014_babylonianAstron.html
41
O'Connor J. J., Robertson E.F. (2000): History Topics. School of Mathematics
and Statistics; University of San Andrews.
Mathematics in Egyptian Papyri.
http://wwwgroups.dcs.stand.ac.uk/~history/HistTopics/Egyptian_papyri.html#s3
Babylonian Numerals.
http://wwwhistory.mcs.standrews.ac.uk/HistTopics/Babylonian_numerals.html
Olle Jaime (2001): La Edad del Bronce. http://www.navarrerias.com/historia/nav3
1.htm
Palacio S.D. (2002): Grecia clásica 2ª parte La edad de
hierro. http://www.kelpienet.net/rea/grecla2.htm
Paul Christina (2000): Herbal Remedies used by the Ancient Egyptians.
Ancient Egyptian Medicine. Ancient Egyptian Virtual temple.
http://showcase.netins.net/web/ankh/sekhmetnew.html
Rodríguez Domínguez F. (1998): Flora y Fauna en el Antiguo Egipto. El Antiguo
Egipto.http://www.jimena.com/egipto/apartados/naturaleza.htm#papiro
Sanguino Arias, Luis (2006): Edad de Bronce. Protagonistas de la Historia.
Contextos. Luis Sanguino, Director Arte Historia.com.
http://www.artehistoria.com/frames.htm?
http://www.artehistoria.com/historia/contextos/259.htm
Seawright Caroline (2001): Ancient Egyptian Alcohol. Egiptology. March 12, 2001
www.thekeep.org/ kunoichi/themestream/egipto_column. html
Smith W, Henry (1904): History of Science. Project Gutenberg File Converted into
HTML pages by Nalanda Digital Library under Etext Conversion Project (ECP).
Chapter II Egyptian Science. Book 1.
http://www.nalanda.nitc.ac.in/resources/english/etext
project/history/science/book1.section3.html
Chapter III Science of Babylonia and Assyria. Book 1.
42
http://www.nalanda.nitc.ac.in/resources/english/etext
project/history/science/book1.section4.html
Zubov V. P. (1962): Las ideas físicas en la antigüedad. Las ideas físicas:
ensayos sobre su desarrollo. Ediciones Pueblos Unidos. Montevideo.
43
De Aristóteles a Ptolomeo: un milenio de cultura grecolatina.
Rolando Delgado Castillo y Francisco Arturo Ruiz.
Universidad de Cienfuegos
La escuela jónica y los pitagóricos
La filosofía ateniense
Progresos durante el florecimiento de Alejandría
Capacidad creativa en las construcciones romanas
Bibliografía
En el seno de la sociedad esclavista griega se desarrollaron los dos grandes
sistemas filosóficos que en su contrapunteo histórico nutrieron las bases de la
cultura occidental. La visión materialista del mundo y el método dialéctico de
interpretar los fenómenos naturales representaron aliados permanentes del
conocimiento científico. La tradición idealista griega, iniciada por los
pitagóricos, alentó importantes estudios matemáticos y astronómicos, y luego
tuvo la más alta expresión en los diálogos platónicos.
Por el sendero de la construcción de la filosofía, los pensadores griegos
legaron sus hipótesis sobre la naturaleza de las sustancias y los orígenes de
sus propiedades más sobresalientes, y desarrollaron las teorías atomísticas que
retoñaran siempre al lado del pensamiento científico a lo largo de los siglos
hasta cristalizar en la primera teoría atómica de Dalton ya en el XIX. Pero el
fecundo laboratorio de los griegos estuvo en la mente humana. Factores
históricos adversos imposibilitaron la productiva fusión que hubiera podido
darse en la Alejandría entre cultura grecolatina y conocimientos empíricos
egipcios. Sobre este derrotero histórico en sus hitos principales y sus más
destacados protagonistas trataremos en las páginas siguientes.
Fueron los sabios de la región del Asia Menor conocida como Jonia, los primeros
filósofos que intentaron, abandonando el mito y la leyenda, explicarse la
44
diversidad del mundo material y su unidad a partir del reconocimiento de una o
varias sustancias fundamentales y sus transformaciones. La confederación jónica
configurada por las ciudades griegas fundadas en la costa oeste del Asia Menor,
representó un próspero vínculo comercial donde floreció la producción
artesanal y cultural que trascendió su época. Sus poderosos vecinos a lo largo
de siglos desearon su dominio y por consiguiente fue escenario de guerras que
modificaron una y otra vez el mapa político de la región.
En la ciudad de Mileto, Tales (625 – 546 a.C.) elabora la tesis de que la
diversidad de las cosas encuentran la unidad en un elemento primario. En
términos de interrogante su indagación puede resumirse de la siguiente forma:
¿Puede cualquier sustancia transformarse en otra de tal manera que todas las
sustancias no serían sino diferentes aspectos de una materia básica? La
respuesta de Tales a esta cuestión es afirmativa, e implica la introducción de
un orden en el universo y una simplicidad básica.
tan distantes como la costa oriental del Mar Negro, Sicilia y la parte
meridional de la península itálica (La Magna Grecia). Mucho antes, los
griegos habían ocupado el archipiélago que se extiende por el Mar
Egeo, fundando importantes ciudades a lo largo del litoral occidental
del Asia Menor.
Quedaba por decidir cuál era esa materia básica o “elemento”. Tales propuso que
este elemento primigenio era el agua. El postulado de Tales no parece original
si recordamos que en la épica de los babilonios y en los salmos hebreos se
refrenda la idea de que el mar era el principio. Sin embargo, allí donde
babilónicos y judíos apelan a la intervención de un creador, el filósofo griego
no reclama la intervención de una entidad sobrenatural. Al formular una
explicación racional de la multiplicidad de las cosas, sobre la base de la
unidad material del mundo, Tales abrió una nueva perspectiva que fuera seguida
por otros filósofos que le sucedieron.
45
Si Tales creyó ver en el agua el origen de todas las cosas, su amigo y
discípulo, el matemático y astrónomo Anaximandro (611 – 547 a.C.) apela a un
ente conceptual de máxima generalización, el apeirón para definir lo
indeterminado o infinito que puede asumir la forma de cualquiera de los
elementos vitales para el hombre, sea el fuego, el aire, el agua, la tierra.
Anaximandro es además considerado fundador del arteciencia de trazar mapas, y
de la cosmología al postular la formación del universo a partir de la separación
de los contrarios.
Para Anaxímenes (570 500 a.C.), considerado el último de los grandes filósofos
jonios el elemento básico era el aire. Las transformaciones del aire posibilita
cambios cuantitativos que se traducen en lo cualitativo: si el aire se rarifica
da lugar al fuego; si por el contrario se condensa, dará lugar progresivamente a
las nubes, el agua, la tierra y las rocas.
En resumen, la llamada Escuela de Mileto no solo implica el trascendental paso
de la descripción mitológica a la explicación racional del mundo sino que
combina una aguda observación de los fenómenos naturales con una rica reflexión
imaginativa.
Por los tiempos en que se desarrolla la línea filosófica jónica aparece el
pensamiento especulativo enraizado en la abstracción del conocimiento matemático
que desdeña el conocimiento dado por los sentidos y absolutiza la actividad
racional como única fuente legítima del conocimiento. Divorciado de la búsqueda
de los principios de sus maestros jónicos, Pitágoras (582 – 500 a.C) de Samos
(isla situada al sureste del Egeo frente a las costas del Asia Menor) funda una
escuela hacia el polo occidental del mundo griego, en la colonia de Crotona al
sur de la península itálica, que realiza valiosas contribuciones al desarrollo
de la Geometría y la Astronomía, al tiempo que propone una imagen del universo
presidida por concepciones matemáticas ofreciendo una visión mística del ser.
Éfeso, famosa ciudad del Asia Menor donde se erige el Templo
de Diana una de las siete maravillas del Mundo Antiguo, fue
cuna de Heráclito (540 – 475 a.C.). Este filósofo, en la
línea del pensamiento jónico, es célebre por considerar el
fuego como principio material, concebir el mundo en
permanente transformación, y proponer que la mayoría de
los objetos se producen por la unión de principios opuestos.
La dialéctica ocupa el centro de su obra, la estabilidad de
las cosas es temporal y refleja la armonía de los
contrarios, el cambio eterno viene dado por la ruptura de
esta armonía. En la metáfora del fuego se advierte la genial
46
anticipación al mundo de la energía, como expresión del
movimiento, forma universal de existencia de la
Según el juicio de Aristóteles, los pitagóricos se dedicaron a las Matemáticas,
fueron los primeros que hicieron progresar este estudio y, habiéndose formado en
él, pensaron que sus principios eran los de todas las cosas.
De cualquier modo en el marco de la tradición pitagórica se destacan diferentes
trabajos sobre Geometría y Astronomía. Hacia el año 450 a.C., los griegos
comenzaron un fructífero estudio de los movimientos planetarios.
Filolao (siglo V a.C.), discípulo de Pitágoras, creía que la Tierra, el Sol, la
Luna y los planetas giraban todos alrededor de un fuego central oculto por una
‘contratierra’ interpuesta. De acuerdo con su teoría, la revolución de la Tierra
alrededor del fuego cada 24 horas explicaba los movimientos diarios del Sol y de
las estrellas. El modelo de Filolao más tarde encontraría contraposición en las
ideas de Eudoxio de Cnido (¿406 355 a.C.) quien hacia el 370 a.C, explicaba
los movimientos observados mediante la hipótesis de que una enorme esfera que
transportaba las estrellas sobre su superficie interna, girando diariamente, se
desplazaba alrededor de la Tierra. Además, describía los movimientos solares,
lunares y planetarios diciendo que dentro de la esfera de estrellas había otras
muchas esferas transparentes interconectadas que giran de forma diferente. Es la
teoría conocida como sistema geocéntrico que retomada siglos más tarde por
astrónomos de la Escuela de Alejandría permanece inalterada durante más de un
milenio.
47
Pitágoras fue el primero que aglutinó en torno a sí un
círculo cerrado de discípulos que participaban de su
vida y su doctrina. Como dice Aristóteles los
pitagóricos se dedicaron a las Matemáticas, fueron los
primeros que hicieron progresar este estudio y,
habiéndose formado en él, pensaron que sus principios
eran los de todas las cosas.
De entonces parte el debate acerca del método conducente
al conocimiento verdadero. Mientras la ciencia jónica se
asentaba en la observación de la naturaleza (y la razón
que la explica), los
pitagóricos desdeñan el papel de los sentidos en el conocimiento y declaran
el imperio de la razón.
En el siglo del apogeo ateniense, la región de la Magna Grecia conoce de nuevas
figuras cuyas ideas amplían el repertorio conceptual filosófico. Así, en el
importante enclave cultural y comercial griego levantado al sur de la isla de
Sicilia, llamado Agrigento, Empédocles (490430 a.C.), discípulo de Pitágoras y
Parménides, se alinea hacia la visión jónica, retomándola, a un nuevo nivel, al
rechazar la idea de buscar un único principio de todo lo existente, y proponer
que en varios se resume de forma más completa la multiplicidad de las cosas. De
acuerdo con este planteamiento integra como principios universales el agua de
Tales, el fuego de Heráclito, el aire de Anaxímenes, y a ellos suma la tierra. A
la materialidad de estos principios le incorpora la cualidad de los contrarios
expresada en términos de “amor” para indicar la afinidad, y “odio” para señalar
la repulsión. A Empédocles se le atribuye también una visión evolucionista de
los animales y las personas que según considera provienen de formas precedentes.
Conviene destacar que el florecimiento del emporio cultural jónico se debate
desde mediados del siglo VI a.C. entre la anexión al vecino reinado de Lidia en
el 560 a.C. y la conquista feroz en el 546 a.C. por parte del imperio persa.
Conoce en el 500 a.C. la sublevación, apoyada por Atenas, la derrota y el
saqueo orquestado por los persas que más tarde desencadena en el 493 a.C. las
guerras médicas cuyos últimos capítulos en el 479 a.C. da la victoria a las
armas atenienses, y crea la dependencia de las ciudades jónicas ahora a la gran
triunfadora. Ha comenzado la hegemonía de Atenas.
Anaxágoras (500428), representa al filósofo de origen jonio, asentado en Atenas
en el esplendor asociado al gobierno de Pericles (c.495429 a.C.). Maestro del
célebre estadista y mecenas griego, Anaxágoras introduce la noción del átomo,
48
como partícula infinitamente pequeña de la cual se componen todas las
sustancias, y concibe la materia primaria sometida a un enorme caos de tales
partículas a la cual le fuera impuesto el orden por una inteligencia eterna (el
nous). Sus nociones sobre la naturaleza física del sol y la luna, levantaron
las protestas de los oponentes de Pericles, quienes exigían la aplicación de la
ley que condenaba a aquellos que no practicaran la religión y enseñaran teorías
extrañas sobre los astros sagrados. Finalmente Anaxágoras tuvo que salir de
Atenas y marchar a una colonia de Mileto en donde reside y funda una escuela
hasta su muerte.
La filosofía de Demócrito contiene una formulación primitiva
del principio de conservación de la energía. En su teoría
los átomos son eternos y lo es también su movimiento. La
explicación del origen del universo se asocia precisamente
con el movimiento caótico de los átomos que en sus continuas
colisiones forman cuerpos y mundos mayores. No hay lugar en
esta teoría para la intervención divina. La ciencia tendría
una permanente alianza con la teoría atómica de la materia,
faltaban 20 siglos para la aparición de la visión atomística
del siglo XVII.
La hipótesis sobre la naturaleza atómica de la sustancia, y la noción que de
ella se deriva acerca de su composición como mezclas de diferentes átomos que se
diferencian entre sí por sus tamaños y formas, resulta una integración en la
polémica entre la razón y los sentidos que se desarrolla en la ciudad de Abdera
a orillas del mar Egeo, enclavada en la región de Tracia, en el siglo V a.C.
Leucipo (? 370) y su discípulo Demócrito (460 – 370 a.C.), son los más altos
representantes de la Escuela Atomística, que precedió en más de 20 siglos a la
visión atomística del siglo XVII y luego a la teoría atómica de las sustancias
postulada por el científico británico John Dalton (1766 1844).
En una isla del Dodecaneso griego de poco más de 250 km2 y a unos 350 km de la
Atenas de Pericles, la isla de Cos, se desarrolló la escuela de Medicina que
introduce una metodología científica en la práctica médica. Hipócrates (c. 460
c. 377 a.C.) fue el maestro que esclareció además el papel del médico en la
sociedad. El pensamiento hipocrático contribuyó a separar la superstición de la
práctica de la medicina y orientarla hacia el estudio de las causales asociadas
a las condiciones de vida de la población, en particular la calidad de las aguas
y aires que le rodean. Se han atribuido a Hipócrates 53 libros, que reunidos
forman lo que se conoce como el Corpus Hippocraticum. Con certeza buena parte de
la monumental obra asociada al padre de la medicina fue escrita por sus
49
discípulos. En el "Tratado de los aires, las aguas y los lugares" y luego en
"Régimen en enfermedades agudas", adelanta la idea revolucionaria de que en el
estado de salud y convalecencia del paciente influye la dieta y su estilo de
vida. La medicina hipocrática se difundió por todo el mundo griego, y,
posteriormente, se funde con la cultura médica del imperio romano. Los tratados
quirúrgicos de Hipócrates, sobre todo en lo referente a fracturas y luxaciones,
fueron la técnica más avanzada por más de veinte siglos.
La creación de una escuela en torno a la cual se agrupara
una comunidad de "sabios" con sus discípulos para alimentar
el debate y propiciar la transmisión y enriquecimiento de
los conocimientos, nació en Atenas con instituciones como
la Academia. Fundada en el 387 a.C. por Platón (438 – 347
a.C.), sobrevive hasta la primera etapa del Medioevo,
cuando el emperador Justiniano I (482 – 565) ordena en el
siglo VI su definitivo cierre al considerarla un
establecimiento pagano. Había subsistido durante nueve
siglos, constituyendo así el recinto universitario de más
larga vida.
Con Platón (428 – 347 a.C.) se funda la Academia y la filosofía griega gira
hacia la tradición pitagórica. La primacía de las ideas sobre “el mundo
exterior” y la imposibilidad de alcanzar un conocimiento a través de la
experiencia es una constante de los diálogos platónicos. En otras palabras,
Platón niega el uso de la observación y la experiencia sensible como método de
investigación de la realidad. A través de estos diálogos, sin embargo, la
cultura occidental recibió un legado inestimable sobre la teoría del arte. Se ha
especulado que la fundación de la Academia por Platón tiene como objetivo
desplegar una carrera política. Se afirma también que estas ambiciones fueron
50
frustradas por el profundo efecto que sobre él tuvo la ejecución de Sócrates en
el 399 a.C.
La rivalidad tradicional entre la liga ateniense y la alianza espartana por el
dominio de los territorios griegos se convirtió en enfrentamiento directo en el
431 a.C., y pasó a la historia como la Guerra del Peloponeso. Las operaciones
bélicas se extendieron hasta el 404 a.C. decidiéndose a favor de las armas
espartanas.
Luego de esta guerra, ya en el periodo de la declinación del arte ateniense, la
colonia griega del Asia Menor llamada Halicarnaso, capital de la región de
Caria, vio levantarse una de las siete maravillas del mundo antiguo, el
Mausoleo. La colosal obra funeraria, dedicada al rey Mausolo (376 353 a.C.),
fue diseñada por el arquitecto Pytheus de Halicarnaso (s IV a.C.) y decorada por
famosos escultores griegos entre los que se encontraron Praxiteles (390 330
a.C.) y Escopas (c. 420 a.C350 a.C.). La altura total del Mausoleo fue de 45
metros, compuesto de una base de 32 metros, la pirámide de 24 pasos se elevaba
7 metros y por último en la cima, la estatua de un carruaje de 6 metros. Cada
lado del Mausoleo fue decorado con frisos de las escenas de las batallas griegas
con los Titanes, Centauros y Amazonas. Su destrucción probablemente se deba a un
terremoto ocurrido entre 1000 y 1400.
El mundo griego conoció entonces un período de rebeliones, alianzas y contiendas
que encuentran su fin en el 371 a.C. con la victoria de Tebas sobre Esparta.
Entretanto la vecina Macedonia, bajo el reinado de Filipo II, logra la unidad
política, crea un poderoso ejército que inicia la anexión de las ciudades
griegas y Filipo logra convertirse en el 338 a.C. en el comandante en jefe de
las fuerzas griegas. Dos años más tarde ante la muerte de Filipo, lo sucede en
el trono su hijo Alejandro III el Magno (356323 a.C.), quien en sólo siete años
cristalizaría el sueño secular griego de derrotar al Imperio Persa, conquistar
sus vastos territorios, y extender la influencia de la civilización griega.
51
vuelve a emigrar. Muere, cuando se iniciaba el período
alejandrino... Pero había fundado la Escuela de los
Peripatéticos y sus
discípulos se encargaron de reproducir su monumental obra que nos legaba un
pensamiento filosófico opuesto al universo ideal platónico y aliado a las
ideas sobre la cognoscibilidad del mundo sobre la base de la experiencia y de
la razón. Su "Methafísica" siembra en el terreno filosófico las categorías
más generales del cuadro físico del Mundo: el movimiento, el espacio y el
tiempo.
El más influyente de los filósofos griegos, el macedonio Aristóteles de Estagira
(384 – 322 a.C.) ingresó a los 17 años en la Academia fundada por Platón y solo
la abandonó veinte años después, cuando a la muerte de su fundador, advirtió una
tendencia a desviar la filosofía hacia la formalización matemática. Años más
tarde ingresa en el Liceo, institución en la que enseñaría durante 13 años. En
el Liceo, los discípulos no solo cultivaban la observación, sino que
coleccionaban algunos materiales para apoyar el método inductivo que
desarrollaban en sus investigaciones. Está claro entonces que Aristóteles rompe
con el universo ideal platónico y admite la cognoscibilidad del mundo sobre la
base de la experiencia y de la razón. Su obra penetra diversos ámbitos como la
Lógica, Ética y Política, Física y Biología.
Con relación a la naturaleza de lo existente, la doctrina aristotélica reconoce
los cuatro elementos propuestos por Empédocles pero a ellos le integra cuatro
atributos que considera de máxima universalidad y que se dan como parejas
contrarias: el calor y el frío, la humedad y la sequedad. Llama la atención como
en la noción de Aristóteles el cambio cuantitativo en un atributo puede traer
el cambio de cualidad. El agua fría y húmeda al calentarse, llega el momento que
se convierte en aire caliente y húmedo.
En el caso de la Física planteó tres principios básicos para explicar el
movimiento de los cuerpos, a saber: no hay movimiento sin un ser que se mueva en
el tiempo y el espacio; no existe movimiento sin motor y la acción del motor
sobre el móvil solo es posible por contacto.
Al intentar explicar el movimiento mecánico, Aristóteles introdujo las ideas del
movimiento natural como aquel en el que el objeto tendía a ocupar su lugar
natural, en función de su masa, en una escala de posiciones de arriba hacia
abajo; y el movimiento repentino o violento debido a un agente motor,
antinatural, y que no podía, en fin de cuentas, predominar sobre la tendencia
natural. De esta suerte, introdujo, las ideas de movimiento y reposo.
52
La visión astronómica de Aristóteles propone la delimitación de dos regiones: la
región terrestre, que ocupa el espacio sublunar, es sede del elemento más pesado
(la tierra) y de los elementos responsables de la naturaleza mutable de las
cosas; y la región supralunar que la considera eterna, inmóvil y constituida por
una sustancia diferente, totalmente inerte, a la que denomina éter.
Aristóteles aporta también una doctrina general de “las simpatías”y las
“antipatías” de las cosas, en el marco de la cual pretende explicar la atracción
específica del imán sobre el hierro. Antes Tales había recurrido a un criterio
animista al atribuirle “alma” al imán. Empédocles esbozó una teoría mecanicista
de la atracción magnética que fuera desarrollada por los atomistas,
especialmente por Lucrecio al considerar la acción del imán sobre el hierro como
resultado de emanaciones atómicas.
Epicuro (341 270 a.C.) recibe en su isla natal de Samos la influencia educativa
combinada de seguidores de Demócrito y Platón. Ello explica los fundamentos de
su filosofía natural y de su pensamiento ético. A casi un siglo de las ideas
atomísticas forjadas en Abdera, funda en el 306 a.C una comunidad filósofica en
Atenas, la cual sobresalió no solo por el numeroso grupo de sucesores sino por
la asistencia de mujeres y hombres interesados en las atractivas ideas de la
filosofía y la física epicúrea. El epicureísmo va a desarrollar la cosmovisión,
contraria a la perspectiva aristotélica, de un universo eterno e infinito cuyos
cuerpos están constituidos por átomos que se diferencian por su forma, tamaño y
peso. La muerte es, según su concepción mecanicista, la aniquilación de los
átomos que constituyen la mente y por consiguiente la ansiedad que se desarrolla
en el hombre por una trágica segunda vida carece de todo fundamento.
Si los sabios griegos sobresalen por el desarrollo del pensamiento hipotético –
deductivo y obtienen resultados destacados en las Matemáticas y la Astronomía
53
que exigieron mediciones y comprobaciones de las hipótesis formuladas se puede
advertir que no se desarrollan ni siquiera las primeras tentativas de estudio
experimental. El desarrollo de un pensamiento teórico reflexivo y creativo no
condujo a un primitivo trabajo experimental.
Este lugar fue en su época el cerebro y la gloria de la mayor ciudad del
planeta, el primer auténtico instituto de investigación de la historia del
mundo.
Dentro de las principales aportaciones de esta Escuela se halla la recopilación
realizada por Euclides, matemático y profesor (cerca del 300 a.C.) en su libro
“Elementos”. En este libro, considerado como un clásico de todos los tiempos,
realizó una formulación axiomática de la Geometría que permitió la construcción
sobre bases sólidas de esta rama de las Matemáticas. Esta obra junto a los
trabajos de los sabios del Oriente Medio a orillas del Egeo, como Eudoxo de
Cnido (408 – 355 a.C.), y Apolonio de Perga (siglo III a.C – siglo II a.C),
constituyeron el corpus de conocimientos que posibilitó el desarrollo de la
Astronomía desde Ptolomeo hasta Kepler en el siglo XVII. En círculos matemáticos
se afirma que "Los Elementos" se encuentra entre los libros que, al lado de la
Biblia, han sido más traducidos, publicados y estudiados en el mundo
occidental. No es entonces exagerado afirmar que Euclides clasifica como el más
54
influyente profesor de matemáticas de la Antiguedad y quizás de todos los
tiempos.
Considerado el fundador de la Escuela de Matemática e Ingeniería de Alejandría y
probablemente el primer director del Museo de Alejandría, Ctesibius (c285
222a.C.), como inventor del mundo antiguo es solo superado por Arquimedes. Su
trabajo sobre la elasticidad del aire fue muy importante ganándole el título de
padre de la Pneumática. A pesar de que su tratado "De Pneumatica" y la mayor
parte de sus trabajos se perdieron, otros ingenieros como Filon de Bizancio (260
180 a.C.), y más tarde el arquitecto romano Vitruvio (c. 70 a.C.c. 25 a.C.)
describen en sus crónicas las invenciones de Ctesibius. A él le atribuyen el
diseño de la bomba de impelente, el reloj de agua (clepsidra) de caudal
constante acoplado a un sistema de engranajes que en un cilindro tenía inscripta
la duración del día y de la noche, cañones operados por aire comprimido, y un
arbol hidraúlico capaz de elevar grandes pesos. Al pie del Monte de Olimpia, en
1992 fueron hallados los restos del primer instrumento musical de tablero,
antecesor del órgano de tubos de la iglesia medieval, el hydraulis. Conservado
por bizantinos y árabes la invención musical de Ctesibius, reaparece en Europa
hacia el siglo VIII.
Ante el asedio durante tres años del general romano Marcelo
a su natal Siracusa, el genio de Arquímedes (287212 a.C.),
el inventor de la polea combinada, la ley de la palanca, y
el tornillo sin fin, fue consagrado a la defensa de su
ciudad. A este período se le atribuyen la invención de las
catapulta, la polea compuesta y el espejo generador del
fuego en las naves enemigas. Conquistada finalmente, la
leyenda cuenta que es asesinado por un soldado romano al
sentirse ofendido por el sabio que es molestado cuando
trabajaba absorto sobre la arena de la costa.
En su famosa obra "La medida del círculo" determina el valor exacto de π. Con
Arquimedes se asienta la primera piedra en el edificio del cálculo integral y
las bases de la Hidrostática, con el descubrimiento del principio que lleva
su nombre. Una y otra vez la humanidad pierde con la guerra y la conquista a
sus hijos, en ocasiones genios, y en cualquier caso vidas irrepetibles.
55
Hacia el 240 a.C., Eratóstenes (¿284 – 192 a.C.) nacido en Cirene (actual Libia)
llegó a ser el director de la Biblioteca de Alejandría. Un siglo después de la
obra aristotélica, Eratóstenes desarrolla los cálculos matemáticos necesarios
para medir la circunferencia terrestre obteniendo como resultado 40 222 Km,
valor muy aproximado al real. Matemático, astrónomo, geógrafo, filósofo y poeta
era Erastótenes un auténtico enciclopédico de la Antigüedad. Tras quedarse
ciego, murió en Alejandría por inanición voluntaria.
La línea de conexión entre Ctesibio y Heron aparece representada por el
ingeniero alejandrino Filon de Bizancio. Gracias a sus discípulos fue conservada
la mayor parte de su obra "Colección de Mecanica", un tratado que no solo ofrece
una imagen total de sus trabajos sino que resume los problemas mecánicos que
ocuparon a sus contemporáneos y a sus antecesores. Esta herencia cultural fue
preservada por las traducciones al árabe y de ahí las conoció la Europa del
Renacimiento en su encontronazo cultural ibérico con los árabes. Su Tratado "De
Pneumatica" describe 78 construcciones mecánicas operadas por aire caliente o
vapor. Algunas de sus invenciones más importantes incluyeron la bomba de cadena,
la bomba de aire (fuelle), la bomba de pistón y una sirena para los faros que
funcionaba con la fuerza del vapor.
56
El faro de Alejandría (c. 280 a.C.) fue la última de las
siete maravillas del Mundo Antiguo en desaparecer.
Levantada sobre la isla "Pharos" que descansa a la entrada
oriental del puerto, durante la dinastía de los Ptolomeo,
la construcción del faro consistía en una amplia base
cuadrada y una torre octogonal de unos 100 metros de
altura. En la parte superior ardía presumiblmente
estiércol animal seco ya que los egipcios no disponían de
madera para leña.
Si los sabios griegos obtienen resultados sobresalientes en las Matemáticas y la
Astronomía que exigieron mediciones y comprobaciones de las hipótesis formuladas
se puede advertir que no se desarrollan ni siquiera las primeras tentativas de
estudio experimental de las transformaciones. El laboratorio de los sabios
griegos era fundamentalmente la mente humana. El desarrollo de un pensamiento
teórico reflexivo y creativo no condujo a un primitivo trabajo experimental.
En Alejandría aparece el escenario histórico propicio para un contacto y posible
fusión de la maestría egipcia con la teoría griega pero tal posibilidad no se
convirtió en realidad. Al parecer el vínculo estrecho del arte de la
experimentación con la religión egipcia actuó como muralla impenetrable para el
necesario intercambio. Muchas vueltas daría la Historia para que se diera una
integración fructífera de ambos conocimientos teóricos y prácticos.
No obstante, surge como un exponente de la khemeia griega, a inicios del siglo
III a.C., un egipcio helenizado, Bolos de Mende. A su pluma se atribuye el
primer libro, Physica et Mystica que aborda como objetivo los estudios
experimentales para lograr la transmutación de un metal en otro, particularmente
de plomo o hierro en oro. Semejante propósito, que alienta tentativas
57
posteriores a lo largo de más de un milenio, encuentra fundamento en la doctrina
aristotélica de que todo tiende a la perfección. Puesto que el oro se
consideraba el metal perfecto era razonable suponer que otros metales menos
‘perfectos’ podrían ser convertidos en oro mediante la habilidad y diligencia de
un artesano en un taller. Y este supuesto, junto al interés económico que
concita, soporta el campo de acción principal de los antecesores de la Química.
Con la desaparición del gran imperio consolidado por Alejandro, y el posterior
sometimiento de los pueblos greco – parlantes al poder de los romanos (Grecia es
convertida en provincia romana en el 146 a.C.), quedó seriamente comprometido
el avance del saber científico.
No obstante, la Alejandría de los Tolomeos que no pasará a manos de los romanos
hasta la toma de la ciudad por Octavio más de un siglo después, mantiene viva
la tradición de la Astronomía griega por la labor, entre otros, de Hiparco de
Nicea (s. II a.C.) que, considerándose el creador de la Trigonometría, fue el
primero en elaborar tablas que relacionaban las longitudes de los lados en un
triángulo las que usa para estimar la distancia tierra – luna en 386 100 Km
valor muy cercano al real y para elaborar sus mapas estelares en los que
traslada sus observaciones a planos.
58
Las ideas geocéntricas de Hiparco sobre el movimiento de los astros, influyen en
Claudio Ptolomeo, astrónomo griego nacido en Egipto (s. II), que convierte tales
hipótesis en un sistema coherente de amplio poder explicativo y predictivo. La
compleja técnica utilizada para describir los movimientos de la Luna y el Sol,
sobre la base de las posiciones de unas mil estrellas brillantes constituyentes
de un mapa estelar, aparece descrita en su gran obra el Almagesto.
El aletargamiento de las ciencias en este período se ha relacionado con la falta
de interés de la cultura romana por los saberes científicos – filosóficos. No
obstante, los romanos acopiaron con gran interés las fuentes de los
conocimientos griegos. En este esfuerzo sobresale la monumental obra
enciclopédica de Plinio el Viejo (c. 23 d.C. 79) “Historia Natural” que en 37
libros contiene el estado del arte de la época en disciplinas tan distantes como
la Anatomía y la Mineralogía. La obra de Plinio se convierte en un clásico que
flotará siglos después en la atmósfera atemporal del medioevo europeo hasta
despertar en el renacimiento como referencia para los estudiosos que redescubren
entonces los saberes del mundo grecolatino.
El éxito durante 13 siglos de la teoría ptolomeica se basó
en la concordancia de los resultados de las mediciones que
se realizaban en esa época, de limitada exactitud, con los
movimientos observados de los cuerpos celestes; la
capacidad de predicción de esos movimientos; la
correspondencia de esas ideas con las observaciones del
sentido común; y la legitimación de las ideas religiosas –
filosóficas que se abrieron paso en la época y que
perduraron durante el largo periodo de la Edad Media. Pero
si por longevidad es el "Almagesto" (obra cumbre de la
Astronomía Ptolomiana) émulo de la Geometría de Euclides,
por mérito histórico queda bien lejos de está última.
No han faltado quienes, entre los que se encuentran la autoridad de Isaac
Newton, han calificado muy duramente la manipulación selectiva de los datos
astronómicos disponibles en la época para hacerlos concordar con su teoría
geocéntrica, privando a la humanidad de una información veraz en un área tan
importante de la astronomía y la historia.
Descendiente de griegos de la ciudad del Asia Menor llamada Pérgamo, dominada
entonces por el imperio romano, Galeno (129c. 199) se establece en Roma donde
alcanza celebridad por su ejercicio de la Medicina y sus conferencias públicas,
siendo designado como médico del hijo del emperador Marco Aurelio. Sus obras
traducidas por los árabes en el siglo IX pasaron a través de España a la Europa
59
del Renacimiento. Siguiendo estos vasos comunicantes su legado perdura durante
más de mil años. Con el propósito de investigar la anatomía y fisiología de los
seres vivos elevó la disección de cadáveres de animales a práctica profesional
del médico. Las primeras descripciones del corazón, las arterias, las venas, el
hígado y la vejiga y las primeras hipótesis sobre su funcionamiento se
encuentran en sus obras. Es considerado Galeno uno de los primeros en la
descripción sistemática de los cuadros clínicos asociados a las enfermedades
infecciosas y un pionero en la farmacología.
El único libro sobre la Arquitectura de la Antiguedad que llegó hasta la Europa
del Renacimiento fue "De Architectura" escrito en latín por el ingeniero romano
Marco Vitruvio Polión (c. 70 a.C.c. 25 a.C.). Vitruvio se considera fue un
ingeniero al servicio de las legiones romanas del primer emperador, Augusto (63
a.C. 14 d.C.). Su obra resume en diez libros los conocimientos en esta
disciplina del arte técnica, legados por el mundo griego y las innovaciones
propias de la arquitectura clásica romana. Es pues un compendio de diversos
ámbitos de la ingeniería desde el diseño y planeación de la obra, la
selección de los materiales constructivos, hasta la aplicación de los principios
de la acústica y la hidraúlica en las edificaciones. Sus tres principios: la
durabilidad, utilidad y belleza fueron inscritos en la práctica de las
monumentales construciones romanas: las calzadas, los puentes y los acueductos.
60
Así se ve hoy la vía Apia, a unos kilómetros de Roma.
Solo unos metros conservan su pavimento original. Fue
la más famosa de las avenidas romanas. Construida en el
312 a.C. por el Censor Appius Claudius constituye un
símbolo de lo alcanzado en materia de construcciones
por los romanos. 560 km unían la ciudad, en un trayecto
admirablemente rectilíneo, con Capua. Siglos más tarde,
las calzadas romanas llegaron a representar unos 90 mil
kilómetros de caminos que garantizaban ante todo las
comunicaciones militares en el imperio, pero que al
mismo tiempo constituirían lazos para el intercambio
comercial.
Discípulo de Epicuro, Asclepiades (siglo I a.C.) es considerado fundador de la
Escuela Metódica de la Medicina que trasladó el pensamiento atomístico a la
medicina relacionando las enfermedades a trastornos ocasionados en el movimiento
de los átomos constituyentes del organismo, y propugnando las terapias del
masaje, la dieta, los ejercicios y los baños. Lo que hoy llamaríamos terapias
alternativas.
Es indiscutible que los instrumentos de cálculo han jugado un papel protagónico
en el desarrollo de la Matemática y de la ciencia en general. En Roma se
aprendía a contar con pequeños guijarros, de cuyo nombre latino cálculus,
proviene la palabra cálculo y sus derivados (calcular, calculadora, etc.). Los
romanos utilizaron en su sistema de numeración siete letras del abecedario
latino (I, V, D, X, L, C, M) y algunas reglas para la formación de los números.
Este sistema se usó en Europa hasta el siglo XIII.
61
Marco Vipsanio Agrippa (63 a.C. 12 a.C.) no solo pasa
a la historia como uno de los más victoriosos generales
de Augusto (heredero de Julio César) sino como fundador
de muchas de las nuevas colonias romanas y arquitecto de
las obras clásicas levantadas en Roma, entre las cuales
el Pantheon, su obra cumbre, es uno de los más grandes
logros de la ingeniería romana. Destruído por el fuego
en el 80 d.C. es reconstruído por el emperador Adriano
(76 138 d.C.), alcanzando una nueva monumentalidad.
Poco después del esplendor del imperio romano liderado por Trajano (98110 d.C.)
se escriben cerca de Tebas los más viejos manuscritos sobre recetas para el
taller y el laboratorio que se conserven íntegramente. Conforme a la tendencia
histórica de todos los tiempos, los papiros de Leyden y Estocolmo revelan que
los estudios de las sustancias aparecen relacionadas con dos necesidades
permanentes de la sociedad humana: el dominio de los materiales en este
periodo, fundamentalmente de los metales, y el conocimiento de las sustancias
para el tratamiento de las enfermedades en la lucha contra los padecimientos y
la muerte. Los llamados papiros de Leiden y de Estocolmo, acusan las ciudades
europeas dónde finalmente se conservan: la primera en la famosa Universidad
holandesa de Leiden, y la otra en la capital sueca de reconocida tradición
química.
El hallazgo se produjo a principios del siglo XIX en las tumbas de personajes
momificados junto a los papiros, en región próxima a la legendaria ciudad
egipcia de Tebas, finalmente destruida por los romanos. Los manuales a partir de
los cuales fueron hechas estas copias se escribieron no para la información
pública sino como una guía para la labor en talleres y laboratorios. Las recetas
son a menudo muy detalladas en orientaciones pero a veces fueron solo
sugerencias que no ofrecían una idea clara del proceso que pretendía
describirse.
El papiro de Leiden contiene alrededor de setenta y cinco recetas relacionadas
con la preparación de aleaciones, para soldar metales, para colorear la
superficies de metales, para evaluar la calidad o pureza de los metales, y para
imitar metales preciosos. Existen quince recetas para escribir en oro o plata en
imitación de la escritura de oro o de plata. Son once las recetas para elaborar
colorantes en púrpura u otros colores. Los últimos once párrafos son extractos
de la obra del médico griego Pedáneo Dioscórides (c 40 – 90 d.C.), De Materia
Medica, el primer tratado sobre Botánica y Farmacología, en la cual describe más
de 600 plantas de uso medicinal.
62
Es de interés apreciar que el papiro de Estocolmo complementa las recetas de
Leiden en esta dirección. El manuscrito de Estocolmo contiene alrededor de 150
recetas. De estas solo nueve se relacionan con metales y aleaciones mientras
que más de 60 tratan de colorantes y como 70 sobre la producción artificial de
gemas. Unas diez se refieren al blanqueo de perlas o a la fabricación de perlas
artificiales.
Hacia el año 300, Diocleciano (245 – 313, emperador en el período entre 283 –
305) ordenó quemar todos los trabajos egipcios relacionados con el arte
experimental que eventualmente permitiera fabricar oro barato y con ello hundir
la tambaleante economía del Imperio y que, por otra parte, se vinculaba
sospechosamente con el pensamiento pagano de la religión del antiguo Egipto.
Este mismo emperador trató de eliminar el cristianismo, pero fracasó; el último
gobernante de un imperio romano unido, Teodosio I el Grande (c.346 – 395)
terminó por fundar un imperio cristiano.
Otra relevante aportación nacida en Alejandría, pero ya en el periodo del
imperio romano, fue el Álgebra, atribuida merecidamente a De Diofante,
matemático griego que vivió durante el siglo IV. Su libro principal "De
arithmetica" contiene 13 libros de los cuales sobreviven 6 en el griego original
y 4 en la traducción árabe. Esta obra representa una variada colección de
problemas que implican ecuaciones polinomiales con una o mas
variables. Sistematizó sus ideas con símbolos creados por él mismo, dando origen
a las ecuaciones indeterminadas. La gran cantidad de problemas que propuso y sus
hábiles soluciones, sirvieron de modelo a matemáticos de la talla de Riemann,
Euler y Gauss. Demostró que las fracciones podían manipularse igual que los
otros números, reduciendo la incomodidad que las otras formas de manipulación
causaban.
63
Los condimentos de la caída del Imperio Romano fueron esencialmente los mismos
que han conocido las potencias imperiales a lo largo de la historia: el desgaste
económico interno asociado a los gastos de mantenimiento de un poderoso ejército
y de la enorme burocracia que engendra, las contradicciones sociales que
resultan de esta situación económica, las guerras civiles que se desatan como
resultado de divisiones internas, y las invasiones de pueblos vecinos que se
aprovechan de las debilidades del imperio.
El momento histórico en que se manifiesta el declive de Roma data de fines del
siglo IV cuando los pueblos germanos emprendieron gradualmente la conquista de
Occidente. De entonces al 476, ejércitos visigodos tomaron y arrasaron
provincias romanas, pactaron con el imperio para enfrentar conjuntamente la
invasión de los hunos, fueron cristianizados, y finalmente Odoacro (c.433
c.493), jefe de tropas germánicas, depuso al último emperador romano de
Occidente.
Se inauguraba así un período de estancamiento relativo en el mapa europeo
mientras la cultura árabe a partir del siglo VII se expande, bebe de otras
fuentes y se enriquece hasta llegar al liderazgo de toda una época.
Bibliografía:
Alaa K. Ashmawy (2004): History of Alexandria. University of South Florida.
http://ce.eng.usf.edu/pharos/alexandria/history/index.html
Allen Donald (1997): Archimedes of Syracuse. History of Mathematics. Department
of Mathematics Texas A&M University.
http://www.math.tamu.edu/~don.allen/history/archimed/archimed.html
Berryman Sylvia (2004): Democritus. University of British Columbia. Stanford
Encyclopedia of Philosophy. http://plato.stanford.edu/entries/democritus/
Bodnar Istvan (2006): Aristotle's Natural Philosophy. Stanford Encyclopedia of
Philosophy.
http://plato.stanford.edu/entries/aristotlenatphil/
Brundige Ellen (1991): The Decline of the Library and Museum of
Alexandria. Digital Brilliance. U.K. http://www.digital
brilliance.com/kab/alex.htm
Cohen Marc S.(2003): Parmenides, Stage 1 and 2. History of Ancient Philosophy.
UW Philosophy Department. University of Washington.
http://faculty.washington.edu/smcohen/320/parm1.htm
64
EdadAntigua.com (2006): Roma. IV. Las
Calzadas. http://www.edadantigua.com/roma/calz.html
Fieser J. (2001): The Internet Encyclopedia of Philosophy.
Aristotle (384322 BCE.)
Overview. http://www.utm.edu/research/iep/a/aristotl.htm
The Academy. http://www.utm.edu/research/iep/a/academy.htm
Greek Philosophy. http://www.utm.edu/research/iep/g/greekphi.htm
Figurovski N. A. (1989): Doctrinas filosóficonaturalistas antiguas. Historia de
la Química. Editorial Pueblo y Educación. La Habana.
La química en el Egipto helénico y en la Roma antigua.
Fouce José María (2006): Empédocles de Akragas (495 a 435). La Filosofía en el
Bachillerato. IES Isabel la Católica. Madrid.
http://www.webdianoia.com/presocrat/empedocles.htm
García L.C. (1997): De la máquina de vapor al cero absoluto. Capítulo I Bosquejo
histórico. Fondo de Cultura Económica. México.
http://omega.ilce.edu.mx:3000/sites/ciencia/volumen1/ciencia2/05/htm/maqvapor.ht
m
Gordon Campbell (2006): Empedocles (of Acragas). Internet Encyclopedia of
Philosophy. Department of Ancient Classics. National University of Ireland,
Maynooth. http://www.iep.utm.edu/e/empedocl.htm
Graham Daniel W. (2002): Anaximenes (d. 528 BCE). Department of Philosophy.
Brigham Young University. Provo, Utah 84602. The Internet Encyclopedia of
Philosophy. http://www.iep.utm.edu/a/anaximen.htm
Grout James (2006): Dioscorides: De Materia Medica. Encyclopaedia Romana.
http://penelope.uchicago.edu/~grout/encyclopaedia_romana/aconite/materiamedica.h
tml
Hach Robert A. (1999): History of Science. Department of History. University of
Florida. http://web.clas.ufl.edu/users/rhatch/pages/03SciRev/SCIREV
Teaching/HISSCISTUDYGUIDE/index.htm
The Presocratics. http://web.clas.ufl.edu/users/rhatch/pages/03SciRev/SCI
REVTeaching/HISSCISTUDYGUIDE/0018_preSocratics.html
Aristarchus derivation of the Sun’s distance.
65
http://web.clas.ufl.edu/users/rhatch/pages/03SciRev/SCIREVTeaching/HISSCI
STUDYGUIDE/0029_aristarchusDerivation.html
Works of Claudius Ptolemy. http://web.clas.ufl.edu/users/rhatch/pages/03Sci
Rev/SCIREVTeaching/HISSCISTUDYGUIDE/0032_worksOfClaudisPtolemy.html
Halsall Paul (1999): Ancient History Sourcebook: 11th Brittanica:
Herodotus. Internet History Sourcebooks Project. Fordham University. New York.
http://www.fordham.edu/halsall/ancient/eb11herodotus.html
Hooker Richard (1996): Greek Philosophy: Socrates. World Civilizations.
http://www.wsu.edu/~dee/GREECE/SOCRATES.HTM
Huffman Carl (2005): Pythagoras. Stanford Encyclopedia of Philosophy. The
Metaphysics Research Lab Stanford University.
http://plato.stanford.edu/entries/pythagoras/
Kraut Richard (2004): Plato. Stanford Encyclopedia of Philosophy. The
Metaphysics Research Lab Stanford University.
http://plato.stanford.edu/entries/plato/
O'Connor J.J.; Robertson E.F.(1996): History of Mathematics. School of
Mathematics and Statistics; University of San Andrews.
Anaxagoras de Clazomenae
http://www.gapsystem.org/~history/Biographies/Anaxagoras.html
Democritus de Abdera.
http://wwwhistory.mcs.standrews.ac.uk/history/Mathematicians/Democritus.html
Eratosthenes
http://wwwhistory.mcs.standrews.ac.uk/Biographies/Eratosthenes.html
Aristarcus of Samos.
http://wwwhistory.mcs.standrews.ac.uk/history/Mathematicians/Aristarchus.html
Zeno of Elea
http://wwwhistory.mcs.standrews.ac.uk/history/Biographies/Zeno_of_Elea.html
Claudius Ptolemy
http://wwwhistory.mcs.standrews.ac.uk/history/Biographies/Ptolemy.html
66
Odysseus (2001): Hydraulis: The Ancient Hydraulis and its
Reconstruction. Hellenic Culture. Ministry of Culture. Greece
http://www.culture.gr/2/23/232/epked/en/00_standard_menu/00a_ydraulis/00a.htm
O’Grady Patricia (2001): Thales de Miletus. The Flinders University of South
Australia. The Internet Encyclopedia of Philosophy.
http://www.utm.edu/research/iep/t/thales.htm
O'Keefe Tim (2006): Epicurus. Department of Philosophy. Georgia State
University. The Internet Encyclopedia of Philosophy.
http://www.iep.utm.edu/e/epicur.htm
Perich Campana, Danny (2002): Euclides. Historia de la Matemática. Sector
matemática; Municipalidad de Punta Arenas. Chile.
http://www.sectormatematica.cl/euclides.htm
Ruy Pérez Tamayo (1997): III. La Medicina en el Imperio Romano. De la Magia
Primitiva a la Medicina Moderna. Fondo de Cultura Económica. México.
http://omega.ilce.edu.mx:3000/sites/ciencia/volumen3/ciencia3/154/html/sec_10.ht
ml
Perich Campana, Danny (2002): Erathostenes. Historia de la Matemática. Sector
matemática; Municipalidad de Punta Arenas.
Chile. http://www.sectormatematica.cl/biografias/eratosthenes.htm
Rouse Hunter (2005): Hero of Alexandria (dates undetermined, between 150 BC and
300 AD). History of Hidraulics. College of Engineering. University of Iowa.
http://www.iihr.uiowa.edu/products/history/hoh/hero.html
Smith W, Henry (1904): History of Science. Project Gutenberg File Converted into
HTML pages by Nalanda Digital Library under Etext Conversion Project (ECP).
Book I. Chapter V. The Beginnings of Greek
Science. http://www.nalanda.nitc.ac.in/resources/english/etext
project/history/science/book1.section6.html
Chapter VI. The Early Greek Philosophers in Italy; Chapter VII Greek Science in
the Early Attic Period; Chapter VIII PostSocratic Science at Athens; Chapter
IX. Greek Science of the Alexandrian or Hellenistic Period.
Taub Liba (1999): Hypparchus. Department of History and Philosophy of Science of
the University of Cambridge
http://www.hps.cam.ac.uk/starry/hipparchus.html
67
Technology Museum (2006): Ancient Greek Scientists. Technology Museum of
Thessaloniki.
Biologists
http://www.tmth.edu.gr/en/aet/11.html
Bolos (Democritus) de Mende.
Botanists
http://www.tmth.edu.gr/en/aet/8.html
Theophrastus
Dioscorides Pedanius
Chemists
http://www.tmth.edu.gr/en/aet/16.html
Zosimus of Panopolis
Engineers.
http://www.tmth.edu.gr/en/aet/5.html
Hero of Alexandria; Philo of Bizantium; Sostratus of Cnidus.
Mathematicians.
http://www.tmth.edu.gr/en/aet/15.html
Ctesibius of Alexandria; Diophantus of Alexandria
The University of Alabama (1999): Hypatia, Natural Philosopher (355? 415 CE).
4 000 years of women in Science. Department of Physics & Astronomy.
http://www.astr.ua.edu/4000WS/HYPATIA.html
Verdugo P. (1997): Eratosthenes de Cirene. Los matemáticos y su historia.
Universidad de Santiago de Chile. http://www.mat.usach.cl/histmat/html/erat.html
Zubov V. P. (1962): La Física en Grecia y Roma antiguas. Las ideas básicas de la
Física, ensayos sobre su desarrollo. 28 – 80. Ediciones Pueblos Unidos.
Montevideo.
68
Ideas físicas en el Medioevo y en el Renacimiento
Rolando Delgado Castillo y Francisco Arturo Ruiz
Universidad de Cienfuegos.
Contexto medieval europeo y escolástica
Florecimiento del feudalismo y vasos comunicantes con la cultura árabe
Esplendor de la ciencia árabe y logros del Oriente
Período clásico de las culturas precolombinas
Antecedentes,
teoría copernicana y los desarrollos de Brahe y Kepler
Adiós a la dinámica aristotélica de los ímpetus
El período histórico que se pretende abarcar a continuación comprende los casi
diez siglos de vida del régimen medieval europeo desde que se produce el proceso
de disolución del imperio romano en Occidente a fines del siglo V hasta mediados
del XV en que viene surgiendo, empujado por importantes transformaciones
económicas, el llamado Renacimiento. En este recorrido se incluirán los
principales hitos relacionados con el ámbito de la Física en el escenario
europeo, los brillantes logros de la cultura islámica, los legados fundamentales
del mundo oriental, y las sobresalientes realizaciones del período clásico de
las culturas precolombinas de esta época.
En torno a la decadencia del imperio romano y al proceso de conversión de Roma
al cristianismo, surge la figura de Agustín de Hipona (354 – 430), oriundo de la
colonia romana de Numidia en el norte africano, santificado por la Iglesia
Católica, que intenta ofrecer una primera visión filosófica del cristianismo.
Las fuentes que nutren su doctrina son principalmente el escepticismo y el
69
neoplatonismo. La influencia del cristianismo sobre el lento desarrollo del
conocimiento científico europeo en esta etapa se explica atendiendo a los nuevos
esquemas de pensamiento que esta religión portaba y a los intereses que defendía
la nueva estructura del poder eclesiástico. Las principales preguntas y
cuestionamientos que se hicieron los pensadores anteriores quedarían encadenadas
por el dogma de la fe.
Hasta el cierre definitivo de la Academia en el siglo VI por el emperador
Justiniano (482 565), la pálida producción del conocimiento filosófico de la
época se asocia a la traducción de clásicos y al replanteamiento de las ideas
contenidas en los sistemas de Platón y Aristóteles.
No obstante se destaca en los primeros momentos del medioevo, el filósofo y
estadista romano Boecio (47? – 525), quien no sólo escribe numerosas
traducciones y comentarios de la obra aristotélica sino que aborda con notable
originalidad en su tratado de lógica, el problema del grado de realidad o
significación atribuible a “los géneros y las especies”, con lo cual inaugura
el examen de las dos corrientes epistemológicas, realismo y nominalismo, cuya
controversia alimenta el pensamiento filosófico en siglos posteriores.
Agustín arriba a Roma con 29 años, recibe el bautismo a los 33
de manos del Obispo de Roma, Ambrosio (más tarde canonizado
por la Iglesia), y ocho años después es designado Obispo de
Hipona, convirtiéndose en uno de los doctores de la Iglesia, y
desempeñando un importante papel en los primeros momentos de
la edificación de la Iglesia Católica Romana.
Una extensa compilación del conocimiento de la época, que es ampliamente
difundida a lo largo de siglos y tiene por tanto el mérito de al menos
conservar, en forma latente, el pensamiento avanzado de la cultura grecolatina
es acopiada en la obra “Etimologías” escrita en 623 por Isidoro de Sevilla (c.
560636). Brillante exponente de estos tiempos, Isidoro (canonizado por la
70
Iglesia Católica) como arzobispo de Sevilla, presidió el famoso IV Concilio de
Toledo de 633 que decretó el establecimiento de escuelas en todas las
catedrales. Se antecedió así casi en un par de siglos a la ordenanza de
Carlomagno, pero antes el reino visigodo de Toledo debilitado por las
disensiones internas que se oponían a la unificación arropada por la conversión
al cristianismo, pereció ante el empuje árabe en 711.
Un momento de progreso cultural en el escenario europeo viene dado a fines del
siglo VIII, por lo que algunos consideran como revolución educativa impulsada
por el rey de los francos, coronado como emperador en el 800 por el papa León
III (c.750 – 816), Carlomagno (742 – 814). Este emperador, ordenó en su vasto
dominio, la creación de escuelas anexas a las catedrales e iglesias de las
poblaciones más importantes destinadas a enseñar rudimentos de lectura,
aritmética y gramática. Si embargo hasta bien entrado el siglo XI no existía una
educación que pudiera salir de un nivel elemental. El imperio carolingio
representó una etapa en la integración de las culturas germánica, romana y
cristiana, que con el tiempo resultó una de las savias fundamentales de la
civilización europea.
Otro proceso político que representa un hito en la configuración de un escenario
cultural europeo fue la instauración del nuevo imperio de Occidente que
cristaliza con la coronación del rey de Germania Otón I (912 – 973) por el Papa
Juan XII, el papa niño, (937 – 964). Quedaba entonces constituida una entidad
política, siglos más tarde llamada Sacro Imperio Romano Germánico, que con
períodos de centralización y debilitamiento y contradicciones entre autoridad
imperial y papal, sobreviviría poco más de un milenio.
En los siglos XI – XIV corre la época del florecimiento del feudalismo en
Europa. Crecen las ciudades y se desarrollan las relaciones monetario
mercantiles. En particular el siglo XII marca un reencuentro con el saber
antiguo. Se advierte una reactivación de los viajes y el auge de relaciones
comerciales estrechas entre el occidente y el oriente. La naturaleza de los
contactos con el Oriente tiene otra expresión en las Cruzadas que se iniciaran
con la proclama lanzada por el papa Urbano II (c1040 – 1099) en 1095 y en la
reconquista que llevan a cabo los cristianos españoles de los territorios
perdidos ante el Islam.
71
La obra de Pedro Abelardo trasciende por su avanzado
contenido epistemológico, pero su vida, llena de poesía, se
filtra por el camino de la inmortalidad, como un ejemplo de
amor imposible, en sus Cartas a Eloísa. De otra parte, debió
sufrir la condena en 1140 de un concilio católico por el
peligro que representaba para los dogmas de la fe las
enseñanzas racionalistas y el método dialéctico que
preconizaban sus obras. Los restos de Abelardo y Eloísa
yacen para siempre juntos en un cementerio de París.
La filosofía escolástica es hija de este período histórico y está signada por la
esterilidad que deriva de fijar como objetivo último de su estudio armonizar la
filosofía y la ciencia aristotélica con el contenido sobrenatural de la
revelación cristiana, dejando poco espacio al conocimiento y la explicación de
nuevos hechos.
De cualquier modo, el lado productivo del escolasticismo se advierte en la obra
de figuras como Pedro Abelardo (1079 – c. 1142) cuya principal tesis dialéctica,
presentada en Sic et Non (c. 1123), consiste en la consideración de la verdad
como fruto del análisis riguroso de los diferentes aspectos de una cuestión.
Abelardo se aparta de las posiciones extremas en el debate entre nominalismo y
realismo, negando por una parte el legado platónico de los universales como
categorías que existan antes y fuera de la mente y rechazando por otra la tesis
reduccionista de que las abstracciones, conocidas como universales, carecen de
una realidad esencial o sustantiva, pues tan sólo los objetos individuales
tienen una existencia real. Su teoría es un paso definitivo hacia el realismo
moderado que alcanza su visión más acabada en la posición epistemológica de
Tomas de Aquino (1225 – 1274).
Aquino, la figura más importante de la filosofía escolástica, santificado por la
Iglesia Católica, discípulo de Alberto Magno y profesor de la Universidad
de París en 1252, acepta la verdad contenida en la experiencia sensible cuando
se hace inteligible por la acción del intelecto, intenta justificar la
aprehensión de las realidades inmateriales por parte del raciocinio, y rebate la
existencia por sí misma de los universales con independencia del pensamiento
humano. Al defender la teoría aristotélica que considera la percepción como el
punto de partida y la lógica como el procedimiento intelectual para llegar a un
conocimiento fiable de la naturaleza, deja abierta la puerta hacia el
conocimiento científico.
En el área de las matemáticas una manifestación importante de transmisión
cultural se da a inicios del siglo SXIII cuando el pisano Leonardo Fibonacci
72
(1170 1240) introduce el sistema arábigo en Europa, el cual solo pudo ser
difundido con la posterior invención de la imprenta. Hijo de un comerciante se
motivó por los estudios matemáticos en sus viajes comerciales con el Oriente.
Los constantes intercambios de Fibonacci con gente del Maghreb y de
Constantinopla le relacionaron con el sistema numérico indoarábigo y descubrió
sus enormes ventajas prácticas sobre los números romanos que aún se empleaban
comúnmente en Europa Occidental. Su libro Liber Abaci, publicado en 1202, fue
una especie de manual de álgebra para usos comerciales. La mayoría de sus
técnicas de resolución están basadas en los trabajos algebraicos de al
Khwarizmi. Fibonacci ha sido considerado un iniciador de los maestros del
ábaco, expertos en Álgebra práctica y aritmética, que se difundieron en Italia
durante el siglo XIV y precursor del renacimiento en las Matemáticas
representado por las obras de Niccolo Fontana (ca. 15001557), alias Tartaglia,
y Gerolamo Cardano (15011576).
Es en este contexto histórico que se fundan las primeras universidades europeas
con el propósito de servir de instrumento para la expansión de los nuevos
conocimientos y transmitir la herencia cultural a las nuevas generaciones. En el
trivium de Teología, Derecho y Medicina que dominara el currículo universitario,
la Medicina se erigía como la disciplina que demandaba el desarrollo de estudios
experimentales. Pronto, célebres "Doctores" serían los impulsores del nuevo
naturalismo europeo.
En el campo de las innovaciones prácticas el escenario europeo va a ser testigo
en el siglo XII de la difusión de los molinos de viento. Estas maquinarias
representaron un logro de la cultura persa hacia el siglo VI dC y pronto se
73
extendieron a China y el Oriente Próximo. El aprovechamiento de la energía de
los vientos se remonta al Egipto Antiguo cuando se inicia la navegación marina a
vela. Pero estos artefactos con el movimiento circular de sus aspas, que ha
impresionado siempre los sentidos humanos, se encargaban de cumplir dos
importantes funciones: bombear agua para el riego o moler granos. Miguel de
Cervantes inmortalizó su imagen con el duelo sostenido entre el enfebrecido Don
Quijote y los enemigos gigantes en su fundacional obra del siglo XVII.
Un exponente de esta fecunda época en que los vasos comunicantes con la cultura
árabe propician el desarrollo del conocimiento científico lo es Alberto Magno
(1200 – 1280), santificado por la Iglesia Católica y titulado patrón de todos
los que estudian ciencias naturales. Reconocido como uno de los naturalistas más
importantes del siglo XIII, estudia en Padua y ejerce el profesorado en la
Universidad de París, recorre toda Europa en sus misiones sacerdotales y así
traba conocimiento de la producción científica árabe y de los clásicos griegos.
En el terreno filosófico se distingue Alberto Magno como uno de los artífices de
la doctrina de "la doble verdad". La solución al debate entre la razón y la fe
debió pasar por el filtro ideológico que admitiera al hombre la posibilidad y
capacidad de estudiar el escenario natural creado por Dios, abriendo un espacio
a la "filosofía de la naturaleza". De cualquier manera, no cesaría la censura
del poder eclesiástico que obstaculizó el desarrollo y en ocasiones condujo a
sanciones de prisión y horrendos crímenes. Alberto se identifica con la
decantación en el estudio inicial de la Zoología de los elementos de
superstición y prejuicios religiosos que empañaban su conocimiento.
Uno de los iniciadores del trabajo científico y de las producciones teóricas a
partir de traducciones de fuentes griegas y árabes en la Universidad de Oxford,
fue Robert Grosseteste (c.1175 1253). Grosseteste trabajó en Geometría, Óptica
y Astronomía, campos en los cuales escribió numerosos tratados. Entre sus
geniales atisbos se reconocen su comprensión de que el espacio hipotético en el
74
que Euclides imaginó sus figuras era el mismo dondequiera y en cualquier
dirección; su noción sobre la refracción de la luz por una esfera llena de agua;
y su predicción de que la Vía Láctea era el resultado de la fusión de la luz de
muchas pequeñas estrellas cercanas. Especial relevancia tienen sus trabajos en
Óptica con lentes y espejos, donde vislumbra la posibilidad de los inventos que
debieron esperar varios siglos como el telescopio y el microscopio. Contó entre
sus discípulos a Roger Bacon (1212 1294) quién heredó de su maestro la
concepción de que la experimentación debe usarse para verificar la teoría
mediante la comprobación de sus consecuencias.
El monje franciscano Roger Bacon constituye un segundo representante
sobresaliente del despegue de la ciencia “natural” en Oxford. Estudia primero en
Oxford y luego en la Universidad de París donde llega a ser profesor. Sus
escritos incluyen temas sobre óptica (entonces llamada “perspectiva”),
matemáticas, química, astronomía, las mareas y la reformulación el calendario.
Su habilidad en el uso de instrumentos ópticos y mecánicos hizo que algunos de
sus contemporáneos lo consideraran un hechicero. Bacon estaba familiarizado con
las propiedades de los espejos, conoció los poderes del vapor y de la pólvora,
fabricó un instrumento muy parecido al telescopio moderno y utilizó lentes de
aumento para la ampliación de la imagen. En 1278 Bacon fue hecho prisionero en
el Convento de Ancona en Italia, bajo el cargo de enseñar novedades sospechosas.
Sus últimos escritos, compilados en 1293 en Compendium studii theologiae,
demuestran que hasta el último momento, aún después de sufrir 12 años de prisión
y aislamiento, defendió sus puntos de vista sobre la importancia de la
experiencia en la construcción del conocimiento científico.
75
caracterizan a la metodología de investigación moderna. Más
de tres siglos después, Descartes (sin hacer referencias al
trabajo de Teodorico, a pesar de que las copias de sus
trabajos trascendieron hasta esta época según testimonios
existentes) retoma el problema del arco iris en Les Metgores
(1637) haciendo una contribución original a la teoría del
fenómeno.
Una de las predicciones de Bacon en el campo de la Óptica, el empleo de lentes
de aumento para la fabricación de gafas, se materializa hacia la segunda mitad
del siglo XIII. Fueron artesanos italianos los primeros en fabricar espejuelos
al lograr, trabajando lentes convexas, un correcto ajuste en la visión de los
ojos. La invención se la disputan Salvino D´Armate de Pisa y Alessandro Spina
de Florencia. Las lentes cóncavas para el ajuste de ver de cerca (miopía) no
fueron inventadas hasta el siglo XV. Otra notable sugerencia de Bacon
relacionada con poner la alquimia al servicio de la preparación de medicinas
representaba fortalecer la función de las boticas galénicas del Medioevo.
La mecánica de la palanca y la composición del movimiento de un cuerpo aparecen
desarrolladas en sus fundamentos básicos por el físicomatemático germano
Jordanus de Nemore (1225 1260). Jordanus fue considerado como uno de los
filósofos naturales más prestigiosos del siglo XIII. Es considerado el
fundador de la estática medieval (rama de la física que estudia los cuerpos en
reposo o en movimiento no acelerado). Jordanus fue el primero en formular
correctamente la ley del plano inclinado. Si en el campo de las matemáticas su
obra De numeris datis representa el primer libro de álgebra avanzado escrito en
Europa después de Diofantus, en el ámbito de la Estática sienta cátedra con su
libro De ratione ponderis. Su vida se abrevia al morir prematuramente de regreso
de un viaje a Tierra Santa en plena mar.
En el siglo XIII, el científico polaco Witelo de Silesia (1230 1275), escribió
un exhaustivo tratado de 10 volúmenes sobre Óptica que sirvió como texto clásico
sobre esta materia hasta el siglo XVII. Se piensa que debe haberse completado
alrededor de 1270 y conforme a la época este texto fue copiado y circulado en
forma manuscrita. El manuscrito original no se ha preservado pero una edición
del texto publicado por Regiomontanus (1436 – 1476) fue impresa como un libro a
mediados del siglo XVI. Muchos estudiosos defienden que "Perspectiva" está
basada, por lo menos en parte, en la traducción griega de los trabajos del
estudioso árabe Alhazen (9651040) pero este es un punto controvertido.
76
En 1269 Pierre de Maricourt, más conocido por Petrus
Peregrinus o Pedro el Peregrino, formaba parte del
ejército francés que sitiara a la ciudad italiana de
Lucerna. Encargado de fortificar las posiciones, minar el
campo, y construir maquinas para lanzar piedras y
artefactos incendiarios, en el tiempo libre se ocupaba de
intentar resolver el problema del movimiento perpetuo y
con este propósito diseñó un diagrama para mostrar como
una esfera podría moverse sin detenerse bajo la acción
permanente de un intenso campo magnético. Condenado
finalmente al fracaso en su empeño de producir la máquina
del movimiento perpetuo, mostró una notable previsión
anticipándose a los principios del funcionamiento de un
motor eléctrico.
No hay dudas de que muchas de las ideas propuestas por ambos fueron similares.
Por ejemplo tanto Witelo como Alhazen rechazaron la común percepción de estos
tiempos de que los rayos luminosos eran emitidos desde los ojos, en su lugar
sugirieron que los ojos eran pasivos recibidores de la luz reflejada desde otros
objetos. Sin embargo tal paralelismo no significa necesariamente que uno copiara
del otro, y el debate alrededor de la cuestión llega hasta nuestros días. Entre
otros tópicos tratados en Perspectiva, Witelo considera cuidadosamente la
refracción a través de sus observaciones, notando que el ángulo de refracción
(ángulo desviado) no es proporcional al ángulo incidente, aunque el no fuera
consciente del fenómeno conocido hoy como reflexión total interna. También
explicó un método para producir espejos parabólicos a partir de hierro. El
trabajo de Witelo sobre Óptica fue tan extenso que la tarea de ampliarlo solo
fue emprendida más de tres siglos después cuando Kepler publicó en 1604
"Suplemento al trabajo de Vitelo en la parte óptica de la Astronomía”.
Las ideas aristotélicas sobre la simpatía de los cuerpos cargados eléctricamente
y entre los atraídos por un imán y este, vigentes a través de los siglos,
77
reciben una primera corrección, en el camino de la problematización de este
campo, por el ingeniero militar Pierre de Maricourt.
Atraído por la utópica posibilidad de producir la añorada máquina del movimiento
perpetuo a partir de una esfera sin rozamiento sobre la cual actuara
permanentemente un imán, Peregrinus (como también se conoce) escribe su
“Epístola de Magnete” (1269) en la que identifica las propiedades de los
imanes, sus polos, la atracción de polos diferentes, la repulsión entre polos de
igual naturaleza, y describe una nueva brújula que opera sobre un mecanismo de
pivote. La Epístola es reconocida como una de las obras de la investigación
experimental medieval y como precursora de la metodología científica moderna.
La teoría de Aristóteles sobre el movimiento de los cuerpos es revisada también
y se tiene como pionero de los estudios de la física terrestre que seguirán mas
tarde los físicos de la "balística" al filósofo frances Jean Buridan (1300?
1358). En esencia la teoría de los ímpetus de Buridan afirma que el impulso dado
por el agente que provoca el movimiento de otro cuerpo es proporcional a la
velocidad y la masa del primero. Estamos a dos siglos de los trabajos del
maestro de Galileo, Giambattista Benedetti (1530 1590), con el cual se inicia
el adiós definitivo a la dinámica de los ímpetus de Aristóteles.
Dante Alighieri (1265 1321) supone la última integración
de la cultura medieval con la nueva era renacentista. La
Divina Comedia constituye un inventario del pensamiento
político, científico y filosófico de su tiempo. Beatriz
Portinari, representó el símbolo supremo del amor que
inspiró su obra maestra. Dante no fue ajeno a los vientos
políticos de la Florencia de la época. Combatió para la
causa de los güelfos, conoció del destierro de su ciudad, y
se convirtió al partido de los guibelinos que deseaban la
unificación de Europa bajo el gobierno de un emperador
culto y competente.
La Escuela de Medicina de Bolonia que se desarrolla en el siglo XIII, es
antesala de revolucionarios cambios en la práctica de la Medicina y entre los
representantes de esta época sobresale Teodorico Borgognoni (12061298). En su
obra "Chirurgia" describe nuevas técnicas en la cirugía como la limpieza de las
heridas con vino, la aplicación de anestesia mediante una esponja somnífera
empapada en una mezcla de extracto de opio, beleño, mandrágora y otras drogas, y
el empleo de la sutura de las heridas tras una limpieza cuidadosa, con lo
cual invierte la práctica habitual de la época de aplicar sustancias que
estimulasen la formación de pus. Utiliza para la sutura hilos preparados con
78
intestinos de animales. Esta Escuela rompe con la tradición de la Escuela de
Galeno y comienza a escribir las nuevas experiencias que se acumulan en el
terreno de la mesa de operaciones.
Un punto de transición en el camino que convirtió la Alquimia en Farmacia viene
representado por “El Libro de la Quintaesencia” atribuido a la figura pionera en
la formación de la literatura catalana Ramón Llull (12321316), y a Johannes
Rupescissa. Ellos tienen el mérito de aportar una nueva visión en la preparación
de los medicamentos.
El más importante de los alquimistas europeos que firmaba sus documentos como
Geber (el famoso alquimista árabe que viviera dos siglos antes) fue el primero
en describir, hacia el año 1300, la forma de preparar dos ácidos fuertes
minerales: el ácido sulfúrico y el ácido nítrico. Poco tiempo después de Geber
el estudio de la alquimia, por segunda vez en la historia, sería prohibido. En
esta ocasión corresponde al Papa Juan XXII (Papa de 1316 al 1334) declararlo
anatema. Sobrevendrían largos años de silencio o acaso de clandestinidad de la
Alquimia que impidiera llegar hasta nosotros cualquier conocimiento producido.
Un gran vacío en la producción de los conocimientos científicos se advierte en
el período de la gran epidemia de la peste (1340) que motivó la muerte de una
cuarta parte de la población europea, y de la Guerra de los Cien Años (1337
1453) conjunto de episodios bélicos que asoló a Europa.
En una ojeada hacia el Oriente, resulta de interés pasar revista primeramente al
contexto bizantino que al heredar el legado cultural romano podría haber
representado el escenario donde se conservaran y desarrollaran las tradiciones
intelectuales del mundo clásico mediterráneo. Sin embargo, los bizantinos
cristianos tampoco se dedicaron al enriquecimiento de las obras de los filósofos
y científicos griegos y latinos. Sólo en tiempos de esplendor de Constantinopla
como los casi dos siglos de dinastía macedónica, entre el 867 y el 1057, y más
tarde durante la dinastía de los Paleólogo (1261 –1453), el mundo bizantino
conoció una recuperación de la vida cultural que en materia secular representó
la copia y reformulación extractada de algunos manuscritos antiguos y una
renovada atención hacia las matemáticas y la astronomía. Este saber “recuperado”
encontró sus vías de comunicación con Europa en tiempos de las Cruzadas y luego
durante el éxodo de los eruditos a la caída de Bizancio en manos de los turcos
(1453).
79
La expansión del dominio musulmán a la altura del
siglo VII por el oeste de Asia y el norte de
África; los contactos con restos de la herencia
cultural griega en Persia y Egipto; y los
intercambios con la India y China, fueron
elementos que conformaron una asimilación
multicultural de la cual emergen numerosos logros
en particular en las Matemáticas, la Astronomía y
la Alquimia.
Pero existe una aportación, que mezclada con la leyenda, merece un breve
comentario. Hacia fines del siglo VII, en medio de la expansión hacia el norte
de los musulmanes, la armada bizantina utiliza un arma incendiaria en batallas
navales, mucho más potente que las conocidas hasta entonces, que sembró el
pánico entre las naves atacantes. La receta de semejante arma, conocida luego
con el término de Fuego Griego, fue tan celosamente guardada que 50 años después
de su aparición en el escenario bélico sus propios dueños la habían perdido. Lo
cierto es que Bizancio pudo organizar con éxito la defensa de Constantinopla del
acecho de los musulmanes pero bien distinta fue la suerte corrida por los
pueblos hacia el este y el oeste que fueron conquistados por los árabes.
De tal modo, paralelo al medioevo europeo, comienza rápidamente a expandirse un
mundo islámico que gesta una brillante cultura cuyos logros fundamentales,
examinaremos a continuación. Conviene destacar que si la comunidad islámica
llega a representar la civilización más fecunda de la época medieval esto se
hace posible gracias a la política de integración de las culturas precedentes y
vecinas al desarrollo del patrimonio propio alentada por las dinastías
musulmanas primero de los Omeyas (661 750) y luego de los Abasis (s.VIII –
s.XIII) que llegaron a dominar ya a mediados del siglo VIII desde las regiones
periféricas de China y la India, por el este, hasta el norte de África y casi
toda la península Ibérica, por el oeste.
Mientras los Omeyas al conducir la expansión del Islam por los vastos
territorios conquistados instauraban un clima de tolerancia religiosa que
favorecía la inmigración de eruditos, procedentes del dominio bizantino, donde
sufrían persecución si profesaban creencias cristianas heterodoxas o paganas,
tanto los Abasis como la dinastía Fatimí de Egipto se convirtieron en Mecenas de
las ciencias, fundando instituciones como la Casa de la Sabiduría de Bagdad
(siglo IX) para el estudio de las ciencias y para la traducción de los textos
científicos y filosóficos griegos, o el recinto universitario cairota, dedicado
a la enseñanza secular, la Universidad alAzhar (siglo X).
80
Con relación al pensamiento matemático se destaca la aportación que viene de la
India en el año 500 DC con la utilización del cero para evitar confusiones en el
manejo del ábaco. La innovación más importante de este sistema, desarrollado más
tarde por los árabes fue el uso de la notación posicional, en la que los
símbolos individuales cambian su valor según su posición en el número escrito.
La Astronomía que tanto desarrollo mostró en la cultura griega pasó más tarde
hacia el este a los sirios, indios y árabes. Los astrónomos árabes recopilaron
nuevos catálogos de estrellas en los siglos IX y X y desarrollaron tablas del
movimiento planetario. Al hacerlo debieron beber de la obra clásica de las
matemáticas y la astronomía hindú “La apertura del universo” escrita en el 628
por Brahmagupta (598 – 670). Este científico fue director del observatorio en
Ujjain, y su obra astronómica abarca el cálculo de las longitudes medias de los
planetas, los eclipses solares y lunares, las conjunciones de los planetas unos
con otros y con las estrellas fijas. Como matemático, a diferencia de la mayoría
de los algebristas europeos de la Edad Media reconoció los números negativos e
irracionales como raíces posibles de una ecuación.
El sistema de numeración posicional es uno de los más grandes inventos de la
humanidad, ya que con sólo diez símbolos permite expresar fácilmente cualquier
número y múltiples operaciones entre estos. La gloria se encarna en el árabe Al
Khwarizmi (780 – 850), de cuyo nombre se deriva la palabra algoritmo, y que es
considerado el primer matemático que reporta la notación posicional. En 810
escribe un libro donde acuñó el término que en español queda como álgebra. La
primera referencia escrita del uso de este tipo de numeración en Europa data del
año 976. AlKhwarizmi es un relevante representante de la Casa de la Sabiduría
fundada por el califa alMamun en Bagdad, quien también construyó la principal
biblioteca erigida después de la de Alejandría, donde se coleccionaron
importantes trabajos de Bizancio, y edificó observatorios para enriquecer los
conocimientos astronómicos acopiados por culturas precedentes. Además de
traducir y estudiar manuscritos científicos griegos, AlKhwarizmi escribió sobre
81
álgebra, geometría y astronomía. Su libro Sindhind zij, basado en los trabajos
astronómicos hindúes, resume sus aportaciones en este campo. Los principales
tópicos incluidos en esta obra son los calendarios, los cálculos de las
posiciones verdaderas del sol, la luna y los planetas, tablas de senos y
tangentes, astronomía esférica y cálculos de eclipses y paralelajes. Al
Khwarizmi escribió un trabajo fundamental sobre geografía que está basado en la
Geografía de Tolomeo, y en el cual ofrece las longitudes y latitudes de más de
2000 ciudades, montañas, rios, islas y mares como base para un mapa del mundo,
en el cual sus aportaciones se refieren a las regiones del Islam, África y el
Lejano Oriente.
A mediados del siglo X, el califato Fatimí no reconoció la autoridad Abasí y
gobernó la mayor parte del norte de África, desde Egipto hasta la actual
Argelia, además de Sicilia y Siria. Ellos fundaron la ciudad del Cairo como la
capital del nuevo imperio. AlHakim, el segundo de los califas fatimís que
comenzaron el reinado en Egipto, fue un líder cruel y sin embargo actúo como un
patrón de las ciencias, construyendo una biblioteca que fue segunda en
importancia sólo de la Casa de la Sabiduría.
La galaxia Andrómeda a una distancia de 2,2 millones de años luz, representa
la galaxia espiral más cercana y el objeto más distante que se puede observar
a simple vista. Este fue el primer registro de un sistema de estrellas fuera
de nuestra propia galaxia.
Para conducir el colosal empeño de AlHakim de regular el curso de las aguas del
Nilo fue designado el sabio Abu Ali alHasan ibn al Haytham (965 1040). Al
Haytham vino a Egipto desde Basora para encabezar el equipo de ingeniería pero
a medida que avanzaba en la exploración del río mayores dificultades aparecieron
para cumplir el proyecto, hasta que se vio en la necesidad de reconocer su
inviabilidad.
82
El informe presentado por alHaytham defraudó al califa que consideró
incompetente al sabio y le asignó un puesto administrativo. Se afirma entonces
que alHaytham se hizo pasar por loco y fue recluido en su casa, lo que le
permitió proseguir sus estudios científicos en la soledad de su residencia,
hasta la muerte del califa. Las escrituras de Ibn alHaytham abarcan más de 90
trabajos, de los cuales sobreviven unos 55. Los temas principales que abordó
fueron la teoría de la luz y de la visión. La mas importante contribución de al
Haytham a la ciencia es su obra en siete libros traducida al latín en 1270
como Opticae thesaurus Alhazeni. En el libro I se destaca la consideración de
que la investigación de la luz debe basarse en evidencias experimentales más que
en teorías abstractas. Advierte que la luz es la misma con independencia de la
fuente, sea luz solar, o proveniente del fuego, o luz reflejada de un espejo, y
ofrece la primera explicación correcta de la visión, mostrando que la luz
reflejada por un objeto alcanza el ojo humano. Sus estudios lo conducen a
concebir y proponer el uso de la cámara obscura. Desde el punto de vista
matemático el libro IV es el más importante al discutir la teoría de la
reflexión y describir la construcción y el uso de un instrumento de cobre para
medir la reflexión desde espejos planos, esféricos, cilíndricos y cónicos, sean
convexos o cóncavos. En el libro VII examina la refracción basada en la idea de
que la luz es un movimiento que admite una velocidad variable (siendo menor en
cuerpos más densos). Su estudio de la refracción le hace estimar en unos 15 km
la altura de la atmósfera terrestre.
El final del siglo X y el comienzo del siglo XI fue un periodo de gran
inestabilidad en el mundo islámico y en particular la zona de Persia controlada
por la dinastía samaní que dominó los centros culturales de Samarcanda y Bujara
fue sacudida por devastadoras luchas fraticidas. Estas circunstancias sacudieron
la vida de los sabios de esta región y obstaculizaron el desarrollo de la
cultura científica árabe. Entre los exponentes más destacados de este período se
encuentran Abu Rayhan alBiruni (973 1048) y Abu Ali alHusain ibn Sina
(Avicena) (980 1037).
83
humano.
Las contribuciones de alKhwarismi a la geodesia y la astronomía fueron
superadas un siglo más tarde por Abu Rayhan alBiruni (973 1048). AlBiruni
también es oriundo de la misma región de Khwarasm. La introducción del método de
la triangulación para medir la Tierra y las distancias le permitió calcular el
radio del planeta en 6339.6 km, un valor no obtenido en Occidente hasta el siglo
XVI. Su libro Masudic canoncontiene una tabla que ofrece las coordenadas de unos
600 lugares, casi todos a través de sus propios conocimientos. Entre sus ideas
originales sobresalen sus observaciones sobre que la velocidad de la luz es
inmensamente mayor que la del sonido, su noción de la Vía Láctea como una
colección de incontables fragmentos de estrellas nebulosas, y sus medidas
precisas de los pesos específicos del oro, mercurio, plomo, plata, bronce,
cobre, latón, hierro y estaño.
El volumen del trabajo escrito por alBiruni es impresionante. Se estima que el
escribió alrededor de 146 trabajos con un total de 13,000 páginas, cubriendo
prácticamente todo los ámbitos de la ciencia de su tiempo. El más importantes de
estos trabajos es Sombras que se cree fue escrito alrededor de 1021.Sombras es
una fuente sobre la historia de las matemáticas, la astronomía y la física.
También contiene ideas importantes como aquella que identifica el movimiento no
uniforme con la aceleración del móvil, o la que anticipa la introducción de las
coordenadas polares al definir la posición de un punto en un espacio de tres
dimensiones, usando las tres coordenadas rectangulares.
La vida de Ibn Sina Avicena en Occidente transcurrió en un contexto repleto
de adversidades que debió sortear para producir una importante obra científica,
que lo sitúa entre los más famosos doctores, matemáticos y astrónomos de su
época. Ibn Sina escribió alrededor de 450 trabajos de los cuales 240 se
conservan, unos 150 se relacionan con la filosofía natural y 40 se dedican a la
medicina, sus dos campos principales de estudio. Una de las cuatro partes de
su gran obra "El libro de las curaciones" se dedica a las matemáticas,
incluyendo en esta sección sus investigaciones sobre astronomía y la teoría de
la música. En particular sus observaciones astronómicas brindaron algunas
aportaciones como la deducción correcta de que la distancia entre Venus y la
Tierra era menor que la que separaba al lucero de la aurora del sol, y también
ofreció el método para calcular la distancia entre Baghdad y Gurgan mediante la
observación del tránsito del meridiano de la Luna a Gurgan. Una contribución
instrumental de Sina a las mediciones astronómicas lo fue el dispositivo que
permitió determinar las coordenadas de una estrella, su azimut y su altitud.
Con el propósito de aumentar la precisión de las lecturas instrumentales inventó
un artificio similar al nonio.
84
Ibn Sina Avicena en Occidente es conocido sobre todo por
sus aportaciones en el campo de la medicina. En Física,
reconoce como diferentes formas de energía al calor y la
luz, y en sus estudios sobre mecánica introduce los
conceptos de fuerza, vacío e infinito. Su atisbo de
interconexión entre tiempo y movimiento adelanta la
necesidad de los experimentos cuantitativos. La percepción
de la luz es para Ibn Sina debida a la emisión de un tipo de
partículas por la fuente luminosa, y por otra parte dedujo
correctamente que la velocidad de la luz es finita. También
investigó sobre la gravedad específica de los cuerpos y usó
un termómetro de aire.
Casi dos siglos después de los trabajos en óptica de Ibn al Haytham, el sabio
persa alFarisi (1260 1320), conocido también como Kamal aldin, publica su
obra Tanqih (Revisión). En este libro alFarisi no busca una mera explicación a
los trabajos de los maestros que le precedieron sino intenta desarrollar teorías
alternativas allí donde advierte vacíos en los conocimientos sobre los fenómenos
ópticos. Su trabajo sobre la luz, los colores y el arco iris se exponen en esta
obra, que explica en términos matemáticos satisfactoriamente la formación del
arco iris.
Si al Haytham había propuesto que la luz solar es reflejada por una nube antes
de alcanzar el ojo, alFarisi propone un modelo donde el rayo de luz solar
experimenta doble refracción por una gota de agua, y una o más reflexiones
ocurren entre las dos refracciones. Este modelo permite la verificación
experimental utilizando unas esferas de vidrio transparente llenas de agua.
Naturalmente esto introduce dos adicionales fuentes de refracción,
principalmente entre la superficie del vidrio y del agua. Alfarisi fue capaz de
demostrar que la aproximación obtenida por su modelo era suficientemente buena
para ignorar estos efectos secundarios. Para poder explicar la formación de los
colores alFarisi acudió a un nuevo punto de vista teórico que rechazó la
anterior hipótesis según el cual los colores eran el resultado de diferentes
combinaciones de oscuridad y luz.
Las precisas mediciones de los pesos específicos de los metales preciosos
realizadas por alBiruni fueron superadas casi un siglo después por quien fuera
un joven esclavo de la región del oasis de Merv, centro agrícola y comercial de
la época (en territorio de la hoy República de Turkmestán). AlKhazini (primera
mitad del siglo XII) merece ser incluido entre los grandes físicos, por sus
85
admirables determinaciones de pesos específicos. Impulsado por el propósito de
comprobar la pureza de los metales, joyas y aleaciones con fines comerciales Al
Khazini llevó a cabo refinamientos en la práctica de las balanzas que hacen de
su conocida obra la "Balanza de la sabiduría", (Mizan alHikma) un ejemplo de
atención a la precisión científica en los resultados experimentales y uno de los
más notables escritos del medioevo. Este tratado ha sobrevivido en cuatro
manuscritos. En estos estudios se describe la balanza hidrostática, su
construcción y usos así como la teoría de la estática e hidrostática sobre la
cual descansa. En el primero de sus ocho capítulos pasa revista a los
antecedentes encontrados en las obras de alBiruni, alRazi y Omar alKhayam, y
en los errores de los clásicos griegos para luego diferenciar claramente los
conceptos de fuerza, peso y masa. También fue consciente del peso del aire y de
la disminución de la densidad con la altitud. Varias observaciones de AlKhazini
constituyen algunas de las bases de la física moderna. Fue el primero en
proponer la hipótesis de que la gravedad de los cuerpos varía dependiendo de su
distancia al centro de la Tierra.
Conocidos como arabistas, la escuela árabe de Medicina superó a los médicos
europeos del Medioevo. Entre los factores históricos de estos progresos se
relaciona el encuentro de los árabes en Persia con los clásicos griegos
conservados por los nestorianos cristianos. Entre las obras arabistas se
encuentra la del médico cairiota Ibn alNafis (1205 –1288) que refleja el
profundo dominio de la herencia hipocrática por parte de la medicina árabe. Sus
principales aportaciones se refieren a la descripción de las técnicas
86
quirúrgicas en atención a traumatismos y la representación de la circulación
pulmonar, es decir del movimiento de la sangre desde el ventrículo derecho del
corazón al izquierdo a través de los pulmones. Con este descubrimiento alNafis
se antecede en casi cuatro siglos a la revolución fisiológica que provocó el
redescubrimiento y el desarrollo de las ideas sobre el sistema circulatorio
descrito por el inglés William Harvey (1578 – 1657).
Desde el alAndalús español la cultura árabe irradió sus logros hacia el
escenario medieval, aletargado, europeo. Este territorio fue cuna de filósofos,
científicos, artistas y sabios, y en ella se forjaron pilares del saber que hoy
ni sabemos con exactitud de dónde procedieron. Hacia el siglo XI Córdoba llegó
a ser la capital más culta de Europa.
El Almagesto de Ptolomeo y las llamadas Tablas Toledanas astronómicas del árabe
Azarquiel (¿ 1100), fueron rescatadas para el saber occidental gracias al
movimiento de traducción que se desarrolla a partir de 1085 con la reconquista
de la ciudad de Toledo por el rey Alfonso VI. Gerardo de Cremona (1114 – 1187),
instalado en Toledo durante buena parte de su vida, contribuyó con su obra a la
traducción de más de noventa tratados árabes. Así, el interés por las ciencias
despertado a partir de entonces no puede ser separado del encontronazo entre dos
culturas que adquirió en los siglos XII y XIII una expresión de tolerancia
productiva entre judíos, cristianos y musulmanes.
Otro personaje que desempeña un papel muy destacado en la transmisión hacia
Europa de la cultura grecolatina conservada por los árabes, es el filósofo y
“físico” árabe del alandalús medieval, Abul Waled Muhammad ibn Rusd, conocido
como Averroes (1126 – 1198). Se le atribuye también haber sido de los pioneros
en el estudio de la atracción magnética. En filosofía fue defensor de la
doctrina de la doble verdad, la verdad de la filosofía natural y la verdad de la
teología que más tarde se abrirá paso en Europa.
Hacia el siglo XIII sobreviene el ocaso del mundo árabe cuando caen todas las
regiones islámicas del Asia en manos del imperio mogol. Primero tuvo lugar la
conquista y saqueo de las huestes de Hūlagū, nieto del conquistador mogol Gengis
Kan, y a principios del XV otro mogol, Tamerlán (1336 1405) barrió de nuevo las
otrora grandes capitales árabes.
87
El al Andaluz, dominio musulmán en la península ibérica, y
en particular el califato de Córdoba, actuó como foco de
irradiación del conocimiento científico hacia la Europa del
florecimiento del feudalismo en los siglos XII y XIII. En
particular el pensamiento europeo descubre a través de las
traducciones árabes las grandes obras del mundo grecolatino
y el repertorio de realizaciones de la ciencia islamita. En
la imagen la mezquita de Córdoba. Impresiona la Mezquita
como síntesis cultural y como uno de los más excepcionales
monumentos del planeta. Hacia el siglo XI Córdoba llegó a
ser la capital más culta de Europa.
Mientras, en la península ibérica en 1492, las tropas de los reyes católicos de
Castilla derrotaban al reino Nazarí de Granada, último reducto del dominio
árabe, concluyendo así el proceso llamado “Reconquista” en el cual los reinos
cristianos se aprovecharon de las reiteradas divisiones internas de los árabes
para empujarlos hacia el sur y finalmente infringirles la derrota. Ocho siglos
atrás, la conquista musulmana de la Hispania visigoda había aprovechado la
guerra civil que debilitaba al reino de Toledo, y con la Batalla de Guadalete
sellaba la derrota y muerte del rey Rodrigo para abrir paso a una política de
pactos y capitulaciones con la nobleza y las ciudades que llevo a los árabes a
la ocupación de las posesiones visigodas.
En el período bajo examen las principales realizaciones del mundo oriental,
relacionadas con el ámbito que nos ocupa, estuvieron centradas en la
civilización china. China conoció por entonces tres grandes dinastías: la
dinastía Tang (618907), el reinado de los Song (9601279), y el imperio Yuan
(1279 – 1368).
La experiencia artesanal china, durante la dinastía Tang, comenzó a dominar la
tecnología de hornos que alcanzaran entre 1250 1300 oC, intervalo de
temperatura requerido para que una pasta constituida por caolín, cuarzo y
feldespato se transformara en un material blanco, resonante y translúcido: la
porcelana. Más tarde, en el período Song se hacían porcelanas con formas
elegantes, decoradas con incisiones y barnices que iban desde el marfil y los
verdes y azules más pálidos hasta los castaños rojizos e incluso el negro. Los
objetos más importantes eran los de la cerámica de celadón en los que se imitaba
lo colores del jade.
Pero los cuatro grandes inventos de la nación china, la fabricación del papel,
la imprenta, la brújula y la pólvora, se registraron, durante las dinastías Song
88
y Yuan. En cada uno de estas invenciones, se advierten enormes discrepancias
entre los especialistas a la hora de fijar la fecha en que aparece introducido
tal invento. Por lo visto estas diferencias se explican atendiendo al diferente
criterio usado para datar su implementación. Por ejemplo existen fuentes que
admiten como restos del papel más antiguo el hallazgo arqueológico encontrado
en el pueblo de Lou Lan en el Turquestán chino, de fecha cercana al siglo II.
Sin embargo aquella técnica para su obtención, a partir de la celulosa de la
madera, que llegara a Europa a través de los árabes, la dominaron los chinos
durante la dinastía Song.
La navegación marina tuvo también en un invento chino, la brújula, importante
condicionante para su desarrollo. Desde la antigüedad el hombre conocía dos
tipos de sustancias, la resina fósil conocida como ámbar y la magnetita, que
mostraban la existencia de una fuerza de acción a distancia como la observada en
la caída de los cuerpos hacia la tierra. Pero la utilización de agujas
imantadas para orientarse en las expediciones por tierra y para el trazado de
planos en los terrenos de construcción fue obra del ingenio de los chinos. La
invención de la brújula magnética para la navegación fue muy posterior y se fija
hacia el siglo X, durante la dinastía Song (960 – 1279). Penetrar en la
naturaleza del electromagnetismo exigió de todo un complejo desarrollo iniciado
justamente con el nacimiento del siglo XVII.
89
La pólvora es otro de los grandes inventos de la química artesanal china. Las
crónicas chinas afirman haber fabricado pólvora durante la dinastía Song (960
1279) y destacan la efectividad de sus cohetes de guerra en 1232 durante el
asedio de Kaifeng, y contra los invasores mongoles en 1279. Es precisamente en
el siglo XIII que se registra el empleo de la pólvora en Europa. Ya en el siglo
XV se ha extendido la utilización de los cohetes a las batallas navales, casi
nueve siglos más tarde del empleo del Fuego Griego por la armada bizantina. La
oficina parisina de pólvora y salitre del siglo XVIII fue asiento para el
trabajo de Antoine Laurent Lavoiser (1743 – 1794), y rampa de lanzamiento de la
primera Escuela de Ingeniería Química, la Escuela de Pólvora.
Al proceso de decadencia del medioevo en el escenario europeo le acompaña un
deterioro general de la producción científica motivada por la gran epidemia de
la peste (1340) y el conjunto de episodios bélicos conocido como la Guerra de
los Cien Años (1337 – 1453) que asolaron el panorama europeo. Por la época, el
imperio bizantino agoniza ante el empuje de los otomanos, la región asiática del
imperio árabe ha sucumbido ante el ejército mongol desde el XIII, China está
experimentando el declive del imperio mongol de los Yuan que concluye con el
reordenamiento de la dinastía Ming, y en la Samarcanda de Ulugh Beg (1394
1449), nieto del gran conquistador Tamerlan, se construye un observatorio de
dimensiones sin precedentes donde se elaboró un catálogo estelar, el Ziji
Sultani, publicado en 1437, que fue un modelo hasta el siglo XVII en que la
astronomía da el salto concedido por el uso del telescopio y se produce la
revolución científica.
La pólvora fue inventada por los chinos para la fabricación
de fuegos artificiales obtenidos por la combinación de
salitre (nitrato de potasio), carbón de leña y azufre. Al
redescubrirse en el escenario europeo, este ingenio reveló
importancia militar y fue empleado pronto en la guerra. La
oficina parisina de pólvora y salitre del siglo XVIII fue
asiento para el trabajo de Antoine Laurent Lavoiser (1743 –
1794), y rampa de lanzamiento de la primera Escuela de
Ingeniería Química, la Escuela de Pólvora.
En tanto Europa vivía su largo período medieval, la América precolombina conoció
del período clásico de sus culturas mesoamericanas y andinas.
La civilización maya, uno de los imperios más poderosos de Mesoamérica, llegó a
ocupar un territorio equivalente a tres veces la superficie del archipiélago
cubano, extendiéndose desde la península de Yucatán por las tierras bajas de
México, Belice y Guatemala hasta Honduras. Las ciudades – estados, centros
90
monumentales que supieron erigir tuvieron su mayor esplendor en el período
clásico entre 200 d.C. – 900 d.C.
El triángulo geográfico que conformaron sus ciudades insignias en sus primeros
tiempos históricos tenía en sus vértices a Palenque en Chiapas, Uaxactún en
Guatemala y Copán en Honduras. Sus dominios se extendieron así por un área
intrincada y selvática, atravesada por grandes ríos.
Aunque desde los primeros siglos de nuestra era, los territorios mesoamericanos
se fueron poblando de observatorios astronómicos, fue durante el período clásico
del desarrollo de esta cultura que se acumulan las observaciones y
determinaciones solsticiales y los cálculos solares, lunares y planetarios, que
hacen alcanzar los triunfos astronómicos de los grandes centros como Copán,
Palenque y Quiriguá.
En Copán en el siglo VIII d.C. los sabios astrónomos mayas lograron determinar
la duración real del año en 365.2420 días, que sólo difiere en dos diezmilésimas
de días del cálculo actual realizado con medios electrónicos.
Como todos los calendarios funcionaban con unidades enteras, se vieron obligados
a hacer correcciones y a poner días intercalados que armonizaran el año
calendario con el astronómico, ya que este que cuenta realmente con 365.2422
días, va acumulando una diferencia que debe ser ajustada de tiempo en tiempo.
Los mayas, conscientes de esta acumulación sabían que su año corría más de prisa
que el año solar verdadero.
Los mayas desarrollaron un elaborado sistema de escritura
jeroglífica, formada por unos 800 glifos que combinan los
símbolos pictográficos, los signos gráficos para
representar palabras (logográficos) y los signos
fonéticos para representar sonidos.
91
sus antepasados. Por el lugar preeminente que ocupa se
ha pensado que debió conducir a un templete donde se
instalara el centro astronómico de Copán.
Existen pruebas de que a partir del siglo VI y hasta el siglo VII d.C. fueron
realizando diferentes correcciones, acercándose cada vez más a la duración real
del año, hasta que en el 731 d.C la ciudad de Copán logró la determinación antes
dicha. Su exactitud puede ser comprendida con esta tabla comparativa.
Cálculo actual 365.2422 días
Cálculo de Copán 365.2420 días
Año Juliano 365.2500 días
Año Gregoriano 365.2425 días
Durante unos 522 años los mayas anotaron fechas de la luna en muchos
monumentos, lo que indica los conocimientos que tenían de este astro. La
duración del mes lunar (cambio de una fase a otra similar), según los astrónomos
modernos es de 29.53059 días. Para los mayas, que no utilizaban fracciones,
el problema era encontrar un número entero de lunas que igualase el número de
días, lo que permitiría correlacionarlos y realizar los cómputos que se
extendieran hacia el pasado o el futuro.
Como ejemplo de esas fórmulas que combinaban lunas y días para determinar la
cuenta con precisión, es usada una inscripción en el Palacio de Palenque, que
suma la cantidad de 4 193 días, que se acerca con bastante exactitud a 142
lunas, que da para una lunación media de 29.528 días, un error de un 400 de día,
cálculo que es asombroso para el año 603 d.C. De igual modo las tablas de
eclipses de la astronomía occidental actual no superan ni siquiera en un solo
día, los cálculos realizados por los mayas en el siglo VIII, según aparecen en
la estela de Copán erigida en el 756 d.C, lo que evidencia la perfección
lograda por los astrónomos mayas.
92
revolución sinódica, Venus presenta una oscilación que va desde los 580 a los
588 días, lo que hace muy difícil los cálculos.
La famosa torre "El Caracol" levantada sobre las ruinas
de la ciudad maya de Chichén Itzá (México) se supone
que fuera usado como observatorio astronómico. Su
datación se hace difícil por las numerosas
remodelaciones a que fuera sometido a lo largo del
tiempo pero la fecha de su construcción se establece
hacia el siglo IX, es decir a fines del período clásico
de la civilización maya, que comprende entre el 300
900.
En el interior del núcleo cilíndrico principal, el Caracol tiene un pasadizo
en forma de caracol, que da nombre a la torre. La astronomía maya, según las
estelas del Centro de Copán, reconoció la importancia de los congresos de
astrónomos y de estos eventos surgió seguramente, entre otras obras
trascendentes, el calendario maya. Aunque complejo, era el más exacto de los
conocidos hasta la aparición del calendario gregoriano en el siglo XVI. El
día maya era llamado kin, un uinal, período comparable con el mes gregoriano,
tenía 20 kines, 18 uinales conformaban el tun (360 días), y así se
establecían otros períodos de base 20.
Con el mismo procedimiento que el explicado, los mayas lograron calcular la
revolución sinódica de Marte, Mercurio, Júpiter y Saturno, no con tanta
exactitud como la de Venus pero aún así estos cálculos representan grandes
93
triunfos tanto más si se reconoce que no disponían de instrumentos ópticos.
También conocían y estudiaron estrellas y constelaciones a quienes nombraban
según su lengua, pero que para nosotros son Las Pléyades, Géminis, La Vía
Láctea, la Estrella Polar, Rigel, Sirio, y Betelgeuse.
No existen ninguna duda entre los investigadores de que las ciudades mayas en su
período de máximo esplendor emulaban entre ellas para ver cual realizaba los
cálculos más exactos. Parece ser que se realizaron varias reuniones o congresos
astronómicos o matemáticos, entre los que sobresale el realizado en Copán en el
siglo VIII dne. Copán fue la ciudad maya que con más exactitud realizó los
cálculos de la cuenta de la Luna, del año trópico solar, la cuenta de Venus y
los eclipses de Luna.
La ciudad de Uaxactún en el Peten guatemalteco conservó dos marcas de la cultura
maya. La fecha grabada más antigua, el dia 9 del año 328, aparece impresa en
una pirámide cercana, la EVII Sub. Debieron existir otros lugares con
dataciones más antiguas, pero probablemente fueron trabajadas en estuco,
pintadas o grabadas en madera y por lo mismo no han llegado hasta nosotros. Al
mediar el siglo IX las fechas mayas en cuenta larga empiezan a escasear y casi
llegan a desaparecer. Coincidentemente, es en la estela 12 de Uaxactún, esta vez
cinco siglos y medio después, que se graba la última datación que se conoce en
una ciudad maya, 889.
94
El enigma de la desaparición del mundo clásico maya ha sido explicado desde
diferentes perspectivas. Los expertos piensan que las guerras, la sobrepoblación
y el resultante agotamiento de los recursos naturales acabaron por debilitar los
centros urbanos del Mundo Maya. Otros han apuntado hacia diferentes catástrofes
que pudieron sufrir sus grandes ciudades enclavadas en una región como Yucatán,
de alta probabilidad ciclónica, o Quiriguá asentada en zona cercana a una gran
falla geológica.
La hipótesis de la combinación de crecimiento demográfico con degradación del
medio ambiente parece atestiguarse en la caída que experimenta Copán. El otrora
fértil valle en determinado momento no resistió la continua explotación. Los
esqueletos correspondientes a los años finales de Copán indican desnutrición,
padecimiento de raquitismo y otras enfermedades relacionadas.
La Piedra del Sol o Calendario Azteca constituye un
monolito de roca basáltica de unas 25 toneladas que
fuera esculpido a fines del siglo XV. En su
95
los 365 días del año solar).
Los progresos en la Física y otros ámbitos relacionados en la época del
Renacimiento
El Renacimiento como proceso de renovación cultural que se extendió por Europa
durante los siglos XV y XVI, tuvo paradójicamente como paradigma la Antigüedad
Clásica, y como sustento económico, el florecimiento del capitalismo mercantil
que demandaba el cambio de las estructuras rígidas y fragmentarias del sistema
feudal caracterizado por una economía básicamente agrícola y una vida cultural e
intelectual dominada por la Iglesia, por nuevas estructuras asentadas en la
economía urbana y mercantil que promovía el mecenazgo de la educación, de las
artes y de la música, alentaba un espíritu de confrontación con las viejas ideas
y empujaba ciertos desarrollos en el ámbito de la ciencia y la tecnología.
Históricamente, con la aparición y el avance del Renacimiento concurrieron
numerosos procesos movilizadores del progreso social en Europa en tanto
contradictoriamente las culturas del Nuevo Mundo comenzaron a experimentar el
exterminio que les impuso la conquista, el África conoció el desarraigo y la
esclavitud de sus hijos y se extendieron los apetitos imperiales de conquista y
explotación de los recursos de otros continentes por las potencias europeas de
la época.
§ El descubrimiento de nuevas rutas marítimas que lograron la expansión de un
comercio creciente condicionado por el surgimiento de la economía
capitalista, y la conquista de "un nuevo mundo".
Durante el Medioevo, el desierto del Sahara constituía una barrera para el
contacto entre las culturas desarrolladas a ambos lados de esta frontera
natural. Los musulmanes del norte controlaban entonces el cruce de los ibéricos
por su territorio, ejerciendo el monopolio del comercio hacia el África
Occidental. El príncipe portugués Enrique el Navegante (13941460) se impuso
burlar este obstáculo e iniciar nuevas rutas marítimas. Para cumplir con estos
propósitos fundó un observatorio y una escuela náutica en Sagres, en el Cabo de
San Vicente, el extremo mas occidental de la península portuguesa. Con el asalto
al Atlántico los europeos tropezaron con las Islas Madeira en 1419 y
posteriormente con las Islas Azores en 1427, convirtiéndolas en colonias
portuguesas.
96
La Era de las Exploraciones tuvo sus condicionantes en
una serie detecnologías e ideas novedosas surgidas en
el Renacimiento, como los avances
en cartografía, navegación y construcción naval. La
invención de la carraca y posteriormente de
la carabela en Portugal y la incorporación de nuevos
instrumentos como la brújula, el astrolabio y el timón
hicieron posible la salida de los barcos a mar abierto.
La presión económica que impulsaba tales empresas en lo
fundamental estaba dada por la ampliación del comercio
mercantil y la explotación de los recursos de otras
regiones geográficas.
La práctica colonialista se desarrollaba según la misma receta: la construcción
de fuertes, la explotación de los recursos locales, que llegó a incluir a sus
propios habitantes. Juan II (1455 – 1490), continuó la empresa de Enrique, y
bajo su patrocinio se produjo la circunnavegación en 1487 – 1488 del Cabo de
Buena Esperanza por Bartolomé Días (c.1450 1500). Unos diez años después, Vasco
de Gama siguió la ruta de Días pero esta vez llegó a la India. Precisamente la
nación líder de la exploración de las costas de este continente fue el primer
país europeo en comenzar la práctica de la esclavitud de africanos, que
pretendió cubrir la demanda de trabajo con la importación de esclavos. Para 1460
Portugal traía anualmente desde diferentes puntos de la costa africana casi mil
esclavos. La colonización de América desde el siglo XVI amplió los horizontes de
esta cruel institución, promovió la diáspora de diferentes culturas africanas y
el genocidio de millones de seres humanos.
La etapa de las exploraciones, fue seguida por una extracción masiva del oro y
la plata de los yacimientos encontrados en el Nuevo Mundo y la imposición del
monopolio español, que llevó a una generalización del comercio transoceánico. La
importancia del comercio fue elevando el protagonismo político de banqueros,
comerciantes y mercaderes que iban arrebatando el liderazgo a los señores
feudales.
Cuando se inicia la conquista española, los “mexicas”, como se llamaron a sí
mismos los aztecas, llegaron a ser la unidad política más importante de toda
Mesoamérica cuando se inicia la conquista española. Según cuenta la leyenda, los
mexicas debieron abandonar su legendaria ciudad norteña de Aztlán y fundar otra,
97
allí donde encontraran un águila devorando a una serpiente. El escenario
seleccionado por los dioses resultó ser la cuenca del lago Texcoco donde se
asentaron a mediados del siglo XII, y fundaron su capital, Tenochtitlán, en
1325.
Cuando a escasos dos años del inicio de la conquista de
la tierra de los quetzales en 1521, los expedicionarios
de Hernán Cortés (1485 – 1547) y sus aliados
tlaxcaltecas luego de 80 días de asedio asaltaron la
capital azteca de Tenochtitlan, tenía lugar la
destrucción de una de las ciudades más hermosas
construidas por el hombre. Fue labor de ingenieros y
constructores que a lo largo de siglos fundieron sobre
un grupo de islotes del lago de Texcoco las más antiguas
ciudades de Tlatelolco y la primigenia Tenochtitlan,
llegando a contar con una población estimada en casi un
tercio de millón de aztecas. El entorno acuático de la
ciudad fue dominado por este pueblo laborioso que
desarrolló técnicas de cultivo intensivo de legumbres y
hortalizas sobre chinampas, especie de grandes balsas en
las cuales los troncos se ataban con cuerdas de ixtle
(fibras del maguey). Esta agricultura intensiva se
combinaba con la ganadería, la caza y la pesca en el
lago, y un importante comercio, a corta y a larga
distancia.
Herederos de la tradición cultural de los toltecas, pueblo que ocupa la meseta
central mexicana desde finales del siglo VII hasta mediados del siglo XII, y que
llegó a fusionarse con la cultura maya en su expansión hasta el Yucatán, los
aztecas mediante alianzas militares con otros grupos y poblaciones se
expandieron rápidamente entre los siglos XIV y XVI dominando el área central y
sur del actual México. El arte, la ciencia y la mitología mexica se nutren de
los antecedentes mayas a través de los vasos comunicantes de los toltecas.
Las realizaciones científicas de los aztecas estuvieron relacionadas ante todo
con los avances por una parte en la medicina y la farmacopea y por otra con la
astronomía. Emplearon el calendario de 365 días y el de 260, utilizando además,
la «rueda calendárica» de 52 años. La concepción cíclica del tiempo de los
aztecas, le hacían creer que el futuro es predecible, de ahí la importancia que
le conferían a la observación astronómica y del calendario.
98
La educación fue importante, sobre todo, en lo que se refiere a la formación de
los nobles, marcada por su carácter obligatorio y su firmeza. La formación de la
élite abarcaba contenidos en derecho, historia, astronomía, religión, y se
ejercitaban también en poesía y canto. Se exaltaba el sentimiento de unidad
entre los jóvenes y se organizaban órdenes militares.
El imperio inca llegó a extenderse en menos de un siglo a partir de 1450 por
todo el cordón andino y la costa del pacífico desde el sur de Colombia hasta el
norte de Argentina y Chile a lo largo de más de 3 500 km. La población inca
compuesta por distintas culturas se estima que superaba los 10 millones de
personas. La zona central de su imperio radicaba en el valle del Cuzco, al sur
del Perú, donde se levantaba su capital. Los incas poseían grandes conocimientos
sobre arquitectura, construcción de carreteras y astronomía.
A pesar de no contar con caballos (las llamas fueron los animales básicos de
transporte), ni vehículos de ruedas ni un sistema de escritura, las autoridades
de Cuzco lograron mantenerse en estrecho contacto con todas las partes del
Imperio. Una compleja red de caminos empedrados que conectaban las diversas
zonas de las regiones, permitía esta comunicación a través de mensajeros
entrenados —los chasquis—que, actuando en relevos, corrían 402 km al día a lo
largo de esos caminos. Los registros de tropas, suministros, datos de población
e inventarios generales se llevaban a cabo mediante los quipus, juegos de cintas
de diferentes colores anudados según un sistema codificado, que les permitía
llevar la contabilidad. Botes construidos con madera de balsa constituían un
modo de transporte veloz a través de ríos y arroyos.
Las fibras del maguey y el amate, las pieles curtidas
del ciervo y el jaguar, o el lienzo del algodón eran
las materias primas para la fabricación del papel con
que los pueblos precolombinos escribieran su historia
y genealogía, su ciencia y mitología. Sus libros
consistían en una larga tira que podía alcanzar más de
diez metros y que adoptaba una forma de acordeón,
cubierta con unas tapas de madera a menudo forradas de
piel, y su contenido expresaba un tipo de escritura
basada en logogramas. El encontronazo cultural que
produjo la conquista tuvo su reflejo en la destrucción
de estas obras, llamadas códices, por clérigos y
autoridades coloniales que las consideraron herejías
mientras los indígenas adoptaban la estrategia de
resguardo secreto de sus sagrados libros. En la
99
combinación de estas conductas se perdió una valiosa
memoria histórica y científica.
Entre las expresiones artísticas más impresionantes de la civilización inca se
hallan los templos, los palacios, las obras públicas y las fortalezas
estratégicamente emplazadas, como Machu Picchu. Enormes edificios de mampostería
encajada cuidadosamente sin argamasa, como el Templo del Sol en Cuzco, fueron
edificados con un mínimo de equipamiento de ingeniería. Otros logros destacables
incluyen la construcción de puentes colgantes a base de sogas (algunos de casi
cien metros de longitud), de canales para regadío y de acueductos. El bronce se
usó ampliamente para herramientas y ornamentos.
Cuando en 1911 el explorador estadounidense Hiram
Bingham anunciaba al mundo haber descubierto a más
de 2 mil metros de altura la ciudad de Vilcabamba,
refugio de los soberanos incas rebeldes desde 1536
hasta 1572, cometería un error pero la humanidad y
en particular el mundo latinoamericano le guarda
eterna gratitud por habernos legado el hermoso
bastión inca de Machu Picchu. La legendaria
Vilcabamba permaneció oculta hasta que una
expedición española en 1997 descubriera sus
restos. Desde allí, Tupac Amaru organizó la
resistencia inca contra la dominación colonizadora
hasta ser derrotado y pagar con su vida la defensa
100
de su cultura…
El desarrollo de los intereses nacionales que diera origen al nacimiento
de los estados. Estos intereses económicos se reflejaron en el movimiento
de las reformas religiosas (siglo XVI) que condujo a una flexibilización
del control de la Iglesia sobre el proceso de construcción del
conocimiento.
Bohemia, la región Europa Central dominada en el siglo XV por el Sacro Imperio
Romano Germánico, fue el escenario dónde prendieron los sentimientos
nacionalistas que encontraron expresión religiosa en las protestas de Jan Hus
(c. 13721415), precursor de la Reforma protestante, contra el poder abusivo de
la Iglesia Católica. En el Concilio Eclesiástico que se reunió en la ciudad
imperial de Constanza en 1414, Hus fue declarado hereje y conminado a
retractarse de sus posiciones. El clérigo de Praga rechazó las ofertas de perdón
y fue condenado a la hoguera.
Un siglo después de la rebelión husita en 1517, Martín Lutero (14831546)
publicó sus tesis de Wittenberg que atacan los abusos de la autoridad
eclesiástica y tres años después publica sus creencias en la libertad de la
conciencia cristiana, formada sólo por la Biblia, el sacerdocio de todos los
creyentes y una Iglesia mantenida por el Estado. La ruptura de Lutero con la
Iglesia podría haber sido un hecho aislado si no hubiera sido por la invención
de la imprenta. Sus escritos, reproducidos en gran número y muy difundidos,
fueron los catalizadores de una reforma que no pudo contenerse geográficamente,
triunfó en Suiza con las ideas reformistas de Ulrico Zuinglio (1484 1531), más
tarde en Ginebra, Juan Calvino (1509 – 1564), publicó la primera gran obra de la
teología protestante, Institución de la religión cristiana (1536) que se
convertiría en el eje organizador de las Iglesias Protestantes.
Finalmente cabe destacar que la lucha entre católicos y protestantes no tuvo
solo una expresión espiritual. Un siglo de enconadas contiendas religiosas entre
1550 y 1650 provocaron la destrucción general del continente. No obstante, estas
guerras religiosas se entrelazaron de forma compleja con las contiendas
políticas, que finalmente adquirieron un papel de gran importancia en la
configuración de las naciones europeas.
La toma de Constantinopla por los turcos (1453) que significa la caída del
último reducto de la herencia cultural grecorromana y el éxodo de los
eruditos que trasladan consigo hacia Europa numerosas fuentes del antiguo
saber griego.
101
La inauguración de la primera imprenta práctica por Johan Gutenberg (1397
– 1468) con lo cual se alcanza una reproducción y difusión del
conocimiento escrito no imaginado en épocas anteriores.
En este telón de fondo social, crece bruscamente el interés por la Astronomía y
llegan tiempos felices para la trigonometría.
La técnica de publicación de libros con tipos móviles de
impresión, mediante el perfeccionamiento de la prensa de
imprenta por Gutenberg multiplicó las posibilidades de
reproducir el acervo de conocimientos existentes para una
sociedad que ya había aumentado su producción de material
escrito y lo anhelaba vivamente. La invención de la
imprenta representó además un logro mecánico, fue una de
las primeras máquinas estandarizadas, manufacturada en
serie, y los mismos tipos móviles fueron el primer
ejemplo de piezas del todo estandarizadas e
intercambiables. Hacia finales del siglo XV habían más de
mil imprentas públicas solamente en Alemania, y en
Nuremberg existía un gran negocio de imprenta con 24
prensas y un centenar de empleados entre los que se
encontraban cajistas, impresores, encuadernadores y
correctores.
En la transición del pensamiento medieval al del Renacimiento aparece como un
personaje importante el filósofo Nicolás de Cusa (1401 1464), considerado el
padre de la filosofía alemana y uno de los primeros filósofos de la modernidad.
En 1444, Cusa se interesa en la astronomía y elabora ciertas teorías que más
tarde serán aceptadas y otras que aún estar por probar. En su lenguaje arropado
por una envoltura religiosa expresa que si Dios representa la unidad y la
infinitud, el mundo también es infinito. Este es el paso radical a la física
moderna: si el Universo es infinito, no tiene fin, se deriva pues que no existe
centro del Universo, la Tierra no es el centro del Universo, todo es relativo y
no hay un lugar de privilegio en el Universo. Tampoco hay quietud, sino que todo
está en movimiento, incluido el Sol. En el mismo año de su muerte el cardenal
redacta su “De ludo globo”, en el cual, aferrado a la perfección aristotélica
pero interesado en encontrar causas físicas, explica el movimiento de un cuerpo
perfectamente redondo sobre una superficie perfectamente lisa como un movimiento
continuo y uniforme. La razón de este comportamiento radica en que la esfera
toca al plano en sólo un punto, reproduciendo continuamente una posición de
desequilibrio que alienta el ímpetu eterno. De Cusa lega la noción que aplicada
102
a los orbes celestiales adoptará Copérnico. El giro eterno de los orbes, sin
obstáculos, arrastra a los planetas engastados en ellos.
En el siglo XV, el profesor prusiano de la Facultad de Artes de la Universidad
de Viena, Johannes Muller Regiomontanus (1436 – 1476) hizo importantes
contribuciones a la trigonometría y astronomía. Su obra De triangulis omnimodis
(1464) en los libros III, IV y V desarrolla la trigonometría esférica que es por
supuesto de máxima importancia para los estudios astronómicos. En enero de 1472
hizo observaciones de un cometa que fueron bastantes precisas para identificarlo
como el cometa estudiado por Halley en 1682 cuya reaparición pronosticó
justamente para 1758. El interés de Regiomontanus en el movimiento de la Luna le
permite describir un método para determinar distancias entre dos puntos de la
Tierra a partir de la posición de la Luna en su libro Ephemerides editado en su
propia imprenta por los años 14741506. Este libro tuvo la notable importancia
de servir a Américo Vespucio y Cristóbal Colón para medir distancias en el Nuevo
Mundo. Sus reflexiones críticas a la teoría lunar de Ptolomeo, las observaciones
Se ha afirmado que el espiritu del Renacimiento se encarna
como en nadie en la personalidad de Leonardo da Vinci (1452
1519). Acaso con esta expresión se pretende identificar a
quien muestra una creatividad impar, anticipándose en el
tiempo a realizaciones pertenecientes al futuro en los
campos más diversos de la actividad humana. Al servicio de
diferentes mecenas de la época, actúa como ingeniero
militar, arquitecto, y pintor. Su pupila escudriña la
anatomía humana con la misma penetración que mira hacia el
cielo y diseña artificios que amplían la imagen y recuerdan
al telescopio.
103
proyectos, que la dispersión de sus actividades restó
tiempo para emprender y terminar sus inmortales obras de
arte. La máquina del tiempo se encargó de cristalizar y aún
superar sus proyectos técnicos más audaces; sus pinturas
ingresaron para siempre en el salón de la inmortalidad.
Precisamente el inicio de la revolución en la historia de la Astronomía se
asocia a las aportaciones del célebre astrónomo polaco. En 1514, Copérnico
distribuyó a varios amigos unas copias manuscritas de un pequeño libro, que en
la página de presentación no incluía el nombre del autor. Este libro usualmente
conocido como "Pequeño comentario" lanza la visión copernicana de un universo
con el sol como centro en siete tesis presentadas como axiomas:
1.No hay centro en el universo
2. La Tierra no es el centro del universo.
3.El centro del universo está próximo al sol.
4.La distancia de la Tierra al sol es imperceptible en comparación con la
distancia a las estrellas.
5.La rotación de la Tierra explica la aparente rotación diaria de las
estrellas.
6.El aparente ciclo anual de movimientos del sol es causado por la
rotación de la Tierra a su alrededor.
7.El aparente movimiento retrógrado de los planetas es causado por el
movimiento de la Tierra desde la cual uno observa.
El más sobresaliente de los axiomas es 7, porque aunque sabios anteriores habían
supuesto que la Tierra se mueve, algunos incluso llegaron a proponer que la
Tierra gira alrededor del sol, nadie antes que Copérnico explicó correctamente
el movimiento retrogrado de los planetas más externos. El propio Copérnico
adelantó en su "Breve Comentario" que omitía las demostraciones matemáticas para
incluirlas en un trabajo más completo que publicaría más tarde. Sólo 27 años
después, ante la insistencia entusiasta de Georg Joachim Rheticus, su joven
discípulo, profesor de astronomía de la Universidad de Wittenberg, Copernico
superó su prolongada resistencia a entregar su obra “De revolutionibus orbium
caelestium” (Sobre las revoluciones de los cuerpos celestes) para la
publicación.
Rheticus entregó el manuscrito a un experto editor de Nuremberg que solicitó a
Andreas Osiander, un teólogo luterano que hiciera la supervisión del texto por
104
su experiencia en la impresión de textos matemáticos, y éste sustituyó el
prefacio original de Copérnico con una carta al lector que explicaba que el
contenido del libro no debería entenderse como la verdad, sino mas bien como un
simple método de calcular las posiciones de los cuerpos celestes. La carta no
fue firmada. Oslander también cambió sutílmente el título del libro para hacerlo
menos orientado al mundo real.
Algunos sienten indignación por el comportamiento de Oslander otros creen que
gracias a estos cambios el trabajo de Copérnico fue leído y no inmediatamente
condenado. Sólo la teoría de la gravitación universal elaborada por Newton 150
años después ofrecería la fundamentación de la teoría heliocéntrica copernicana.
Sin embargo estas ideas fueron rechazadas durante su siglo y el siguiente debido
a la ortodoxia católica, luterana (en la persona del propio Lutero) y
calvinista. Estas ideas de Copérnico solo fueron aceptadas sin reservas por los
neoplatónicos representados por Giordano Bruno (1548 – 1600) y Johannes Kepler
(1571 1630).
Tycho Brahe (1546 – 1601), propuso un sistema con un carácter ecléctico entre
las ideas del heliocentrismo y el geocentrismo y pidió a su discípulo Johannes
Kepler (15711630) que utilizando los resultados de esas observaciones le
confirmara la idea sobre su modelo. Nadie podrá saber si Brahe propuso este
modelo ante el temor promovido por la suerte corrida por su contemporáneo
Giordano Bruno (1548 – 1600) considerado hereje y quemado en la hoguera por
orden del tribunal de la Inquisición. De cualquier modo, las contribuciones de
Tycho Brahe (1546 1601) a la Astronomía fueron enormes. A los 26 años observa
una nueva estrella en la constelación de Casiopea, publicando un breve informe
sobre este acontecimiento("Sobre la nueva estrella nunca previamente vista”,
105
1573) que significó el descubrimiento de la primera supernova y puso en duda la
filosofía aristotélica vigente sobre la inmutabilidad de la región supralunar.
El napolitano Filippo (Giordano) Bruno (1548 1600) ingresó
en la orden de los dominicos y recibió instrucción, donde
Tomas Aquino había enseñado, en la filosofía aristotélica. A
los 29 años abandona Nápoles al haber llamado la atención de
las autoridades inquisidoras por sus tendencias heterodoxas.
Durante su residencia en Londres, en 1584 escribe sus obras
"La cena del miércoles de cenizas" y "Sobre el universo
infinito y los mundos". En el primer libro, Bruno defiende la
teoría heliocéntrica de Copernico, y en elsegundo desarrolla
la idea de la infinitud del universo, y sugiere que el
universo debe contener infinitos mundos, muchos de ellos
habitados por seres inteligentes. Seis años después de la
publicación de estos libros al viajar a Venecia es arrestado
por la Inquisición. En 1592 es enviado a Roma y durante ocho
años es sometido a prisión e interrogatorios periódicos. Al
final Bruno rechazó retractarse siendo declarado hereje y
condenado a la hoguera. Las actas del juicio y de los cargos
que le fueron imputados se perdieron. De cualquier modo, fue
otro mártir de la ciencia...
A partir de entonces, Brahe queda convencido de que el progreso de la Astronomía
exigía de observaciones más precisas del movimiento de los cuerpos celestes. Con
tal propósito construye un observatorio cerca de Estocolmo, diseña, fabrica,
calibra y chequea periódicamente la precisión de sus propios instrumentos e
instituye las observaciones nocturnas ("Instrumentos para la Astronomía
renovada", 1598). Pronto este observatorio se convierte en institución
astronómica de referencia en toda Europa. Brahe cambia también la propia
práctica de observación cuando no se contenta con apreciar las posiciones de los
cuerpos celestes en ciertas posiciones importantes de sus órbitas sino que
reporta el movimiento a través de sus órbitas. El resultado fue que una serie de
anomalías nunca antes notificadas fueron reportadas por Brahe. Sin estas series
completas de observaciones de precisión sin precedente, Johannes Kepler (1571
1630) no habría descubierto que los planetas se mueven en órbitas elípticas.
La obra de Kepler, se publica en un período que abarca el final del siglo XVI y
las tres primeras décadas del XVII. En 1597 Kepler publicó su primer trabajo
importante "Misterio Cosmográfico". Persigue “deducir” las órbitas planetarias,
y en este empeño descubre que a medida que los planetas se alejan del sol su
106
movimiento se hace más lento. Su aproximación a la ley de la gravitación
universal en el lenguaje de este siglo se advierte en sus propias palabras: “O
bien las almas movientes de los planetas son tanto más débiles cuanto más se
alejan del Sol, o bien hay una sola alma moviente en el centro de todos los
orbes, esto es, en el Sol, que mueve con más fuerza a los planetas más próximos
a ella y con menos a los más alejados”. Se viene gestando la nueva dinámica
celeste que intenta explicar las causas del movimiento y su formalización
matemática. Brahe recibe su obra y lo invita a Praga, al advertir su
extraordinario talento matemático, para que calcule nuevas órbitas a partir del
arsenal de observaciones acumuladas en su observatorio. Los resultados
sobresalientes de esta integración pertenecen al siguiente siglo.
Cuando Brahe descubre un nuevo punto luminoso inmóvil en
la bóveda celestial, más brillante que Venus, los
astrónomos creían observar un lento movimiento del astro
que demostrara que no era una estrella y así mantener
viva la invariabilidad del orbe estelar. Fue la ocasión
para que Brahe desarrollara un sextante gigantesco
dotado con un corrector de errores, mostrando lo que
constituiría una especie de obsesión en su carrera, la
búsqueda de la precisión en las observaciones
astronómicas para derivar cualquier generalización sobre
el movimiento de los astros. Esta posición se explica en
la respuesta dada al joven Kepler sobre su opinión
acerca de su primera obra “Misterios del Cosmos”: “que
haya razones para que los planetas realicen sus
circuitos, alrededor de un centro u otro, a distancias
distintas de la Tierra o del Sol, no lo niego. Pero la
armonía y proporción de este arreglo debe ser buscada a
posteriori, y no determinada a priori como vos y
Maestlin queréis”. Un año después Kepler era su
asistente principal, y luego al pie de la cama en que su
tutor se le despedía para siempre, parece haber jurado
107
que contra cualquier obstáculo, y fueron muchos los que
les deparó su vida, sería fiel a este legado.
La obra de Tartaglia sentó un criterio muy agudo: la trayectoria de un proyectil
es siempre curva, y la bala comienza a descender desde el instante mismo en que
abandona la boca del cañón. La afirmación, opuesta al sentido común que advierte
que a escasa distancia el tiro se sitúa en el punto de mira, admite la acción de
la gravedad durante todo el recorrido y su demostración acude al modelo de
experimento imaginario que tanto emplea luego Galilei.
El periodo moderno del álgebra se relaciona con la obra Ars Magna (1545) escrita
por el médico y matemático italiano Gerolamo Cardano (15011576). La atribulada
vida personal de Cardano contrasta con la extraordinaria productividad
profesional alcanzada en diversos ámbitos. En 1551 escribe su “Opus novum de
proportionibus” donde Cardano trata de aplicar métodos cuantitativos al estudio
de la Física, en particular a la caída libre de los cuerpos. Es uno de los
primeros en refutar la posibilidad del movimiento perpetuo excepto en el caso de
los cuerpos celestes y realiza también importantes contribuciones al campo de la
hidrodinámica. En 1552 alcanza como médico celebridad mundial al recuperar la
salud del arzobispo de St. Andrews, John Hamilton, aquejado de un asma severa
que lo había llevado al borde de la muerte. Cardano hace la primera incursión
de la historia en el reino de la teoría de la probabilidad en su libro “Liber de
Ludo Aleae”, sobre juegos de azar, probablemente terminado hacia 1563 y
publicado un siglo más tarde. Se acredita a Cardano la invención del mecanismo
de articulación entre la caja de velocidad y la barra de transmisión de los
autos y la cerradura de combinación. En 1570, con 69 años de edad fue
encarcelado por el cargo de herejía y acusado de hacer el horóscopo de
Jesucristo y alabar en un libro a Nerón, torturador de los mártires cristianos.
108
Tras su liberación, cuatro meses después, se le vetó para desempeñar un puesto
universitario y para cualquier publicación posterior de su obra.
La historia del pensamiento científico debe reconocer en Giambattista Benedetti
(1530 – 1590), discípulo de Tartaglia y maestro de Galileo, el planteamiento de
dos ideas originales que representan un adiós a la dinámica aristotélica de los
ímpetus. La primera concierne a la forma de entender el movimiento circular
cuando afirma que este origina en los cuerpos un ímpetu tendente a moverse en
línea recta (la idea de la fuerza centrífuga). La otra, de mayor trascendencia,
se relaciona con la caída libre de los cuerpos y rompe una tradición inmemorial
santificada por Aristóteles, cuando afirma que dos cuerpos caen con la misma
aceleración con independencia del peso de ellos. Las bases de la teoría
desarrollada por Benedetti se consideran muy parecidas a las que Galileo expone
en 1590, en su obra no publicada, De Motu.
Hacia 1585, un ingeniero holandés, Simon Stevin (1548 1620), que se había
destacado por su asesoría técnica a los ejércitos de las Provincias Unidas
109
(territorios septentrionales de los Países Bajos) encabezadas por el príncipe
Mauricio, Conde de Nassau, frente a las fuerzas españolas, escribió un par de
libros que contenían sobresalientes aportaciones al campo de la estática y la
hidrostática. Inspirado por la obra de Arquímedes, Stevin escribió importantes
trabajos en mecánica. Sobresale su obra De Beghinselen der Weegconst publicada
en 1586 donde desarrolla el famoso teorema del triángulo de fuerzas que le dio
un nuevo impulso a la Estática. En este mismo año aparece su trabajo sobre
hidrostática que lo hace merecedor según algunos de ser considerado un
refundador de esta disciplina al demostrar que la presión ejercida por un
líquido sobre una superficie depende de la altura del líquido y del área de la
superficie. Como si fuera poco, tres años antes que Galileo, reporta que
diferentes pesos caen desde una altura dada en el mismo tiempo. Sus experimentos
fueron conducidos usando dos bolas de plomo, una diez veces más pesada que la
otra, que eran dejadas caer desde la torre de una iglesia en Delft.
A pesar de que los trabajos más importantes de Galileo cristalizan en el siglo
XVII, una cualidad del pisano no tan bien conocida es la capacidad inventiva que
despliega en su juventud y que lo convierte a fines del XVI en autor de dos
patentes de invención. Según se narra, en 1592 mientras enseñaba en la
Universidad de Padua, Galileo, dado su permanente interés en los dispositivos
mecánicos, frecuentaba un lugar próximo a Padua dónde fondeaban y se cargaban
las naves venecianas, poniéndose así en contacto con los adelantos de la época
en materia de tecnologías náuticas y de construcción naval. Allí se enfrenta con
el problema que involucra la colocación de remos en las galeras, y entonces
concibe el remo como una palanca y el agua como punto de apoyo.
Galileo estudió en la Universidad de Pisa, y posteriormente
se desempeñó como catedrático de Matemáticas desde 1589 a
1592. Durante este tiempo, inició un libro, De motu ("Sobre
el Movimiento"), que nunca publicó, pero que permite seguir
el desarrollo inicial de sus ideas en relación al
movimiento. Una de las proposiciones fundamentales de la
filosofía aristotélica es que no hay efecto sin causa.
Aplicada al movimiento de los cuerpos se puede afirmar que
no hay movimiento sin fuerza. La velocidad, entonces es
proporcional a la fuerza e inversamente proporcional
a la resistencia. Esta noción aplicada a los cuerpos que
caen, reconoce al peso como la fuerza que impulsa al cuerpo
hacia abajo y la resistencia es ofrecida por el aire o el
agua. Si el peso determina la velocidad de la caída,
entonces cuando dos diferentes pesos son lanzados desde una
110
altura dada el más pesado caerá más rápidamente y el más
ligero más lentamente, en la proporción de los dos pesos.
Galileo es el representante por excelencia de la corriente
que comienza en el siglo XVI a edificar una nueva ciencia
del movimiento asentada en los experimentos
cuantitativos. Durante las dos décadas siguientes Galileo
refinó los experimentos, cambió sus ideas, y llegó a
establecer la ley de la caída de los cuerpos.
Un año después, patentó un modelo de bomba, dispositivo sencillo que levantaba
el agua usando sólo un caballo. Galileo describió su invención como: "estructura
conveniente de muy fácil uso, y barata para la elevación de agua y la irrigación
de terrenos, con el movimiento de un solo caballo, capaz de verter continuamente
unos veinte cucharones grandes de agua”. Por otro lado su afán por medir una
propiedad asociada con el calor transferido por los cuerpos diseña y construye
en 1597 un termómetro primitivo. El termoscopio, que aprovecha los cambios de
densidades que experimenta el aire con las variaciones de temperatura, consiste
en un bulbo de vidrio de forma y tamaño ovoidal con un largo y delgado cuello
que se sumerge parcialmente, por su extremo invertido, en un frasco lleno de
agua. Al calentar el bulbo ovoidal el aire se expande empujando la columna del
agua. El instrumento simple e inexacto había dado nacimiento a la termometría y
por consiguiente a la termodinámica.
La cartografía y la geografía también experimentaron notables progresos que se
concretan en los estudios y la obra del matemático y geógrafo flamenco Gerardus
Mercator (1512 1594). Mercator había ingresado en 1530 en la Universidad de
Lovaina, en la casa de estudios que enseñaba durante dos años la filosofía
aristotélica. Decepcionado con estos estudios decide emprender un viaje que lo
lleva por diferentes ciudades, entre ellas Malinas y Amberes, que le despiertan
un profundo interés por la Geografía. El primer mapa del mundo que produce
Mercator usando el método de proyección aparece en 1538. Este mapa es notable
por ser el primero en representar a América como un alargamiento desde las
regiones norteñas a las regiones del sur y por dar a América del Norte este
nombre. Durante diez años Mercator trabaja en la confección de un globo
celestial que completa en 1551 usando el modelo del Universo descrito por
111
Copérnico. En 1568 ideó un sistema de proyección de mapas que lleva su nombre.
Este sistema representa los meridianos como líneas paralelas y los paralelos de
longitud como rectas que se cruzan con los meridianos formando ángulos rectos.
Muy utilizado en navegación, permite trazar una ruta en línea recta entre dos
puntos de un mapa, que se puede seguir sin cambiar la dirección magnética o de
la brújula. La llamada “proyección Mercator”, durante 400 años ha sido aceptada
como la verdadera representación plana de nuestro planeta.
Se afirma que el geógrafo flamenco Gerardus Mercator sufrió
prisión en 1544 por supuesta práctica hereje y que la
Universidad de Lovaina lo apoyó obteniendo su libertad
meses después. Una suerte bien distinta corrió otro
graduado de esta Universidad, el medico y filosofo español
Miguel Servet (15111553). La teocracia calvinista de
Ginebra, contraria a su interpretación de la Santísima
Trinidad y lo que parece mas inconcebible opuesto a la
nueva visión fisiológica de Servet lo acusa de herejía y
blasfemia contra la cristiandad, y lo condena a morir
quemado en la hoguera. En su obra Restitutio christianismi,
Servet describe con rigor la circulación pulmonar.
A partir del siglo XVI se suman a los médicos, como aliados del desarrollo de la
Alquimia, los interesados en la minería. Tal vez la cabeza mas visible de los
cambios que se vienen experimentando en este campo se personifica en la figura
de T. Bombastus (Paracelso, 1493 – 1541). Paralceso inicia un movimiento
conocido como iatroquímica o química médica. Aunque hereda el lenguaje místico
de los alquimistas, sus ideas representaron un punto de viraje, pues su quinta
esencia no es fruto del anhelo estéril de transformación de metales en oro, sino
fuente iniciadora, aún expresada vagamente, de la quimioterapia que siglos más
tarde fundara Paul Erlich con el preparado arsenical conocido como salvarsán.
En el otro polo de la actividad prequímica nos encontramos con Georg Bauer
(Agrícola, 1494 – 1555), residente en la más grande región minera europea del
siglo XVI, considerado como el padre de la mineralogía. La obra de Agrícola,
despojada de la especulación alquimista es el primer tratado de mineralogía
fundamentado en la observación, la práctica y las técnicas industriales más
avanzadas de la época.
La medicina del renacimiento también marcó un viraje en diversas concepciones
anatómicas aceptadas durante miles de años desde la obra de Galeno en el segundo
siglo de nuestra era, en primer lugar gracias a las observaciones del cuerpo
112
humano realizados por el anatomista y fisiólogo del renacimiento europeo, el
belga Andrés Vesalio (1514 1564), e ilustradas fielmente en sus obras por un
discípulo del Tiziano. Su etapa productiva se relacionó con sus investigaciones
en la Universidad de Padua conducidas durante cinco años. Uno de los discípulos
de Vesalio en la Universidad de Padua, Realdo Colombo (15161559), quién fuera
luego su sucesor en la cátedra de Anatomía describió en su obra póstuma De Re
Anatomica, la circulación pulmonar. La revolución en el terreno de la fisiología
era cuestión de años y sería impulsada por la obra de un joven médico inglés,
que vino del otro lado del Canal de la Mancha para doctorarse en Padua, de
nombre William Harvey (15781657).
La doble coyuntura en que se ve envuelto el cirujano francés Ambroise Paré
(15071591), las guerras religiosas y la aparición en el escenario bélico de la
primera arma "ligera" portátil, el arcabuz, le hace asistir a un numeroso grupo
de heridos y lisiados. De esta experiencia, publica en 1545 su obra “El método
de tratar las heridas hechas por los arcabuces y otras armas de fuego; y...;
también de las quemaduras especialmente hechas por la pólvora de cañón” en la
cual propone la sustitución del tratamiento por cauterización con aceite
hirviente de las heridas por la sutura de los vasos, innovaciones en el
tratamiento de las fracturas y promueve la inserción de extremidades
artificiales. Se ha afirmado que Paré representa para la cirugía del
renacimiento lo que Vesalio significó para la anatomía.
Para la Física, el final del siglo XVI va a representar pasos balbuceantes en la
construcción de instrumentos ópticos y en la edificación de una teoría
magnética. En 1571 un fabricante inglés de instrumentos de navegación, Robert
Norman publicaba en un pequeño libro “The Newe Attractive” un importante
descubrimiento que ponía de relieve el magnetismo de la Tierra. Resulta que
Norman observó que si una aguja estaba equilibrada sobre su eje antes de
imantarse, posteriormente su extremo norte será atraído hacia abajo y habrá que
golpearla ligeramente para restablecer su equilibrio. Esto demostraba que el
113
campo magnético de la tierra no corría paralelo a su superficie sino que
declinaba la aguja imantada al ejercer una fuerza dirigida hacia su centro.
Apenas tres décadas después del descubrimiento de Norman, otro inglés este
médico e investigador, William Gilbert (1544 1603), publicó una obra en 1600
que se consideró un clásico de la época en materia de electricidad y magnetismo.
En “De Magnete” Gilbert, perteneciente a esa legión de egresados de Medicina
según el currículo medieval que se ganan la vida cómo médicos (Gilbert sirvió en
la corte de Isabel I), pero sienten la necesidad de investigar en otros campos,
desarrolla las ideas primarias sobre el carácter sustancial de la electricidad
al atribuirle propiedades semejantes a la de los fluidos, nociones que encajan
bien con lasprimeras hipótesis sobre las diferentes formas de la energía que
serían refinadas más de un siglo después.
Respecto a los fenómenos magnéticos, Gilbert, auxiliándose de
imanes pequeñísimos pudo seguir las líneas de fuerzas
tangenciales de una esfera magnética en su convergencia hacia
los polos y, al apreciar la diferente inclinación de estos
imancitos a diferentes latitudes respecto a los polos de la
esfera no dudó en relacionar estos resultados con los
obtenidos por Norman en sus estudios del comportamiento de la
brújula. En resumen, Gilbert relaciona la polaridad del
magneto con la polaridad de la Tierra y edifica una filosofía
magnética sobre la base de esta analogía. Ahora la causa del
magnetismo apunta hacia el interior de la tierra y no
hacia los cielos como algunos habían supuesto. Sus principios
fueron aplicados también a una dinámica celeste que ponía
como causa del movimiento de los planetas la fuerza
proporcional – según el propio Gilbert a la cantidad de
materia del imán contenido en la capa interior de cada
planeta.
Mientras la Matemática avanza, la Alquimia agoniza para dar paso a una ciencia
experimental, la Medicina destierra los errores de Galeno e incuba grandes
avances, y la Física, luego de generar un cambio de paradigma en la Astronomía
que se mantuvo vigente durante más de mil años, profundiza en la modelación del
movimiento mecánico de los cuerpos. Se abona así el terreno para cristalizar la
obra de Newton en el siglo XVII. Toda la Ciencia posterior iba a recibir su
impacto.
114
Si el Renacimiento en las ciencias se asocia a la
Revolución astronómica promovida por la visión
copernicana del sistema solar, el siglo XVI se despedía
con un descubrimiento que confirmaría la variabilidad
celestial. El descubrimiento en 1596 de la primera
estrella variable (Mira, en latín Mirus: maravilloso)
correspondió al astrónomo y pastor luterano David
Fabricius (1564 1617). Su nombre se relaciona también
con el descubrimiento de las manchas del sol, pero este
hallazgo reportado en el siguiente siglo se disputa por
varios astrónomos.
Bibliografía:
Abascal, Juan Manuel; AlmagroGorbea, Marín (2004): América Precolombina.
Historia y Arqueología de las Civilizaciones. Biblioteca Virtual Miguel D
Cervantes.
http://www.cervantesvirtual.com/portal/antigua/aprecolombina.shtml
Altshuler José (2003): A propósito de Galileo. Editorial Gente Nueva. La Habana.
Barattin Luisa (2000): Galileo Galilei. Institute and Museum of the History of
Science of Florence, Italy. http://galileo.imss.firenze.it/museo/4/index.html
Briceño Monico (1999): Culturas precolombinas. Universidad de Guadalajara.
http://mexico.udg.mx/historia/precolombinas/olmecas/index.html
Barile Margherita (2002): Viète, Francois . Scientific
Biography. Mathematicians. A Wolfram Web Resource.
http://scienceworld.wolfram.com/biography/Viete.html
Darling David (2006): Al Sufi Abd AlRahman (903 986). The Encyclopedia of
Astrobiology, Astronomy and Spaceflight.
http://www.daviddarling.info/encyclopedia/A/AlSufi.html
Davidson Michael W (2003): Pioneers in Optics. Florida State University.
115
Alhazen (965 1040)
http://micro.magnet.fsu.edu/optics/timeline/people/alhazen.html
Witelo de Silesia (1230 1275)
http://micro.magnet.fsu.edu/optics/timeline/people/witelo.html
Zacharias Janssen (15801638)
http://micro.magnet.fsu.edu/optics/timeline/people/janssen.html
Debus Allen G. (1998): Paracelsus and the Medical Revolution of the
Renaissance. U.S. National Medicine
Library. http://www.nlm.nih.gov/exhibition/paracelsus/paracelsus_2.html
De la Selva Teresa (1993): De la Alquimia a la Química. Fondo de Cultura
Económica. México.
http://omega.ilce.edu.mx:3000/sites/ciencia/volumen3/ciencia3/118/htm/alquimia.h
tm
Ead Hamed (1998): Arabic (or Islamic) Influence on the Historical Development
of Medicine. Faculty of Science University of Cairo, Giza.
http://www.levity.com/alchemy/islam19.html
IDEM: The Time of AlKhwarizmi. First Half of Ninth Century. History of Islamic
Science. Faculty of Science University of Cairo. Giza.
http://www.levity.com/alchemy/islam13.html
Escohotado Antonio (2006): Génesis y evolución del análisis científico.
Tema XII. La Cosmología Renacentista.
http://www.escohotado.com/genesisyevoluciondelanalisiscientifico/tema12.htm
Tema XIII. La Ciencia Nueva.
http://www.escohotado.com/genesisyevoluciondelanalisiscientifico/tema13.htm
Enciclopedia Encarta (2006): 3 Las Matematicas en el Medioevo. 4 Las
Matemáticas durante el Renacimiento. "Matemáticas." Microsoft® Encarta® 2006
[DVD]. Microsoft Corporation, 2005.
IDEM: 5. Astronomía en la Edad Media y 6. La teoría de
Copérnico. Astronomía. Microsoft® Encarta® 2006 [DVD]. Microsoft Corporation,
2005.
116
Figurovski N.A.(1989): Historia de la Química. Editorial Pueblo y Educación . La
Habana.
Período de la Alquimia. 12 17
La época del Renacimiento y su influencia en el desarrollo de la Química. 18
26.
Hach Robert A. (1999): History of Science. Department of History. University of
Florida.
http://web.clas.ufl.edu/users/rhatch/pages/03SciRev/SCIREVTeaching/HISSCI
STUDYGUIDE/index.htm
Copernicus' major works
http://web.clas.ufl.edu/users/rhatch/pages/03SciRev/SCIREVTeaching/HISSCI
STUDYGUIDE/0046_copernicusMajorWorks.html
The Copernican System
http://web.clas.ufl.edu/users/rhatch/pages/03SciRev/SCIREVTeaching/HISSCI
STUDYGUIDE/0050_copernicanSystem.html
The Scientific Revolution
http://web.clas.ufl.edu/users/rhatch/pages/03SciRev/SCIREVTeaching/HISSCI
STUDYGUIDE/0044_scientificRevolution.html
Hacyan Shahen (1996): La Revolución de Copérnico y sus consecuencias. Capítulo
2: El Fin de los mitos. El Descubrimiento del Universo.
http://omega.ilce.edu.mx:3000/sites/ciencia/volumen1/ciencia2/06/html/descubri.h
tml
IMSS (2006): Galilean patent. Institute and Museum of the History of Science.
Florence. Italy.
IV.7 Thermoscope
http://brunelleschi.imss.fi.it/museum/esim.asp?c=404007
IV.15 Waterraising machine
http://brunelleschi.imss.fi.it/museum/esim.asp?c=404015
IET (2006): Peter Peregrinus. Archives. Biographies and Features. The
Institution of Engineering and
Technology. http://www.iee.org/TheIEE/Research/Archives/Histories&Biographies/Pe
regrinus.cfm
117
Martí Beatriz (2005): Los enigmáticos códices. Historia. Mundo Maya Online.
http://www.mayadiscovery.com/es/historia/default.htm
Mitchell John S. (2005): El enigma de Quiriguá. Arqueología. Mundo Maya Online.
http://www.mayadiscovery.com/es/arqueologia/default.htm
Monzur Ahmed (1998): Muslim Scientists and Scholars. The Muslim Directory on
line.
Mohammad ibn Musa alKhawarizmi (780850)
http://www.ummah.net/history/scholars/KHAWARIZ.html
Abu Raihan alBiruni (973 1048)
http://www.ummah.net/history/scholars/BIRUNI.html
Abu Ali alHusain ibn Abdallah ibn Sina (Avicenna) (980 1037)
http://www.ummah.net/history/scholars/ibn_sina
Omar alKhayyam (c. 10501122)
http://www.ummah.net/history/scholars/KHAYYAM.html
MuslimHeritage.com (2005): AlKhazani Merv's Physicist. Category: Science
http://www.muslimheritage.com/uploads/Merv.pdf
O'Connor J.J., Robertson E.F. (1999): History of Mathematics. Mathematicians.
School of Mathematics and Statistics. University of St. Andrews. Scotland.
Brahmagupta (598 – 670)
http://wwwgroups.dcs.stand.ac.uk/~history/Mathematicians/Brahmagupta.html
Kamal alDin Abu'l Hasan Muhammad alFarisi (1260 1320)
http://wwwhistory.mcs.standrews.ac.uk/Biographies/AlFarisi.html
Leonardo Pisano Fibonacci (1170 1250)
http://wwwhistory.mcs.standrews.ac.uk/Mathematicians/Fibonacci.html
Saint Albertus Magnus (1200 – 1280)
http://wwwhistory.mcs.standrews.ac.uk/Mathematicians/Albertus.html
Roger Bacon (1214 – 1292)
http://wwwhistory.mcs.standrews.ac.uk/Mathematicians/Bacon.html
118
Ulugh Beg (1393 1449)
http://wwwgroups.dcs.stand.ac.uk/~history/Mathematicians/Ulugh_Beg
http://turnbull.dcs.stand.ac.uk/~history/ Mathematicians/Ulugh_Beg.html
Nicholas of Cusa (1401 – 1464)
http://wwwhistory.mcs.standrews.ac.uk/Biographies/Cusa.html
Johann Müller Regiomontanus (1436 – 1476)
http://wwwhistory.mcs.standrews.ac.uk/Biographies/Regiomontanus.html
Leonardo da Vinci (14521519)
http://wwwhistory.mcs.standrews.ac.uk/history/Mathematicians/Leonardo.html
Simon Stevin (1548 – 1620)
http://wwwhistory.mcs.standrews.ac.uk/Biographies/Stevin.html
Pla Alberola, Primitivo (2006): Cristóbal Colón. Biblioteca Virtual Miguel de
Cervantes.
http://www.cervantesvirtual.com/portal/colon/include/pcolon_colon.jsp?
nomportal=colon
Ribnikov K. (1987): 4.3 Las matemáticas en Europa en la Edad Media y en la
Época del Renacimiento. 118 – 138. Historia de las Matemáticas. Editorial MIR.
Moscú.
Salah Zaimeche (2005): AlKhazani Merv's Physicist. MuslimHeritage.com.
http://www.muslimheritage.com/uploads/Merv.pdf
Smith W, Henry (1904): History of Science. Project Gutenberg File Converted into
HTML pages by Nalanda Digital Library under Etext Conversion Project (ECP).
Book II
Chapter I. Science in the dark age.
Chapter II. Medieval Science among the arabians.
Chapter III. Medieval Science in the west.
Chapter IV. The new cosmology Copernicus to Kepler and Galileo.
http://www.nalanda.nitc.ac.in/resources/english/etext
project/history/science/book2.section2.html
119
The Franklin Institute (2006): Chinese Inventions. Ancient arts and science of
China. http://sln.fi.edu/tfi/info/current/inventions.html
Verdugo Pamela (1997): Nicolás Copérnico. Los Matemáticos y su
Historia. Universidad de Santiago de Chile.
http://www.mat.usach.cl/histmat/html/cope.html
Westfall, Richard S. (1995): Catalog of the Scientific Community in the 16th
and 17th Centurias. Department of History and Philosophy of Science. Indiana
University.
Nicholas Copernicus (1473 – 1543)
http://galileo.rice.edu/Catalog/NewFiles/coprnics.html
Giovanni Battista Benedetti (1530 1590)
http://galileo.rice.edu/Catalog/NewFiles/benedeti.html
William Gilbert (1544 1603)
http://galileo.rice.edu/sci/gilbert.html
Tycho Brahe (1546 – 1601)
http://galileo.rice.edu/sci/brahe.html
Giordano Bruno (1548 1600)
http://galileo.rice.edu/chr/bruno.html
David Fabricius (1564 1617)
http://galileo.rice.edu/sci/fabricius.html
Johannes Kepler (1571 – 1630)
http://galileo.rice.edu/sci/kepler.html
Zubov V. P. (1962): Las ideas básicas de la Física, ensayos sobre su
desarrollo. Ediciones Pueblos Unidos. Montevideo.
Las ideas físicas del Medioevo, p. 87 – 120. Las ideas físicas del
Renacimiento, p. 135 – 163
120
REVOLUCIÓN DE LA FÍSICA Y SU IMPACTO EN LAS CIENCIAS DEL SIGLO XVII
Rolando Delgado Castillo y Francisco Arturo Ruiz Martínez
Universidad de Cienfuegos.
Contexto y avances en la formalización matemática
Nuevos instrumentos y revolución en la Astronomía
Antecedentes inmediatos de los Principia
La obra de Newton
Progresos en los fenómenos en que interviene la luz
Los métodos cuantitativos penetran los ámbitos de la Química y la
Biología.
Bibliografía
Domina el acontecer político de la primera mitad del siglo, la guerra de los 30
años, (1618 – 1648) resultado de choques de intereses religiosos, políticos y
económicos. A partir de la paz de Westfalia, Europa se convierte en un mosaico
de estados nacionales que representan el fin del poder del Imperio y del Papado.
A la secularización del estado correspondió una secularización del pensamiento
que impulsó el progreso de las ideas científicas.
Hacia la segunda mitad se destacan los desarrollos de dos modelos políticos:
121
El agitado paisaje de las sociedad inglesa con la guerra civil (1642) que
conduce a la instauración y vida de la República de Cromwell (16491660),
la posterior restauración de los Estuardos, y finalmente la abdicación de
Jacobo II (1660 –1688) mediante la Revolución pacífica de 1688. Esta
revolución se considera el hito histórico que inaugura el dominio inglés
de los mares, del comercio y de la Revolución Industrial.
En lo económico se producen zigzageos pero la tendencia expresa un incremento
del comercio colonial reflejado en la constitución de las grandes compañías
de la Indias en las tres potencias que emergen como líderes, Holanda, Inglaterra
y Francia. Aparecen las instituciones que prefiguran el naciente capitalismo
como la Bolsa de Amberes y la Banca nacional. El transito de la producción
artesanal, doméstica, a la manufactura se traduce en la creación de
instalaciones, se incuban novedosas técnicas y proliferan las profesiones que
gestan las propias instituciones de nuevo tipo.
No se puede decir que los científicos del siglo mostraron indiferencia por los
reconocidos movimientos sociales que bajo el término de Reforma tuvieron lugar.
Desde John Neper (o Napier, 1550 1617) en Escocia hasta Newton en Inglaterra
tomaron partido ante los acontecimientos que adoptaron un ropaje religioso.
Corresponde a esta etapa un momento singular dentro de la
actividad científica: la fundación de las Sociedades que
institucionalizan la profesionalización del hombre de
Ciencia, posibilitan el intercambio y divulgación de los
resultados, e intentan hacer coherente y uniforme el
lenguaje naciente de las ciencias. En 1662, se inicia la
Sociedad Real (Royal Society), la Academia inglesa de las
Ciencias, que tendría como su presidente a partir de 1703,
durante 24 años a sir Isaac Newton.
Es hacia mediados de este siglo que se crean, en los grandes polos de Europa,
las primeras sociedades científicas. En 1662 abre sus puertas la famosa sociedad
londinense “Royal Society”, uno de cuyos fundadores fue el más importante
químico – físico del siglo, el irlandés Robert Boyle (1627 – 1691); poco
después, en la próspera Florencia del Ducado de Toscana, comienza sus
actividades la Academia de Cimento, actuando como su fundador el célebre físico
Evangelista Torricelli (1608 – 1647); en 1666 el ministro de Economía y mecenas
del arte y de las ciencias francesas JeanBaptiste Colbert (1619 – 1683)
inaugura la Academia de Ciencias de París, y cierra el período la fundación
de la Academia de Ciencias berlinesa, bajo la inspiración del pionero del
122
cálculo, el matemático alemán Gottfried Wilhelm Leibniz (1646 1716).
La aparición de grandes obras filosóficas en el siglo XVII, repercuten en el
camino que toman las Ciencias Naturales. En este marco es necesario destacar la
obra del filósofo inglés Francis Bacon (1561 1626). Bacon reclamaba para el
trabajo científico la aplicación del método inductivo de investigación en lugar
del viejo método deductivo en que se basaba la escolástica y defendía el
experimento organizado y planificado como el procedimiento fundamental para
conducir la investigación. Sus ideas tuvieron una amplia repercusión, primero en
Inglaterra y luego en otros países.
La etapa de naciente formación en las Ciencias tal vez explique la inclinación
abarcadora de los científicos de la época. Los grandes matemáticos incursionan
con frecuencia en el campo filosófico, se esfuerzan por explicar los fenómenos
en su totalidad, e intentan construir los instrumentos matemáticos requeridos
para la formalización de los experimentos en el campo de la Mecánica.
La fijación en la memoria escrita de las prioridades en
los descubrimientos, los informes presentados en las
recién inauguradas Academias, el afán de alimentar el
debate que ofreciera la necesaria luz en los temas
investigados, constituyeron fuerzas motrices
para insertar en la matriz del tiempo la publicación de
las revistas científicas periódicas. El nacimiento de
tales revistas tuvo como escenario histórico el Londres
de la Royal Society y el París de la Academié , en
fecha de 1665, portando como título “Journal des
Scavans” y “Philosophical Transactions”. La última
llega hasta hoy como publicación de la Royal Society en
dos series. La serie A dedicada a problemas de las
ciencias matemáticas, físicas y de las ingenierías y la
serieB a los problemas de las ciencias biológicas.
La monumental obra de René Descartes (1596 1650) nos lega la creación de la
Geometría Analítica. Descartes introduce la noción de plano cartesiano y combina
el Álgebra y la Geometría de manera que a partir de sus trabajos los problemas
123
geométricos podían resolverse algebraicamente y las ecuaciones algebraicas
podían ilustrarse geométricamente. Se asiste así a una de las bases del cálculo
moderno.
Asombra pensar que ya a la altura de este siglo aparecen los primeros inventos
modernos de sistemas mecánicos para efectuar cálculos aritméticos. Existen las
pruebas documentales de que el matemático escocés John Neper (1550 1617) ya a
fines del XVI proyecta diferentes sistemas mecánicos para realizar cálculos
aritméticos. Pero Neper alcanza la celebridad por la publicación, apenas tres
años antes de morir, de sus tablas de logaritmos que fueran muy utilizadas en
los siglos siguientes. Además fue uno de los primeros en introducir la moderna
notación decimal para expresar fracciones. Neper fue seguidor del movimiento
de la Reforma en Escocia y años más tarde tomó parte activa en los asuntos
políticos promovidos por los protestantes.
La invención de los logaritmos fue aprovechada por el matemático inglés William
Oughtred (1574 – 1660), quién en 1632 descubrió que al disponer dos reglas
juntas con las escalas logarítmicas impresas, y deslizar una regla sobre la otra
podían efectuarse cálculos mecánicamente por medio de logaritmos. La regla de
cálculo fue perfeccionada por en 1671, y se convirtió con el paso del tiempo en
un instrumento imprescindible para los cálculos aproximados de ingenieros y
técnicos. Sólo tres siglos más tarde la calculadora electrónica lo remitió al
museo de instrumentos de cálculo.
La teoría matemática de la probabilidad fue inicialmente desarrollada de manera
conjunta por Pierre de Fermat (1601 1665) y Blaise Pascal (1623 – 1662). Una
gran resonancia tuvo la teoría de las probabilidades en el desarrollo de las
estadísticas matemáticas y sociales.
Cuando Pascal aún no había cumplido los 19 años, veinte años después del invento
de la regla de cálculo por el matemático inglés William Oughtred, inaugura el
camino de las invenciones de las máquinas calculadoras. Su máquina podía sumar y
restar mediante un complejo mecanismo de ruedas dentadas, cada una marcada del
uno al diez en su borde. Pascal debió resolver muchos problemas técnicos
derivados de la moneda usada en la Francia de la época, una libra contenía 20
soles y un sol, doce dinares, de modo que con esta división de la libra en 240
unidades el mecanismo se tornaba mucho más difícil que si la división hubiera
sido en 100 unidades. Sin embargo para 1652 se habían producido 50 prototipos de
los cuales unos pocos se había vendido. La manufactura de la máquina de Pascal
cesó este año. Casi al finalizar el siglo XVII Leibniz diseña una máquina
superior, pero aún habría que esperar un par de siglos para que se inventara la
calculadora comercial electrónica.
124
La construcción del cálculo infinitesimal fue desarrollada
casi simultáneamente por Leibniz y Newton hacia fines del
siglo XVII. En rigor, se reconoce que el sistema de Leibniz
fue publicado tres años antes que el propuesto por Newton,
y la notación adoptada universalmente fue la propuesta por
el primero. La época debió generar tal herramienta y dos
genios la construyeron. Se enfrascaron luego en una larga
disputa por la prioridad y la gloria. Con el Cálculo se
inicia la alta Matemática y se parte en dos la historia de
esta Ciencia.
Es también a partir del siglo XVII que se introduce sólidamente en las prácticas
de las investigaciones el método experimental, con el cual se conducen una serie
de grandes descubrimientos. El propio diseño del experimento físico impulsó el
desarrollo de los instrumentos de medición.
El listado de los instrumentos que resultan exigencia de la época son diseñados
y construidos generalmente por los propios investigadores y generan una
dialéctica entre teoría y práctica que representa el apoyo o rechazo de la
teoría preconcebida o significa el nacimiento de la nueva ley sustentada por la
data experimental. El propio Galileo estrena su pequeño telescopio de refracción
y encabeza la revolución astronómica; Hooke y Huygens se disputan el título de
125
mejor mecánico del siglo y pretenden registrar el tiempo con la mayor exactitud
posible; Torricelli inventa el barómetro y al hacerlo derriba el supuesto
principio del “horror vacui”; von Guericke inventa la bomba de vacio con la que
se abre un nuevo campo para la experimentación; y de nuevo Hooke que perfecciona
el microscopio y descubre un nuevo mundo, e inventa el primer higrómetro, un
anemómetro, el barómetro de cuadrante, mecanismos de registros automáticos, que
inauguran la meteorología como disciplina científica.
La astronomía telescópica tiene en Galileo Galilei a uno de sus fundadores. En
alrededor de dos meses, entre diciembre de 1609 y el enero siguiente, Galileo,
auxiliado de su estrenado telescopio de refracción hizo más descubrimientos
astronómicos que los que nadie había hecho nunca antes. Descubrió las lunas de
Júpiter, estructuras alrededor de Saturno, estrellas de la Vía Láctea , los
126
cráteres de la Luna , y las fases de Venus. Este último descubrimiento indicaba
que este planeta gira alrededor del Sol lo que constituía una evidencia a favor
de la teoría copernicana. Sus hallazgos celestiales aparecen publicados en un
pequeño libro “Mensajero Estelar” editado en mayo de 1610 en Venecia. Alrededor
del descubrimiento de las lunas de Júpiter quizás se estableció la primera
disputa de prioridad en el terreno astronómico. El litigio surge cuando el
astrónomo germano Simon Marius, (15731624), quién había viajado a Praga para
aprender las técnicas de Brahe, y luego asistido a la Universidad de Padua,
publicó en 1614 "El Mundo Joviano descubierto en 1609 mediante el telescopio
holandés". Allí afirma haber hecho las primeras observaciones de las lunas de
Júpiter, lo que motivó en 1623 la respuesta airada de Galileo en el "Analizador"
acusándole del robo de su descubrimiento. Sin embargo Mundus Iovialis contiene
otro hallazgo telescópico que no fue nunca cuestionado: el descubrimiento de la
Nebulosa de Andrómeda, que por entonces no era resuelta como sistema de
estrellas.
127
amén de quién desde 1610 había revolucionado el conocimiento de la bóveda
celeste. Galileo reportó la existencia de las manchas solares en su “Discurso
sobre cuerpos flotantes” (1612), y más detenidamente en “Cartas sobre las
manchas del sol” que aparecen en 1613.
Con fecha de junio de 1611, con antelación suficiente para su presentación en la
feria otoñal del libro de Frankfurt, Johannes Fabricius (1587 – 1616), hijo del
astrónomo danés David (1564 1617), que en 1596 había descubierto la primera
estrella variable, escribió un informe sobre las manchas solares impreso en
Wittenberg. Al relatar las observaciones hechas, Fabricius no ofrece las fechas
de observación ni se muestra un esquema del desplazamiento de las manchas, pero
se defiende la idea de que estas manchas pertenecen a la superficie solar y sus
desplazamiento revelan que el sol probablemente rota sobre su eje.
Por uno u otro motivo las conclusiones del breve ensayo de Fabricius se eclipsan
por la publicación en 1612 del brillante astrónomo alemán Christopher Scheiner
(15751650) sobre las manchas solares en la cual ofrece una medida de la
inclinación del eje de rotación de estas manchas al plano de la eclíptica que se
desvía sólo en unos pocos minutos del verdadero valor. Scheiner no solo
sobresale por sus aportaciones en la astronomía sino por sus inventos que cubren
ámbitos tan distantes como el pantógrafo (1603) y el telescopio terrestre
(1609). Pero antes que Fabricius y Scheiner, existe el registro de que ya en
1610, el físico británico Thomas Harriot (1560 1621) informó sobre la
existencia de las manchas del sol en círculos afines aunque nunca llegó a
publicarlos. Esta falta profesional acompañó la vida de Harriot, y aunque hoy se
sepa que este físico había descubierto la ley de la refracción de la luz antes
que lo hiciera en 1621 el profesor de la Universidad de Leiden, Willebrord van
Roijen Snell (1580 – 1626), el reconocimiento universal corresponde a este
último.
Convencido de que al menos algunos cuerpos no giraban alrededor de la Tierra ,
Galileo comenzó a escribir a favor del sistema de Copérnico. En febrero de 1632,
luego de 6 años de trabajo, publica su “Diálogo concerniente a los dos sistemas
principales del mundo: Ptolemaico y Copernicano”. Desafortunadamente, dentro de
las verdades inobjetables a favor del sistema copernicano que la obra defiende,
Galileo desarrolla una errónea teoría de las mareas, que ya había sido explicada
correctamente por Kepler.
128
Con la muerte en 1601 de Tycho Brahe, su asistente
Kepler se convierte en sucesor en el cargo de
Matemático Imperial, y permanece en este puesto hasta
1612. En Praga, Kepler muestra la fecundidad de quién
al finalizar el pasado siglo abordara los “Misterios
del Cosmos” iniciando la profundización de la teoría
heliocéntrica. Orientado al estudio de Marte, le
obsesiona una discrepancia entre cálculo y observación
detectada en su órbita. La divisa kepleriana de que «el
origen de las discrepancias debe hallarse en nuestras
hipótesis iniciales» le conduce a rechazar la
circularidad de la órbita marciana y la uniformidad
del movimiento planetario.
En rigor histórico defender a Copérnico después de la obra de Kepler significaba
desconocer la dinámica gravitacional y aceptar la santa circularidad de las
revoluciones planetarias, pero resulta incomprensible la invisibilidad de los
trabajos de Kepler ante la pupila de Galileo. Poco después de la publicación de
la obra, la Inquisición prohíbe su venta y ordena a Galileo presentarse en Roma.
Encontrado culpable, fue condenado a cadena perpetua, pena que en realidad fue
convertida en arresto domiciliario.
Entre 1618 – 1621, Johannes Kepler (1571 1630) concluye y publica su obra
“Epitome astronomiae copernicarnae” que resume su colosal descubrimiento de las
leyes que rigen el movimiento planetario alrededor del sol. La santidad circular
de las orbitas de Copérnico queda enterrada ante la evidencia kepleriana de que
las orbitas planetarias describen una elipse con el sol en un foco. La segunda
ley de Kepler, o regla del área, deja establecido que los planetas no giran con
un movimiento circular uniforme sino que se desplazan con mayor velocidad a
medida que se aproximan al sol, barren iguales áreas en igual período. La
importancia de esta ley reside en sustituir el movimiento uniforme “resultante
de una perfección natural” por una uniformidad física (la conservación del
129
movimiento angular), absolutamente acorde con la observación y que abre paso
hacia una nueva formalización e interpretación dinámica. La ley de la
elipticidad y la ley de las áreas relacionaron el movimiento de cada planeta con
el Sol, pero la ley armónica que deduce en 1619 cuando ya está en imprenta su
obra “ La Armonía del Mundo” integra el movimiento de los planetas en un solo
sistema. Los cuadrados de los tiempos empleados en las revoluciones de los
planetas son entre sí como los cubos de sus distancias medias al Sol está
anunciando el nacimiento de la fórmula de la gravitación universal.
La obra del físico – matemático holandés Christian Huygens (1629 1695) abarca
varios campos de la Física del XVII, pero inicia sus trabajos en los ámbitos de
la matemática y la astronomía. Alrededor de 1654, su fina capacidad como
instrumentista le permite desarrollar nuevos lentes. Usando una de sus propias
lentes, Huygens detectó, en 1655, la primera luna de Saturno. El año siguiente
descubrió la verdadera forma de los anillos de este planeta.
En Systema Saturnium (1659), Huygens explicaba las fases y cambios en la forma
del anillo y describe sus observaciones sobre la Luna , los planetas, y la
130
nebulosa de Orión. Sus observaciones estelares le llevaron a admitir el
principio de que la comparación del brillo entre dos astros serviría para
determinar sus distancias relativas. Suponiendo que la estrella Sirio, la más
brillante del cielo, es igual al Sol, Huygens estimó que la distancia de la
Tierra a Sirio era 27 664 veces la distancia que separa al Sol de nuestro
planeta. El error cometido demuestra la elevada imprecisión de su método, la
distancia real es más de 20 veces mayor que la estimada por Huygens.
En la segunda mitad del siglo XVI, desde el Observatorio
de París, el astrónomo genovés Giovanni Cassini, (1625
1712) hace descubrimientos revolucionarios que fueron
generalmente interpretados por él de manera
conservadora. Entre 1664 y 1666 midió el periodo de
rotación sobre su eje de Júpiter y de Marte, y observó
que el primero estaba aplanado en sus polos. Una audaz
deducción devino de las observaciones de las lunas de
Júpiter en 1668, cuando afirmara que las discrepancias en
los datos debían atribuirse a que la luz tenía una
velocidad finita y que el tiempo requerido para atravesar
una distancia igual al semidiámetro de la órbita
de la Tierra le lleva entre diez y once minutos.
131
frecuentes eclipses volvió a encontrar desviaciones en
sus observaciones que relacionó con las variaciones en el
tiempo que debía demorar la luz en hacer su recorrido al
variar las distancias entre la Tierra y Júpiter.
Aplicando los cálculos relativamente imprecisos para las
distancias entre la Tierra y Júpiter, disponibles durante
el siglo XVII, Roemer fue capaz de hacer la primera
estimación de la velocidad de la luz en 220 mil km/seg.
(En la imagen: Ole Christensen Roemer.
En 1634, con casi 70 años y habiendo sido juzgado como hereje dos años antes,
Galileo reaborda y perfecciona las ideas no publicadas en 1590 en "De Motu"
sobre los problemas relacionados con los ímpetus, momentos, y centros de
gravedad y escribe sus "Discursos y demostraciones matemáticas sobre las dos
nuevas ciencias". La obra fue enviada clandestinamente a Leiden, Holanda, dónde
se publica. En los "Discursos" desarrolló sus ideas sobre el plano inclinado y
más tarde describe un experimento con el empleo del péndulo para verificar su
postulado sobre el plano inclinado que le permite deducir el teorema sobre la
aceleración de los cuerpos en caída libre. Allana así, al final de su vida, la
construcción de lo que hoy todos reconocen como una parte integrante de la
Física : la Mecánica.
En forma totalizadora puede afirmarse que aunque no vinculó sus estudios de la
mecánica de los cuerpos en la Tierra con sus ideas sobre el movimiento de los
cuerpos celestes, sus investigaciones pulverizan las ideas aristotélicas sobre
el movimiento y demuestran la importancia de introducir el método matemático –
experimental en las Ciencias Físicas.
132
Hacia 1641, Evangelista Torricelli (1608 – 1647), quién actúo como asistente
de Galileo en los último diez meses de la vida del pisano, había completado
buena parte del trabajo que iba a publicar como Ópera Geométrica en 1644. En la
segunda de las tres secciones de este libro bajo el título de "De motu gravium"
Torricelli profundiza en el estudio de Galileo sobre el movimiento de
proyectiles desarrollando la teoría que describe la trayectoria parabólica de un
proyectil lanzado a cualquier ángulo y ofreciendo tablas numéricas para ayudar a
los tiradores a encontrar la correcta elevación de sus armas para el alcance del
blanco.
133
Por esta época, la Real Sociedad londinense había incluido en su agenda como un
tema de investigación, la colisión de los cuerpos elásticos. A esta convocatoria
responderían en 1668 con informes o publicaciones de forma independiente John
Wallis (1616 1703), Christopher Wren (1632 – 1723) y Huygens. El fruto de
estos trabajos apunta al descubrimiento de la primera ley de conservación. En
particular Huygens demuestra experimentalmente que el momento de una dirección
fija antes de la colisión de dos cuerpos es igual al momento en esa dirección
tras la colisión.
En el Horologium Oscillatorium sive de motu pendulorum (1673), Huygens describió
el primer sistema dinámico jamás estudiado – el péndulo compuesto. Con el
tratamiento de Huygens de los fenómenos de impacto, el movimiento circular
uniforme y el movimiento del péndulo fueron clarificados los conceptos primarios
de la Física, la masa, el peso, el momento, la fuerza y el trabajo.
A poco de la muerte de Torricelli, en 1647 Pascal publicaba
“Nuevos experimentos concernientes al vacío” que provocó la
duda de numerosos científicos de la época. Descartes escribió
a Huygens “tiene demasiado vacío en la cabeza”. Pero Pascal
continuó sus observaciones que le permitieron descubrir que
la presión atmosférica decrece con la altura y le hizo
suponer que por encima de la atmósfera existe el vacío. En
otro ámbito que lo hermana con Torricelli
en el estudio de la Mecánica de los Fluidos escribe en 1653
su “Tratado sobre el equilibrio de los líquidos”, en la cual
explica la ley de Pascal.Este tratado representa una
descripción total de un sistema de hidrostática, el primero
en la historia de la ciencia.
134
Ya en medio de la epidemia de la peste de 1665, que condujo a la clausura de la
Universidad de Cambridge, apenas con 23 años, Newton comprendió que la fuerza
responsable de la caída de la manzana era la misma que obligaba a la Luna a
girar alrededor de la Tierra : la gravitación universal. Alrededor de 1666
Newton tenía versiones tempranas de sus tres leyes de movimiento. Había
descubierto también la ley que daba la fuerza centrífuga de un cuerpo que se
movía uniformemente en una trayectoria circular. Sin embargo, no tenía una
correcta comprensión de la mecánica del movimiento circular. La nueva idea de
Newton de 1666 fue imaginar que la gravedad de la Tierra influenciaba a la
Luna , contrarrestando su fuerza centrífuga. A partir de su ley de la fuerza
centrífuga y de la tercera ley del movimiento planetario de Kepler, Newton
dedujo la ley del cuadrado inverso. Pero estos progresos permanecían sin
publicar hacia 1686, cuando Halley convenció a Newton de la necesidad de
publicar un tratado completo de su nueva física y su aplicación a la astronomía.
Un año después salían de la imprenta sus Philosophiae naturalis principia
matemática.
La resonancia alcanzada por sus Principia no ha sido igualada por ningún otro
libro científico. Newton analizó el movimiento de los cuerpos en medios
resistentes y no resistentes bajo la acción de fuerzas centrípetas. Los
resultados fueron aplicados a los cuerpos en órbita, proyectiles, péndulos, y a
la caída libre cerca de la Tierra. Además demostró que los planetas eran
atraídos hacia el Sol por una fuerza que varía con el cuadrado inverso de la
distancia y generalizó que todos los cuerpos celestes se atraen mutuamente unos
a otros.
La capacidad de su teoría de integrar una amplia variedad de fenómenos tales
como las órbitas excéntricas de los cometas, las mareas y sus variaciones, la
precesión del eje de la Tierra , y la perturbación del movimiento dela Luna por
la gravedad del Sol, convertiría con el tiempo a Newton en una leyenda de las
ciencias.
135
Los historiadores coinciden que si no fuera por Halley
probablemente la obra de Newton “Principia Matemática”
no hubiera existido. Se reconoce en Halley la devoción
que muestra por la obra de su colega, que le aparta de
su propio trabajo, y asume los gastos de impresión. Esta
misión la asume cuando a la muerte de su padre se vio
envuelto en asuntos legales, familiares y de propiedad
que exigían de su atención. Desde 1695 Halley emprendió
un cuidadoso estudio de la orbita de los cometas.
Sin embargo en su época sus teorías no fueron universalmente reconocidas y no
pocos científicos rechazaban la idea de la acción a distancia y continuaban
creyendo en la teoría del vórtice de Descartes en la que las fuerzas funcionan a
través del contacto. Para el propio Newton esta concepción sólo fue admitida
como una necesidad resultante de la observación. La idea sobre los campos
físicos, ejemplo de los cuales es el campo gravitatorio, y de su carácter
objetivo, no había sido aún desarrollada.
En particular, en el primer libro “El movimiento de los cuerpos” estudia los
casos de las llamadas fuerzas centrales del tipo de dependencia con el inverso
del cuadrado de la distancia, y la ley de las áreas, enunciada por Kepler, que
le permitió establecer su Teoría de la Gravitación Universal y que llevó a las
ideas sobre las propiedades inerciales y gravitacionales de los cuerpos medidas
a través de las masas. En este primer libro también se trata el caso de los
movimientos ascendentes y descendentes de los cuerpos y la teoría sobre el
movimiento pendular. Concluye el libro con el estudio del movimiento de los
cuerpos pequeños y con la explicación de las leyes de la reflexión y refracción
de la luz considerando el rayo luminoso como un haz de pequeñas partículas.
En el segundo libro “Movimiento de los cuerpos en medios resistentes” analiza el
136
caso de las fuerzas viscosas dependientes funcionalmente de varias formas con la
rapidez del movimiento de los cuerpos en dichos medios. También incluye la
Hidrostática y la Dinámica de los Fluidos, las ondas en medios elásticos y el
estudio de los vórtices en fluidos.
En el tercer libro “El sistema del mundo” presenta sus cuatro reglas para el
“razonamiento filosófico” que son:
1. “No se deben admitir otras causas que las necesarias para explicar los
fenómenos.”
2. “Los efectos del mismo género deben siempre ser atribuidos, en la
medida que sea posible, a la misma causa.”
3. “Las cualidades de los cuerpos que no sean susceptibles de aumento ni
disminución y que pertenecen a todos los cuerpos sobre los que se pueden
hacer experimentos, deben ser miradas como pertenecientes a todos los
cuerpos en general.”
4. "En la filosofía experimental, las proposiciones sacadas por inducción
de los fenómenos deben ser miradas, a pesar de las hipótesis contrarias,
como exactas o aproximadamente verdaderas, hasta que algunos otros
fenómenos las confirmen enteramente o hagan ver que están sujetas a
excepciones.”
Sin embargo desde 1693, tras sufrir una segunda depresión
nerviosa, Newton se retiró de la investigación y solo
intervino en la larga controversia con Leibnitz por la
paternidad del cálculo infinitesimal.
137
Estas reglas tienen un incalculable valor epistemológico para la Ciencia.
Las dos primeras están relacionadas con el método de la modelación, que
consiste en esencia en la acumulación de datos de la observación de un conjunto
de fenómenos y al extraer lo esencial de ellos, proponer un modelo físico –
matemático de esos fenómenos y de los sistemas donde ellos se producen y luego
pasar al experimento, diseñado al efecto, para comprobar la validez del modelo.
De otro lado, estas dos primeras reglas expresan el pensamiento newtoniano sobre
la relación causa – efecto penetrado por el enfoque determinista emanado de su
propia descripción de la Mecánica , pero sin dudas, y la Ciencia lo ha
demostrado plenamente, son válidas estas ideas para los casos de los sistemas
macroscópicos. La tercera regla avanza un método para la generalización de las
conclusiones científicas, lo que ha sido un poderoso instrumento en manos de la
Ciencia.
Por último, la cuarta regla hace referencia a la objetividad del conocimiento si
este es levantado sobre una sólida base experimental y a la vez permite la
adecuada combinación entre el carácter absoluto de ese conocimiento en un
momento histórico determinado y su carácter relativo en el decursar del tiempo,
fertilizando la idea de lo que más tarde se conoció como el Principio de
Correspondencia, que invalida la concepción del relativismo a ultranza.
La obra de Newton se destaca por haber erigido la Mecánica sobre la base de tres
leyes básicas, capaces de resolver todos los casos de movimientos de cuerpos
(macroscópicos) referidos a un sistema inercial de referencia. Para tener una
idea del grado de validez de este núcleo teórico, para el caso macroscópico de
bajas velocidades, bastará con saber que el diseño, control y corrección de las
órbitas de los satélites terrestres y las naves cósmicas que el hombre utiliza
en la actualidad, son realizados enteramente con arreglo a las predicciones de
estas tres leyes.
Robert Hooke (1635 – 1702), asistente de Boyle en Oxford, y
primer director de experimentación de la Real Sociedad de
Londres libró encendidas polémicas con Newton y con Huygens.
Reclamó la prioridad y acusó de robo de sus ideas a Newton al
publicar en 1672 su teoría de la luz, y reaccionó de igual
manera al publicarse la primera edición de los Principia
desatando una disputa sobre la paternidad de la ley de las
fuerzas del cuadrado inverso. Newton respondió indignado
eliminando toda referencia a Hooke en sus trabajos. Los
historiadores han reconocido que en todo caso Hooke no supo
convertir en teorías comprehensivas sus ideas originales.
138
En la década del 60 construyó un microscopio perfeccionado
con lámpara y condensador gracias al cual fue el primero en
descubrir la existencia de células en tejidos vegetales que
reporta ya en 1665 en una de las obras magistrales del siglo
XVII, Micrographia. En 1660 había descubierto un caso de la
ley de Hooke mientras trabajaba en los diseños de muelles de
balance de relojes. Sin embargo Hooke sólo anunció la ley
general de elasticidad en su conferencia "De Resortes" dada
en 1678.
La principal crítica a las ideas newtonianas se relaciona con su concepción del
espacio y el tiempo como receptáculos vacíos en los cuales se mueven los
cuerpos. Pero se necesitaron 218 años para que Einstein pusiera en la palestra
sus ideas sobre el carácter relativo de estas formas de existencia de la materia
con su Teoría de la Relatividad Especial y luego con la Teoría General de la
Relatividad que le permitiría actualizar las concepciones sobre la gravitación
universal.
No dejan de tener interés las ideas de Newton acerca de la naturaleza de la luz.
Su explicación de las leyes de la reflexión y refracción de la luz considerando
el haz luminoso como un haz de pequeñas partículas, encontró la contraposición
de otros investigadores. Este debate estuvo precedido por un grupo de
descubrimientos que serán brevemente considerados.
Según Newton, el primer desarrollo sugerente de la teoría del arco iris se debió
al veneciano Marco Antonio de Dominis (1566 1624). Dominis en 1611 publica en
Venecia, un trabajo científico titulado: "Tractatus de radiis visus et lucis in
vitris, perspectivis et iride", en el cual admite que en cada gota de lluvia la
luz sufre dos refracciones y una reflexión intermedia. El reconocimiento a este
descubrimiento es atribuido más generalmente a Descartes. Dominis, personalidad
contradictoria formada en las Universidades de Padua y Brescia escribió a su
salida de la Sociedad de Jesús, virulentos ataques a las autoridades de Roma.
Luego de largos años de acusaciones y de perdones finalmente la Inquisición lo
declara hereje y lo confina en el Castillo de San Angelo, donde muere. Su
proceso continúa después de su muerte y a los pocos meses es ratificada su
herejía, quemados sus restos y sus obras.
Como fue deslizado anteriormente, entre las conquistas en el campo de la óptica
de este siglo se encuentra el descubrimiento en 1621 de la ley de la refracción
de la luz. Snell encontró una relación característica entre el ángulo de
incidencia y el ángulo de refracción. La ley demuestra que cada sustancia tiene
una relación de desviación específica, el índice de refracción. A un mayor
139
ángulo de refracción corresponde un mayor índice de refracción para una
sustancia específica. Al morir en 1626, a la temprana edad de 46 años en Leiden,
no podía imaginar que unos setenta años después se reconocería su descubrimiento
y este hecho haría ingresar su nombre en los libros de óptica de cualquier fecha
posterior. Pero ya Snell en 1617, al publicar “Eratosthenes Batavus”,describía
la metodología de la triangulación para medir la Tierra con lo cual tejía las
bases de la geodesia moderna.
Se ha afirmado que la obra del profesor jesuita Francesco M. Grimaldi (1613 –
1653) atrajo a Newton al campo de la óptica. En 1666 aparece publicada la obra
“Físicamatemática de la Luz” en la cual se sugiere la naturaleza ondulatoria de
la luz y se formula las bases geométricas para una teoría ondulatoria de la luz.
Grimaldi se considera el descubridor de la difracción de la luz, fenómeno al
cual le dio su nombre: división en fracciones. Ofrece con su estudio las bases
para la posterior invención de la red de difracción, tarea conducida a
principios del siglo XIX, por el óptico alemán Joseph von Fraunhofer que impulsó
el nacimiento de la espectroscopia. A Grimaldi corresponde también el mérito de
ser el primero en nombrar los accidentes visibles de la luna en 1651. Con
Giovanni Batista Riccioli (1598 1671) compuso un muy preciso selenógrafo,
publicado en la obra de Riccioli "Almagestum Novum", la mejor descripción de la
superficie lunar construida por el hombre hasta esa época.
140
Erasmus Bartholin (1625 1698) descubre el “insólito” fenómeno de la
polarización de la luz al atravesar un cristal de espato de Islandia. En su
“Experimenta crystalli Islandici disdiaclastici quibus mira & insolita refractio
detegitur” Bartholin describe la geometría de los cristales y la doble
refracción que experimenta la luz a su paso. Durante sus experimentos observó
que cuando los cristales del espato de Islandia son rotados sobre sus ejes, uno
de las dos imágenes se mueve en un círculo alrededor de la otra, lo que
constituye una fuerte evidencia de que los cristales dividen la luz en dos
diferentes rayos. Bartholin creía que el cristal tenía dos conjuntos de poros
por donde el rayo de luz se dividía y se propagaba. Es también reconocido por su
trabajo en la medicina en particular por la introducción de la quinina en la
lucha contra la malaria.
En 1676 Huygens regresó a la Haya y se afirma que entonces se sintió atraído
por el estudio de la obra de Bartholin y el fenómeno de la doble polarización.
También por entonces conoció de los trabajos de Römer que daban una velocidad
aproximada para la luz determinada por la observación de las lunas de Júpiter,
lo que confirmaba sus tesis de la finitud de la velocidad de la luz. Dos años
más tarde publica en París su Traité de la lumiere, en el cual
considera la luz como la propagación de un movimiento ondulatorio en un medio
sutil, el éter que llena todo el espacio y a partir de estos supuestos explica
con éxito las leyes de la óptica geométrica. Huygens constató que una esfera de
luz en expansión se comporta como si cada punto en el frente de onda fuera una
nueva fuente de radiación de la misma frecuencia y fase. Al concebir la luz como
ondas mecánicas, explica diferentes fenómenos ópticos entre los que se incluye
la polarización de la luz.
141
Los estudios sobre la electricidad en este siglo encontraron, a 29 años de la
publicación de “De Magnete”, una relativa continuidad con los trabajos del
jesuita italiano Niccolo Cabeo (1596 – 1650). En su obra “Philosophia magnetica”
publicado en 1629, se describen observaciones de que los cuerpos cargados
eléctricamente podían atraer a objetos no electrificados y también notó que dos
objetos cargados se repelen. Estos efectos eléctricos se atribuyeron a la
liberación por el cuerpo electrificado por frotamiento de un efluvio que
desplaza al aire alrededor del objeto ligero provocando su aproximación. La
repulsión no es vista como una nueva fuerza creada sino simplemente como la
reocupación del aire original del espacio entre los cuerpos que separa al objeto
ligero. La comprobación experimental de estas hipótesis debió esperar por
mecanismos de creación de un vacío relativo. Y esto sólo ocurrió cuando el grupo
de Oxford investigaba diversos fenómenos con el vacío creado por la bomba de
Hooke.
Pero por los tiempos que Boyle investigaba estos efectos, precisamente el ya
mencionado inventor de la bomba de vacío Otto von Guericke no solo construyó la
primera máquina que producía electricidad por fricción en 1672 sino que
descubrió la atracción y la repulsión eléctrica. Su máquina eléctrica consistió
en una esfera de azufre montada sobre un eje de hierro que en cierto modo
imitaba la rotación de la Tierra. Cuando esta esfera se rotaba y frotaba con la
mano manifestaba reacciones eléctricas, es decir, toda suerte de pequeños
fragmentos, como hojas de papel, oro o plata, se veían atraídos por el globo de
azufre. Esta acción se observaba también con gotas de agua o el humo que pasaran
cerca de la esfera. Von Guericke, a diferencia de Cabeo reconoció la repulsión
como “una virtud expulsiva”. Y estuvo a punto de describir la descarga eléctrica
de los cuerpos cargados por contacto con algún otro objeto, al apreciar que
cuando esto ocurre el objeto se siente reatraído por el cuerpo electrificado.
Sus experimentos con el globo de azufre y una pluma revelan que una conexión
existe entre la virtud expulsiva y el aire caliente procedente de una vela, pues
al pasar la pluma a unas pulgadas del foco caliente la conducta de la pluma
cambia súbitamente y vuela hacia el globo en “búsqueda de protección”, como si
la virtud expulsiva fuera disipada.
En la última década del siglo el astrónomo inglés Edmund Halley sugiere que la
Tierra consiste de esferas dentro de esferas cada una de las cuales rota
lentamente con respecto a la otra y es independientemente magnetizada. Era un
142
primer intento de explicar por qué la declinación magnética varía con el tiempo.
Hasta la invención de la maquina de producir electricidad
por fricción de Von Guericke nadie había observado la
transferencia de electricidad de un cuerpo a otro. Sus
experimentos demostraron que conectando a un globo de
azufre electrificado un hilo de lino se ejerce su virtud
eléctrica atractiva sobre un cuerpo. Ademá Guericke reporta
que la bola de azufre en la oscuridad cuando era
enérgicamente frotada se hacía luminosa.
Da la impresión de que el propio Guericke no aprecia la trascendencia de sus
descubrimientos, al no continuar profundizando sobre estos hechos y desviar su
atención hacia otros campos de la investigación.
Un año antes de la publicación de la obra de Fabrici se doctoraba en Padua,
luego de cinco años de estudios, un joven médico inglés, graduado en Cambridge,
de nombre William Harvey (15781657). Harvey en las próximas décadas demostraría
que la función del corazón en el cuerpo humano es bombear la sangre a través de
un torrente circulatorio que cumple una trayectoria circular. Se abría paso una
Revolución en la Fisiología que se apartaba de los designios sobrenaturales
atribuidos a los procesos vitales y en particular al corazón.
En la región fronteriza entre la Física y la Química se van dando los primeros
pasos hacia una comprensión de la naturaleza del calor y la máxima galileana de
“medir todo lo que es mesurable y pretender hacer mesurable lo que por ahora no
lo es” va penetrando el pensamiento y la acción de los que investigan en este
campo.
143
conocimiento en el siglo XVII. De manera hipotética Descartes planteó la
singular idea de que las propiedades de las sustancias dependían de la forma
que adoptaban sus partículas constituyentes. Así el agua debía presentar como
corpúsculos elementales partículas largas, lisas y resbaladizas; partículas
puntiagudas debían formar las sales; pesadas y redondas debían ser las del
mercurio. Puede considerarse a Descartes el iniciador de la Estereoquímica o
Química Espacial, pero sus ideas no podrían tener un ulterior desarrollo en esta
época. Debía antes desarrollarse la Mecánica de Newton, para que Dalton, a
inicios del XIX, pudiera atribuir a la masa, la propiedad fundamental de los
átomos.
Pero no es Descartes un exponente único de esta línea de pensamiento, incluso
antes el químico holandés Daniel Sennert (15721637), defendía la existencia de
partículas elementales a las cuales llamó mínimas e intentó interpretar
diferentes transformaciones físico químicas como las condensaciones y
destilaciones a partir de las mínimas. Su contemporáneo Joachim Jungius, (1587
1657) consideraba igualmente que numerosas transformaciones implicaba el cambio
de los átomos y poco después el autodidacta italiano de Química y Medicina,
Angelo Sala (1576 –1637) atribuye a los corpúsculos función esencial en las
transformaciones, considerando la fermentación como una reagrupación de
partículas elementales que conducía a la formación de nuevas sustancias.
Anteriormente Galilei había inventado el termoscopio (1592), instrumento simple
e inexacto pero con el cual había dado nacimiento a la termometría y por
consiguiente a la termodinámica. Fueron precisamente sus discípulos, los
académicos florentinos los que convierten el instrumento de Galileo en el
termómetro de líquido llenado al principio con agua, luego con alcohol y por
fin, ya en el siguiente siglo con mercurio. Ellos descubrieron que la lectura
dada por un termómetro para la temperatura de mezclas de agua y hielo es siempre
la misma. La práctica demostraba que existían estados con temperaturas
144
constantes, pero el desarrollo de una escala termométrica debió esperar por los
trabajos del discípulo del gran químico holandés Hermann Boerhaave, el físico
alemán Daniel Gabriel Fahrenheit (16861736) en las primeras décadas del XVIII.
En 1628 el médico inglés William Harvey (15781657), 26 años
después de doctorarse en Padua, publica “De motus cordis”,
donde concluye que tanto en el hombre como en los animales la
sangre es mantenida en un circuito con un tipo de movimiento
circular incesante, y que ésta es una actividad o función del
corazón que lleva a cabo por medio de su pulsación, y que en
suma constituye la única razón para ese movimiento pulsátil
del corazón. Se abría paso una Revolución enla Fisiología que
se apartaba de los designios sobrenaturales atribuidos a los
procesos vitales y en particular al corazón.
El fisiólogo italiano Marcello Malphigi (16281694) introduce el
microscopio de Hooke para realizar observaciones de los tejidos
y ello le permite, al tiempo que inaugura la Anatomía
Microscópica , descubrir la red de capilares pulmonares que
conectan las venas con las arterias, y que vienen a explicar el
vacío dejado por Harvey en la explicación del ciclo
circulatorio. No es Malpighi un representante aislado de los
cambios generados por la matriz de la época, a partir de ahora
los planteamientos y soluciones de los problemas de esta
disciplina se apoyan cada vez más en los logros de la Mecánica
de la Física y de la Química apartándose de explicaciones
basadas en tendencias esenciales o en designios sobrenaturales.
Asombra que un anatomista como Franciscus Sylvius (1614 –1672) haya abordado la
145
investigación del calor liberado cuando se mezcla un ácido con alambres de
hierro dando los primeros pasos de la termoquímica desarrollada en el siguiente
siglo por el británico Joseph Black (1728 – 1799), convirtiéndose así en uno de
los fundadores de la tradición forjada en la Universidad de Leiden. Su
magisterio se exalta con la labor de mentor de Burchard de Volder (16431709),
un entusiasta seguidor de Boyle que fundó el primer laboratorio de Física de
Leiden y que influye notablemente en el célebre profesor holandés, Hermann
Boerhaave (16681738).
En la línea de medir los cambios en la masa newtoniana durante las reacciones
químicas aparece un personaje que es para muchos el más auténtico protagonista
del período de transición de la alquimia hacia la química, el médico, y químico
físico flamenco Johannes Baptiste van Helmont (1577 –1644).
Este afán por introducir la balanza, adelantándose casi un siglo a las prácticas
de la experimentación cuantitativa de la Escuela Francesa liderada por
Lavoisier, que debía conducir más tarde o más temprano a los fundamentos de la
ley de conservación de la masa, se refleja también en la actividad del francés
Jean Rey (15831645). Van Helmont y Rey “rozaron” la fomulación de la ley de
conservación la masa enunciada más de un siglo después por el químico ruso
Mijaíl Vasílievich Lomonósov (17111765).
Un personaje que es para muchos el más auténtico protagonista
del período de transición de la alquimia hacia la química, el
médico, y químicofísico flamenco Johannes Baptiste van
Helmont (1577 –1644) se destaca por su apasionada defensa de
que el estudio de la naturaleza debía conducirse por los
naturalistas y no por los sacerdotes. La célebre Universidad
de Lovaina (fundada en 1425) donde recibió su enciclopédica
formación consideró sus ideas como herejía y presentó la
correspondiente acusación ante la Santa
Inquisición. Condenado a tres años de prisión, luego de ser
liberado sufre un régimen de arresto domiciliario y
la prohibición de publicar sus trabajos sin previa
autorización de la Iglesia.
En la obra del químicofísico irlandés Robert Boyle (1627 – 1691) “Origen de
formas y características según la filosofía corpuscular” publicada en 1666, el
autor desarrolla el atomismo de sus predecesores y postula la existencia de
partículas de materia primaria que se combinan de diversas maneras para formar
lo que él llamó corpúsculos, de cuyo movimiento y estructura se derivaban todos
146
los fenómenos observables.
La actuación como figura central del llamado grupo de Oxford integrado además
por Hooke y el médico y fisiologo inglés John Mayow (16411679) alienta el
objetivo de descifrar el papel del aire en fenómenos aparentemente distantes
como la combustión de materias orgánicas, la oxidación de metales, y la
respiración. Corre el 1665 cuando demuestra empleando una bomba de vacio que una
vela no arde en el vacio y los animales no pueden vivir sin el aire, lo que
traducido al pensamiento teórico origina el criterio de que la respiracion y la
combustion son dos fenómenos similares. Hooke, compartía las ideas básicas de su
mentor y en su obra “Micrographia”, publicada en 1665 consideraba el aire como
una mezcla de partículas diferentes entra las cuales hay un tipo responsable de
la combustión y otra clase que no se alteraba durante las reacciones químicas y
daba cuenta de la elasticidad observada. Por su parte Mayow suma nuevas
evidencias, perfeccionando las experiencias neumáticas de Boyle, de que el aire
es una mezcla de componentes y que en la respiración al igual que en la
combustión sólo participa una parte de él.
El profesor pisano Giovanni Borelli (16081679) se dedicó
a preservar y hacer avanzar la tradición galileana en el
ámbito de la fisiología. Borelli es particularmente
recordado por sus investigaciones microscópicas de las
células de los globulos rojos y sus observaciones precisas
de la regularidad en el movimiento de las estomas en las
plantas. Su más famoso trabajo, “Sobre el movimiento de
los animales”, que no llega a ver publicado, sale de
imprenta en dos partes entre 1680 y 1681,
y en esta obra expone sus estudios fisiológicos basados
en sólidos principios mecánicos que incluye el análisis del
movimiento de los músculos, una ilustración matemática del
salto y la carrera, y una explicación que anticipa las
causas de la fatiga muscular y del dolor. Se considera
el padre de la biomecánica.
147
Aunque la más conocida contribución del químicofísico irlandés
Robert Boyle (1627 – 1691) a las ciencias, sea la llamada ley
de Boyle – Mariotte, ley de compresibilidad de los gases,
publicada en 1662 en la segunda edición de su obra “Elasticidad
y peso del aire” y descubierta de manera independiente y hacia
la misma fecha por el físico francés Edme Mariotte (1620
1684), lo cierto es Boyle representa lo más avanzado en el
pensamiento químico de la época. En el balance del XVII hay que
reconocer que Boyle fue una de las figuras centrales en el
proceso de demolición del entramado alquimista, en el
conocimiento de las relaciones entre las sustancias, en el
fortalecimiento de la práctica de introducir la balanza en el
examen de los fenómenos químicos, y en la reevaluación del
papel de los aires a la luz de su participación en los
importantes procesos de combustión y de respiración.
Con la Revolución Científica inaugurada por Newton se abría paso el paradigma
mecánico, que exigiría en este siglo, y propiciara en el XVIII, el desarrollo de
un nuevo instrumental matemático. Un invento, aparentemente casual, desplazaría
la pupila de investigadores hacia la electrostática. Mientras, la irrupción de
los métodos de la experimentación cuantitativa hacia la Alquimia y otros campos
de la Medicina, provocaría el fallecimiento de la primera y el nacimiento de
nuevas áreas en la segunda.
Bibliografía:
Altshuler José (2003): A propósito de Galileo. Editorial Gente Nueva. La Habana.
Barattin Luisa (2000): Galileo Galilei. Institute and Museum of the History of
Science of Florence, Italy. http://galileo.imss.firenze.it/museo/4/index.html
Blatchley R., Shepelavy J (1992): Robert Boyle: Mighty Chemist. History of
Chemistry. Woodrow Wilson Summer Institute.
http://www.woodrow.org/teachers/chemistry/institutes/1992/Boyle.html
Collections thématiques Gallica (2003): La création des académies et des
périodiques. Les sciences au XVIIe siècle. Gallica, la Bibliothèque numerique:
Bibliothèque Nationale de France. http://gallica.bnf.fr/themes/SciXVII.htm
Davidson Michael W. (2003): Pioneers in Optics. Timeline in Optics. Florida
State University.
148
http://micro.magnet.fsu.edu/optics/timeline/people/index.html
Giovanni Borelli
Pierre de Fermat
Christiaan Huygens
Hans Lippershey
Marcello Malphigi
Ole Christensen Roemer
Willebrord Snell
De la Selva, Teresa (1993): III. En donde se ve que, en 1690, Mecánica y
Astronomía van delante de la Química. Fondo de Cultura Económica. México.
http://omega.ilce.edu.mx:3000/sites/ciencia/volumen3/ciencia3/118/htm/alquimia.
htm
Díaz Pazos Patricio (2002): Biografías. A Horcajadas en el Tiempo.
William Herschel http://www.astrocosmo.cl/biografi/bw_herschel.htm
Christian Huygens http://www.astrocosmo.cl/biografi/bc_huygens.htm
Johannes Kepler. http://www.astrocosmo.cl/biografi/bj_kepler.htm
Gottfried Wilhelm von Leibniz. http://www.astrocosmo.cl/biografi/bg_leibniz.htm
Enciclopedia Encarta (2006): 3 La Física a partir de
Newton. "Física." Microsoft® Encarta® 2006 [DVD]. Microsoft Corporation, 2005.
Escohotado Antonio (2006): 3. Kepler. Tema XII. La Cosmología
Renacentista. Génesis y evolución del análisis científico.
http://www.escohotado.com/genesisyevoluciondelanalisiscientifico/tema12.htm
Idem: 1. Proyectiles y otros graves. 2. El genio de Pisa. Tema XIII. La Ciencia
Nueva. Génesis y evolución del análisis científico.
http://www.escohotado.com/genesisyevoluciondelanalisiscientifico/tema13.htm
Ibidem: 1.El atomismo. 2. Los principios matemáticos de la Filosofía Natural.
Tema XV. La visión newtoniana del mundo. Génesis y evolución del análisis
científico.
http://www.escohotado.com/genesisyevoluciondelanalisiscientifico/tema13.htm
Hormigón M.y Ausejo E. (2002): Historia de las Ciencias y las
149
Técnicas. Cronología. IV Revolución Científica S XV – XVII. Universidad de
Zaragoza http://www.campusoei.org/salactsi/historia4.htm
MacDonell Joseph (2005): Jesuit Scientists. Mathematics Department.
Fairfield University. Connecticut. Estados Unidos.
http://www.faculty.fairfield.edu/jmac/sjscient.htm
Scheiner
http://www.faculty.fairfield.edu/jmac/sj/scientists/scheiner.htm
Riccioli
http://www.faculty.fairfield.edu/jmac/sj/scientists/scientists/riccioli.htm
Grimaldi
http://www.faculty.fairfield.edu/jmac/sj/scientists/grimaldi.htm
O'Connor J. J., Robertson E. F. (2000): Mathematicians born from 1500 to 1599.
School of Mathematics and Statistics. University of St Andrew.
Scotland. Napier, Galilei, Kepler, Oughtred, Jungius, Gassendi, Descartes,
Harriot.
http://wwwhistory.mcs.standrews.ac.uk/Indexes/1500_1599.html
Idem: Mathematicians born from 1600 to 1649. Bartholin, Boyle, Hooke,
Horrocks, Huygens, Leibniz, Newton, Pascal, Torricelli, Wallis.
http://wwwhistory.mcs.standrews.ac.uk/Indexes/1600_1649.html
Mathematicians born from 1650 to 1699.
Halley
Ibidem: History Topics. School of Mathematics and Statistics. University of St
Andrews. Scotland.
http://wwwhistory.mcs.standrews.ac.uk/history/Indexes/HistoryTopics.html
Pérez Tamayo Ruy (1998): II.4 William Harvey. II. Los científicos de la
Revolución Científica: Vesalio, Galileo, Harvey, Newton, Hooke y
Leibniz. ¿Existe el método científico? El Colegio Nacional y el Fondo de Cultura
Económica. México.
http://omega.ilce.edu.mx:3000/sites/ciencia/volumen3/ciencia3/161/html/sec_14.ht
ml
The Royal Society (2000): History of the Royal
150
Society. http://www.royalsoc.ac.uk/royalsoc/index.html
Universidad Católica de Chile (2004): IX. Medicina del Barroco. Apuntes de
Historia de la Medicina. Escuela de Medicina. Pontificia. Universidad Católica
de Chile. http://escuela.med.puc.cl/publ/HistoriaMedicina/Indice.html
http://escuela.med.puc.cl/paginas/publicaciones/HistoriaMedicina/HistMed_10.html
Vega Miche Rebeca: Siglos XVI y XVII. Historia de la Química. Facultad de
Química de la Universidad de la Habana.
http://www.fq.uh.cu/fich.php?id=12&in_id=4
Verdugo Pamela (1997): Los matemáticos y su Historia. Universidad de Santiago de
Chile. http://www.mat.usach.cl/histmat/html/desc.html
Westfall Richard S. (1995): Catalog of the Scientific Community in the 16th and
17th Centuries. Consultados: Boyle, Boerhaave, Cabeo, David and Johannes
Fabrici, Guericke, Halley, Harvey, Harriot, Hooke, Kepler, Lipperhey, Mayow,
Marius, Mercator,Newton, Santorio, Sylvius, Viviani,
Wren.http://galileo.rice.edu/lib/catalog.html
http://galileo.rice.edu/Catalog/NewFiles/wren.html
http://galileo.rice.edu/sci/viviani.html
http://galileo.rice.edu/sci/lipperhey.html
http://galileo.rice.edu/sci/santorio.html
http://galileo.rice.edu/Catalog/NewFiles/cabeo.html
http://galileo.rice.edu/Catalog/NewFiles/halley.html
http://galileo.rice.edu/Catalog/NewFiles/helmont.html
Williams S. Henry, Williams H. Edward (1904): A History of Science, vol II.
Chapter VIII. Medicine in the sixteenth and seventeenth centuries.
Chapter X. The successors of Galileo in Physical Science.
Chapter XII. Newton and the Law of Gravitation.
Chapter XIII. Instruments of precision in the age of Newton.
Chapter XIV. Progress in electricity from Gilbert and Von Guericke to Franklin.
http://www.nalanda.nitc.ac.in/resources/english/etext
project/history/science/book2.section8.html
151
Zubov V.P. (1962): Los principios fundamentales de la Física de Newton. 193 –
205. Las ideas básicas de la Física: ensayos sobre su desarrollo. Ediciones
Pueblos Unidos. Montevideo.
152
ELECTRICIDAD, CALOR Y REVOLUCIÓN QUÍMICA EN EL XVIII
Rolando Delgado Castillo y Francisco Arturo Ruiz Martínez
Universidad de Cienfuegos.
Avances técnicos de la época y los progresos en las matemáticas
153
La electrostática de Hauksbee a Galvani
Adelantos en la termometría y las nociones sobre el calor
El debate en la Óptica y descubrimientos astronómicos
Resonancias de la Física en la Biología
La Química experimenta su Revolución
Bibliografía
Al siglo XVIII se le conoce por el nombre de siglo de las luces. Semejante
bautizo encuentra razón en el movimiento que invade a Europa en el terreno de
las ideas, promoviendo la modernización y el rechazo a todo lo que representara
el Antiguo Régimen.
Las monarquías, a tenor con estos nuevos aires, conducen las reformas
financieras y educativas que caracterizan al despotismo ilustrado como sistema
de gobierno, para continuar con el status quo de dominación clasista y
perpetuación de sus privilegios económicos.
Por su parte la burguesía, aliada de los cambios que significaban el progreso
social, prosigue minando las bases del régimen monárquico. Con este propósito
levanta las banderas del liberalismo político y económico y abraza como suyo el
modelo racional empirista.
Esta atmósfera social unida a la crisis que se desarrolla hacia la segunda mitad
del siglo provoca una oleada de movimientos revolucionarios que tiene su más
alta expresión en la Revolución Francesa. El dominio colonial se estremece con
la explosión de la Rebelión Haitiana, la Guerra de Independencia de las 13
Colonias, y la sublevación de Tupac Amaru en el Perú. Se asiste al comienzo de
la llamada Era Moderna.
La segunda mitad del siglo XVIII es testigo de las innovaciones tecnológicas,
principalmente la máquina de vapor de Watt (1769) y el telar mecánico de
Cartwright (1783), que en el contexto económico favorable del Reino Unido
provoca una transformación renovadora de la industria siderúrgica y textil
conocida como Revolución Industrial.
La Revolución Industrial no sólo se caracterizó por los incrementos en la
productividad derivados de la introducción de las innovaciones tecnológicas y de
las mejoras organizativas del proceso productivo sino también por la creación de
154
grandes empresas en escenarios geográficos concentrados lo que provocó oleadas
migratorias desde el campo a la ciudad con la aparición de los barrios obreros y
la hacinación de una mayoría de la nueva población urbana.
Otro signo de la época que debuta con la Revolución Industrial viene dado por el
comienzo indiscriminado de la tala de los bosques europeos que prácticamente
desaparecerán en el próximo siglo en búsqueda del más primitivo de los
combustibles, la leña. La cultura del humo y la chimenea inaugura el proceso de
contaminación atmosférica que marcaría el paisaje urbanístico de las grandes
urbes nacientes, al tiempo que estrena la agresión despiadada del capitalismo
irracional al entorno natural del hombre, con el exponencial crecimiento de las
emisiones de los gases de la combustión.
A partir de ahora una creciente interrelación se establece entre la tecnología y
la ciencia, pero si al siglo pasado correspondió esencialmente la Revolución de
la Mecánica, al siglo XVIII toca el cambio de paradigma en el ámbito de la
Química.
El pensamiento enciclopédico signo de la época, y la etapa de naciente formación
en las Ciencias tal vez explique la inclinación abarcadora de los científicos de
la época. Los grandes matemáticos incursionan con frecuencia en el campo
filosófico, se esfuerzan por explicar los fenómenos en su totalidad, e intentan
construir los instrumentos matemáticos requeridos para la formalización de los
155
experimentos en el campo de la Mecánica. Un notable exponente de esta corriente
es la personalidad de Jean Le Ronde d’Alambert. Comienza a los 22 años su
relevante producción científica con la publicación de “Memoria sobre el cálculo
integral” y cuatro años después sale a la luz su obra más importante “Tratado de
Mecánica” donde desarrolla su conocido principio de D’Alambert. No ha cumplido
los 30 años cuando escribe las primeras aplicaciones de las ecuaciones en
derivadas parciales para abordar las causas de los vientos. Fue uno de los
principales colaboradores de Denis Diderot (1713 1784) en esa monumental obra
de 35 volúmenes conocida como la Enciclopedia francesa.
Se considera que las Matemáticas Puras, como sistema teórico, se deben al siglo
XVIII. Y en este esfuerzo racionalizador de muchos destaca la figura del más
brillante matemático del siglo XVIII, el suizo Leonhard Euler (17071783). En su
copiosa obra realizó el primer tratamiento analítico completo del Álgebra, la
Teoría de Ecuaciones, la Trigonometría y la Geometría Analítica. Además de su
empresa matemática incursiona con notables aportaciones en el campo de la
Mecánica, a la cual suma el estudio del movimiento de los sólidos rígidos, y de
los fluidos.
Le pusieron por nombre Jean Le Rond (17171783), aludiendo a
la Iglesia en que lo encontraron abandonado una fría noche
parisina de 1717. De adulto se autonombró D´Alambert. Ahora en
todas las Universidades se estudia el principio de D´Alambert
y se aplican las reglas generales para la resolución de las
ecuaciones diferenciales propuestas por él a los 26 años. D
´Alambert será para todos uno de los enciclopedistas que
iluminó el espíritu de la Revolución francesa de 1789. Ingresó
en el año 1741 en la Academia de Ciencias de París, donde
trabajó por el resto de su vida, cumpliendo en ella la función
de secretario perpetuo. Su vida concluyó, luego de una vejez
solitaria y cargada de dolores por una larga enfermedad, en su
París, seis años antes de la Toma de la Bastilla.
Otro representante de los matemáticos sobresalientes de este siglo lo
encontramos en el francés Gaspard Monge (1746 – 1818). Monge desde los 19 años
ocupa la cátedra de Física en Lyon y poco después desarrolla las bases de la
Geometría Descriptiva. Sus nuevas ideas sobre la curvatura de las superficies
geométricas resultaron los fundamentos de los trabajos de Gauss en este terreno.
En la tradición de búsqueda de nuevos instrumentos matemáticos para resolver
problemas de la Física se inscribe la actividad del francés Joseph Lagrange
156
(17361813). En su principal obra (1788) Mecánica Analítica, abordó el estudio
de la Mecánica utilizando el Cálculo de Variaciones creado por él; sistematizó
el campo de las Ecuaciones Diferenciales; y trabajó en la Teoría de Números.
Durante el periodo de la Revolución Francesa, estuvo a cargo de la comisión para
el establecimiento de un nuevo sistema de pesos y medidas.
La Dinámica de los Fluidos recibe un poderoso impulso con las aportaciones del
más notable representante de la destacada familia Bernoulli, Daniel (1700 –
1782). La ecuación de Bernoulli presentada por primera vez en su Hydrodinámica
cubre un amplio abanico de aplicaciones en esta disciplina. Es considerado
además el primero que desarrolla una teoría cinética de los gases y lo hace
sobre conceptos atomísticos y probabilísticos.
Una de las tareas más importantes seguidas en la línea del desarrollo del cuadro
mecánico del mundo, fue el desarrollo de la teoría de la gravitación de Newton a
los movimientos planetarios en el Sistema Solar. Por entonces ciertas
violaciones observadas en las órbitas de los planetas en relación con lo
predicho desconcertaba a los astrónomos. Así por ejemplo estaba bien establecido
que Júpiter y Saturno se adelantaban a veces, y otras se retrasaban con respecto
a las posiciones que debían ocupar en sus órbitas. La relación de este
comportamiento con perturbaciones gravitacionales temporales producto de las
interacciones entre los planetas y con los cometas fue explicada por el
matemático francés Pierre Simon Laplace (1749 – 1827). En 1796 adelantó una
hipótesis sobre el origen del universo a partir de una nebulosa originaria.
Laplace legó un proceso de formalización matemática que constituyó un modelo en
las investigaciones posteriores en los campos de la Termodinámica y el
Electromagnetismo.
La constante gravitacional de Newton fue determinada experimentalmente en este
siglo por el físico y químico inglés Henry Cavendish (17311810) y lo hizo
burlando la debilidad de la fuerza gravitacional con una precisión superada sólo
un siglo más tarde, a través de la determinación de la fuerza atractiva que
ejercían esferas de plomo de una gran masa sobre pequeñas masas unidas a un
péndulo de torsión. Cavendish resulta insuperable en materia del diseño
experimental para mediciones cuantitativas de propiedades físico – quimícas de
las sustancias. Será pues una referencia obligada a lo largo de este siglo.
157
El padre de Euler aspiraba a que su hijo siguiera sus pasos
y lo envió a la Universidad para prepararle como ministro,
pero la geometría trocó su destino al convertirse en su
asunto favorito, transformándose con el tiempo en el
matemático más prolífico de la historia. Entre 1726 y 1800
publica 866 libros y artículos lo que representa
aproximadamente una tercera parte del cuerpo entero de la
investigación en la Matemática, Física teórica, y la
Ingeniería Mecánica de la época. Notable resulta conocer
que antes de cumplir los treinta años había perdido
parcialmente la visión quedando totalmente ciego al final
de su vida.
El desarrollo de los conocimientos teóricos y prácticos sobre la mecánica y la
combustión tuvo su influencia en los avances experimentados en la tecnología de
los dos procesos productivos que se convirtieron en los protagonistas
principales de la Revolución: la industria textil y la industria minero
metalúrgica. Una compleja interacción se teje entre la técnica que promueve la
Revolución Industrial y la naciente ciencia que la apoya y sobre cuyos adelantos
se impulsa. La aplicación de nuevas tecnologías posibilitaba el rápido
crecimiento de la producción textil y siderúrgica.
En 1764, el inventor británico James Hargreaves (17201778) inventó una máquina
para cardar lana o algodón que preparaba la fibra para el hilado en hebras. Esta
máquina de hilar, cuya invención se le reconoció a Hargreaves en 1764 y a la que
le dio el nombre de su hija Jenny, hizo posible la producción automática de
algodón en hebra con lo que revolucionó la industria textil.
El segundo paso trascendental en la revolución de la industria textil vino con
el telar mecánico Edmund Cartwright (1743 – 1823). Incluso antes de comprobar en
la práctica el funcionamiento de su invento presentó en 1785 la patente
correspondiente y dos años después construyó en Doncaster una segunda versión
del telar mecánico. En 1789 instaló patentó su telar mecánico en 1785 antes de
comprobar como su invención funcionaba en la práctica. Una segunda versión
mejorada del mismo fue construida en 1787 en Doncaster. Dos años más tarde fue
instalada una máquina de vapor para accionar mecánicamente su telar, con lo cual
se inauguraba una época de mayor productividad y producción textil en gran
escala. Sin embargo los trabajadores, viendo en peligro sus puestos de trabajo
desplazados por la máquina, no dudaron en pegarle fuego a la instalación.
158
Por otro lado, la expansión de la extracción minera demandó el incremento de la
fabricación de las máquinas de vapor, y esto resultaba un reto para la industria
de fundición del hierro y su maquinado para la producción de los cilindros y
demás piezas requeridas.
No es extraño entonces que en esta dinámica de necesidades en cadena, se
considere la segunda mitad del siglo la época del desarrollo de
las máquinas herramientas modernas. En 1774, el inventor británico John
Wilkinson (1728 – 1808) patentó una taladradora horizontal que permitía
conseguir superficies cilíndricas interiores. Esta máquina taladradora era
esencial para la manufactura de las máquinas de vapor de Watt.
En la década de 1780 el inventor francés, uno de los primeros y mas grandes
autómatas de todos los tiempos, Jacques de Vaucanson (1709 – 1782) construyó un
torno industrial en el que un tornillo manual hacia avanzar el portaherramientas
deslizante. Hacia 1797 el ingeniero mecánico e inventor británico Henry Maudslay
(1771 – 1831) patentó el primer torno integro de metal con un husillo guía
patrón, que empleaba como medidor un micrómetro que podía medir hasta la
milésima de pulgada. La combinación de introducir máquinas herramientas más
eficientes y organizar el proceso productivo siguiendo una secuencia de
operaciones especializadas favoreció el incremento de la productividad del
trabajo fabril.
En el campo de la electricidad, el inicio del siglo trajo los trabajos del
discípulo de Boyle, Francis Hauksbee (1660 1713), uno de los primeros en
159
construir máquinas electrostáticas por fricción y estudiar los fenómenos de la
descarga eléctrica, incluso a través de aire enrarecido, observando el
resplandor producido en los primitivos barómetros. Estos estudios fueron
antecedentes de la luminiscencia eléctrica en gases enrarecidos. Por otra parte,
la principal fuente de electricidad para la mayor parte de las experiencias del
siglo XVIII fueron tales máquinas eléctricas por fricción. La máquina fue
sometida a diferentes innovaciones como la sustitución de la esfera de vidrio
que giraba rápidamente mediante un sistema móvil por un disco y el acople de un
tubo metálico que permitía la transmisión de la electricidad producida hasta el
lugar deseado.
Precisamente en esta dirección se desarrollaron las investigaciones del
astrónomo y físico inglés Stephen Gray (1666 – 1736). Durante los últimos años
de la década del 20, Gray demostró que los materiales conductores pueden ser
electrizados si están aislados, y que esta carga eléctrica adquirida puede ser
trasladada distancias considerables (200 metros) desde un extremo electrificado
conectado a un hilo conductor hasta el otro extremo convenientemente dispuesto
para captar la señal recibida. Es por ello que estos estudios han sido
considerados la antesala de los trabajos de la telegrafía que vinieron a
cristalizar en la práctica algo más de un siglo más tarde.
El profesor de Química francés Charles Francois de Cisternay Dufay (16981739)
abordó en la década del 30 el problema de determinar los tipos de carga
eléctrica. A partir de sus estudios demuestra que hay solamente dos tipos de
electricidad y le llama vítrea a aquella que se libera frotando vidrio (que se
asocia luego a la carga positiva) y resinosa a aquella que se libera frotando
ebonita (que corresponde a la carga negativa). Introduce el principio universal
de que las cargas del mismo tipo se repelen y de diferente clase se atraen.
160
mérito de haber determinado las constantes físicas que
permitieron objetivamente diferenciar unos gases de otros.
Así pudo descubrir en 1766 al gas más ligero de los
conocidos, el llamado más tarde por Lavoisier, Hidrógeno.
En 1746 el físico holandés Pieter van Musschenbroek (1692 – 1791), profesor de
la Universidad de Leiden, publica los resultados obtenidos en el intento
práctico de acumular electricidad estática en una botella y provocar su descarga
conectando su borne central a tierra. Casi simultáneamente el inventor alemán
Ewald Georg von Kleist (17001748) descubre un dispositivo similar al del
holandés que pasa a la historia con el nombre de "Botella de Leiden", y que
representa el antecesor de los condensadores modernos. El aparato que acumulaba
o condensaba electricidad llegó a convertirse en un dispositivo útil para la
experimentación.
Poco después de la difusión del dispositivo construido por Musschenbroek, el
Abad JeanAntoine Nollet (17001770) propuso en la Academia parisina el uso de
la electrificación estática como técnica de recuperación física para diferentes
casos de parálisis motora. Nollet describió en detalle el método para producir
y aplicar la electricidad “friccional”. La idea de que la electrificación podría
tener valor terapéutico recorrió toda Europa. Sin embargo, los resultados de la
electroterapia fueron muy contradictorios porque los médicos de la época lo
aplicaron indistintamente sin distinguir las causas de la parálisis.
En la próxima década entran en el repertorio de nociones físicas la inducción
eléctrica y la conservación de la carga. En torno a este desarrollo aparece la
figura de Benjamín Franklin (17061790). En 1751 publica sus resultados en
Londres con gran éxito. En el período que media entre 1746 y 1756 desarrolla
importantes investigaciones que lo llevan a importantes inferencias a partir
del principio de conservación de la carga.
Joseph Priestley, el genial físicoquímico británico, fue
amigo de Franklin y en su relación epistolar le confiesa
(20 años antes de los experimentos de Coulomb) su
deducción de que la atracción electrostática debía estar
sujeta, de acuerdo con ciertas experiencias conducidas por
Franklin, a leyes del mismo carácter matemático que las de
la gravitación. Formado para ser Ministro de una Iglesia
se convierte en un brillante investigador. Por su apoyo
161
declarado a la Revolución Francesa una turba enardecida en
1791 le quemó la casa y sus pertenencias. Obligado a
emigrar, muere diez años después en los Estados Unidos.
La nueva teoría deducida por Franklin rechazaba la teoría de du Fay sobre la
existencia de dos tipos de electricidad, y afirmaba que todos los cuerpos portan
un fluido único que en exceso o defecto de un valor “normal” producía los
efectos eléctricos. Franklin supuso que las propiedades atractivas y repulsivas
observadas en diferentes materiales bajos distintas circunstancias eran debidas
a las cantidades relativas de este fluido más que a diferentes tipos de fluidos.
Concluyó también que este fluido se encontraba en todas las cosas, de modo que
podía ser transferido de una cosa a otra. La pérdida del fluido en un cuerpo
resulta en la ganancia de la electricidad en el otro. Este llegó a ser conocido
como el principio de conservación de la carga eléctrica. También se debe a
Franklin el primer convenio relacionado con la electricidad. Los materiales que
ganan una carga según la teoría de Franklin eran positivos, mientras aquellos
desde los que la carga se cedía eran negativos. La electricidad se mueve
entonces desde el positivo (el cuerpo con mayor carga) al negativo (el cuerpo de
menor carga). La teoría del fluido único asentada en los postulados de la
mecánica newtoniana, abona el camino de progresos que en el campo del
electromagnetismo se alcanzan en el siguiente siglo. La creatividad de Franklin
162
lo lleva a combinar teoría y práctica de manera que realiza numerosas
invenciones entre las que se destaca el pararrayos, la primera aplicación
práctica que emerge del campo aún joven de la electricidad y que tiene la
inapreciable virtud de ahorrar incontables vidas. Franklin no sólo fue un
eminente hombre de Ciencia sino se considera uno de los fundadores de los
Estados Unidos de América.
El hito que inaugura la electrostática como disciplina científica viene
representado por el descubrimiento de su ley fundamental en 1 777 por el físico
francés Charles Coulomb (1736 1806). Coulomb inventa la balanza de torsión
para medir la fuerza de atracción entre cuerpos eléctricamente cargados y
obtiene así la expresión matemática que recuerda a la ley de la gravitación
universal y atrapa en lo cuantitativo el fenómeno de atracción o repulsión
electrostática. La unidad de medida de la carga eléctrica, el Coulomb, perpetúa
su memoria.
El último tramo del siglo XVIII nos trae en materia de electricidad los trabajos
de uno de los pioneros en el campo de la biofísica, el médico italiano Luigi
Galvani (17371798). En verdad cuando Galvani empezó sus trabajos estimulando
eléctricamente patas de rana, el problema de la irritabilidad animal y de si los
nervios eran conductores de un “fluido nervioso” análogo al eléctrico, ya era
ampliamente debatido en los círculos médicos de la Universidad de Bolonia.
Galvani fue 33 años profesor de la Universidad de Boloña
y sus trabajos son los primeros que apuntan a la
existencia de fuerzas bioeléctricas en el tejido animal.
Fue este cirujano, que renunciara a su cátedra
universitaria cuando la invasión napoleónica para morir un
año después, el primer biofísico de la historia.
La teoría del fluido eléctrico animal fue rechazada por el
también italiano Alessandro Volta y el debate Galvani
Volta fue uno de los episodios notables con que nacen las
ideas modernas sobre la electricidad.
La pila de Volta, la primera batería eléctrica, hizo posible la construcción
de dispositivos para mantener una corriente eléctrica por un circuito
dado, y abordar el problema de los nexos entre la electricidad y el
magnetismo. Una vez presentados sus trabajos en la Academia francesa de la
Ciencia, aceptó el título de Conde de Lombardía, territorio ocupado por las
tropas napoleónicas.
163
Galvani propuso que la rana y todos los otros seres vivos poseían una
electricidad inherente y sospechó que la electricidad era transferida a las
fibras musculares desde los extremos de los nervios, actuando cada fibra
muscular como una minúscula botella de Leyden. La principal contribución de
Galvani fue abrir el camino para el estudio de los mecanismos de la generación y
propagación de las señales eléctricas en el sistema nervioso. Al morir Galvani
en 1798, el físico italiano Alejandro Volta había comenzado a cuestionar que el
origen de las contracciones musculares de la rana observadas por su compatriota
fuera la electricidad de naturaleza animal. Volta demostraría que usando discos
de metales diferentes separados por telas humedecidas en ácido, se genera una
corriente eléctrica. Hizo así uno de los inventos más grandes del siglo.
La idea de que el calor era una forma de movimiento de la sustancia ya había
sido esbozada en el siglo anterior, primero por Galilei y sus discípulos y en la
segunda mitad de la centuria por Robert Boyle y Robert Hooke.
Las nociones elaboradas por el sabio ruso Mijail Lomonosov (1711 – 1765) sobre
el calor se inscriben en el desarrollo del atomismo que desde el siglo anterior
lo relaciona con el movimiento corpuscular. Lomonosov comparte y critica la obra
de Boyle, sosteniendo que la ley del irlandés sobre los gases debe sufrir una
desviación notable para la región de las altas presiones debido al volumen
ocupado por los átomos.
Los experimentos que pretendían medir los intercambios de calor entre los
cuerpos exigían el desarrollo de la termometría que habían iniciado los
académicos florentinos del siglo XVII. Ya en 1702 el instrumentista francés
Guillaume Amontons (1663 – 1705) había demostrado la relación entre la presión
de un gas y su temperatura, proponiendo la construcción de un termómetro de gas
a volumen constante. Estas ideas sugerían la existencia de una temperatura
mínima.
El estudio sistemático de la combustión empleando las mejores balanzas y
termómetros disponibles en esta época, llevó al médico holandés, profesor de la
Universidad de Leiden, Hermann Boerhaave (16681738), considerado uno de los
padres de la física – química, a demostrar que el agua es uno de los productos
de esta reacción, probar que el calor es imponderable, y realizar las
investigaciones calorimétricas iniciales. En esta empresa contó en las primeras
décadas de este siglo con la colaboración de un discípulo que mostraba una
especial vocación y aptitud para la fabricación de instrumentos de medición y el
soplado del vidrio: el eminente instrumentista de origen polaco Daniel G.
Fahrenheit (1686 – 1736).
164
A los 19 años el joven Mijail dejó su aldea natal y puso
proa a Moscú cargado de avidez por los saberes. Trece
años más tarde, dos antes de ser elegido académico y aún
viviendo en condiciones de extrema pobreza, solicita de
la Academia de Ciencias Rusa la creación de un
laboratorio “para desarrollar las ciencias naturales en
el Imperio Ruso y aplicarlas en la práctica”. La
respuesta no se hizo esperar: “Negar la solicitud del
auxiliar de catedrático pasante Lomonosov”. Supo
sobreponerse a todos los obstáculos y su tesón y
talento lo convirtieron en poeta brillante,
reformador de la lengua rusa, fundador de la Universidad,
y uno de los más fecundos hombres de ciencia de la
primera mitad del XVIII.
Fahrenheit continúa los trabajos por el sendero de la termometría. La práctica
había demostrado que existían estados con temperatura constantes. Fahrenheit
descubre que la temperatura de ebullición del agua es sólo constante a una
presión barométrica dada y propone en 1714 la primera escala basada en dos
puntos fijos: la temperatura de fusión del hielo al que asignó un valor de 32 y
la temperatura del cuerpo de un hombre saludable, para la cual fijó un valor de
96.
La escala centígrada nacería cuando en 1741, el profesor de astronomía de la
Universidad de Uppsala Anders Celsius (1701 – 1744) construye un termómetro de
mercurio que marca el cero para la temperatura de ebullición del agua y el 100
para la temperatura de fusión del hielo. Celsius se haría inmortal cuando la
Novena Conferencia General de Pesos y Medidas en 1948 aprobó referir los grados
de la escala centígrada como “grados Celsius”.
No menos trascendentes resultaron los experimentos de Fahrenheit y Boerhaave al
estudiar el intercambio de calor entre iguales masas de agua y mercurio puestas
en contacto a diferentes temperaturas. Resultó que la temperatura final no es en
este caso el promedio aritmético de las temperaturas iniciales.
La interpretación de este comportamiento experimental se debe al médico y físico
químico escocés Joseph Black (1728 – 1799). Los complejos vasos comunicantes que
conectaran los trabajos de Boerhaave con las ideas de Black se encuentran en la
influencia recibida por su mentor William Cullen (17101790), primer profesor de
Química en Escocia y descubridor del efecto de refrigeración producido por la
evaporación de los líquidos, de parte de otro importante eslabón en esta cadena
165
de transmisión, el introductor de la enseñanza de la química moderna en las
islas británicas, discípulo de Boerhaave en Leiden, Andrew Plummer (16981756).
Black admitió como correcta la hipótesis de que la sustancia termógena cedida
por la sustancia caliente era obtenida por la sustancia fría, pero estas
cantidades de calor iguales varían de distinta forma la temperatura de iguales
masas de agua y mercurio. El agua y el mercurio, según el razonamiento de Black
presentaban diferentes capacidades para el calor. A él se debe también la
introducción de los conceptos del calor específico y el calor latente de
vaporización de las sustancias.
La actividad del médico y físicoquímico escocés, de origen
francés, Joseph Black (1728 – 1799) se centra en dos polos
del conocimiento físico químico. Por una parte asiste al
nacimiento de la Termodinámica y sus estudios, desde 1766
hasta 1796, en la cátedra de Química de la Universidad de
Edimburgo influyen en el instrumentista James Watt (1736
1819), quien en 1769 patenta la máquina de vapor que
perfeccionaba el ingenio creado por Thomas Newcomen (1663
– 1729) en 1725. De otro lado los descubrimientos de Black
al investigar la descomposición de la piedra caliza y las
reacciones de combustión demuestran que “los aires”
tienen un comportamiento químico que puede ser
estudiado, inaugurando una época que conduce directamente a
la llamada Revolución de la Química.
Estas nociones desarrolladas por Black representan los primeros logros de la
naciente termodinámica. Le corresponde además el mérito, no destacado lo
suficiente, de haber influido sobre su ayudante, el instrumentista de la
Universidad de Edimburgo, James Watt (17361819), quien con sus innovaciones a
la primera máquina de vapor llevó a la práctica sus descubrimientos.
Cavendish, contemporáneo de Black, hizo contribuciones relevantes al desarrollo
inicial de la termodinámica. Aplica nuevas técnicas cuantitativas para descifrar
la interacción del calor con las sustancias, midiendo calores de fusión y
evaporación de sólidos y líquidos. Es también Cavendish el primero en descubrir
la existencia de composiciones en las disoluciones que ofrecen temperaturas
mínimas de congelación.
El repertorio de resultados experimentales conformado hacia la segunda mitad del
siglo cristaliza en la concepción del carácter sustancial del calor propuesto
166
por Antoine Laurent de Lavoisier (17431794), explicada en los siguientes
términos:
1. Es una sustancia sutil que no puede ser creada ni destruida, pero si
fluir de un cuerpo a otro cuando estos estén en contacto.
2. Se comporta como un fluido elástico y sus partes se repelen entre sí,
pero son atraídas por las partículas que componen los cuerpos y esta
atracción depende de la naturaleza de cada cuerpo.
3. Se puede presentar en estado “sensible” o “latente” de forma que en el
primer estado se encuentra rodeando a las partículas como si fuera una
especie de atmósfera a su alrededor y en estado latente se halla combinado
con las partículas materiales en formas semejantes a las combinaciones
químicas.
En 1798, las ideas sobre la naturaleza sustancial del calor son rechazadas por
los experimentos conducidos por el estadounidense Benjamín Thompson (1753 –
1814) que vienen a demostrar su naturaleza cinética. Thompson escribió: “todo
aquello que un cuerpo o sistema de cuerpos aislados pueda continuar
suministrando sin limitación, no puede, de manera alguna, ser una sustancia
material, y me parece extremadamente difícil, si no imposible, imaginar algo
capaz de producirse y comunicarse, como el calor en esos experimentos, a no ser
el movimiento”.
La comprobación de que el trabajo mecánico podía producir calor, debió
fertilizar el camino para la aceptación del calor como una forma de energía y
contribuir al desarrollo de la ley de conservación.
167
Sin embargo las ideas que prevalecieron en la comunidad científica de la época
se corresponden con una etapa del desarrollo de las ciencias en que se
introducen un conjunto de agentes sustanciales como el flogisto, el éter, y el
calórico. Estas posiciones, un tanto ingenuas se basaban en el principio de no
introducir la acción a distancia para explicar los fenómenos físicos al no
disponer de conceptos y núcleos teóricos acerca de los campos, de las múltiples
formas de energía, y de sus transformaciones de unas formas en otras. No sería
hasta mediados del próximo siglo XIX que nuevos resultados experimentales
permitieran la edificación de un cuerpo teórico acerca del calor, como energía
en tránsito.
El prolífico matemático suizo Leonardo Euler entró en el debate sobre la
naturaleza de la luz y consideró, en contra de la autoridad de Newton, que la
luz no estaba constituida por partículas. La teoría de la luz de Euler se basaba
en la existencia del eter que servía como medio de propagación de vibraciones
luminosas. La mayor parte de sus ideas sobre la luz se recogen en el tratado
Dioptrica, cuyo primer volumen se publicó en 1769. En Dioptrica se exponen las
propiedades de los lentes, se establece el fundamento para el cálculo de los
sistemas ópticos, y se proporcionan las descripciones de microscopios y
telescopios.
Los astrónomos creyeron ver que el movimiento de los cometas seguía leyes
diferentes al de los planetas hasta que Edmund Halley (16561742) se encargó de
demostrar que estos cuerpos celestes estaban sometidos a las mismas atracciones
gravitacionales. En su análisis de las observaciones de los cometas, Halley
apreció que tres visitantes en 1531, 1607 y 1682 mantuvieron una trayectoria tan
similar que debían tratarse del mismo cometa cuya órbita, según sus
estimaciones, era una elipse elongada. De acuerdo con la periodicidad de su
movimiento en 1705 propuso en Synopsis of the Astronomy of the Comets, que el
objeto retornaría 76 años después de su última aparición es decir en 1758. La
vida no le alcanzó para comprobar su predicción pero su nombre fue asociado para
siempre con el cometa. Además de este estudio de los cometas, en 1718 Halley
publicó el descubrimiento del movimiento de las estrellas que antes se creía que
permanecían fijas en el firmamento.
168
La óptica del siglo XVIII se inicia a partir del tratado
de Newton, Opticks or, a Treatise of the Reflexions,
Refractions, Inflexions and Colours of Light", cuya
primera edición data de 1704. En la obra se abordan los
más variados fenómenos ópticos desde la reflexión de la
luz, la refracción, la formación de imágenes por las
lentes, la descomposición espectral, la recomposición de
los colores, la invención del telescopio refractor,
hasta la teoría del arco iris. Lo más destacado de la
óptica newtoniana es la teoría corpuscular de la luz.
Para Newton, la luz está constituida por pequeñas
partículas desprendidas de los cuerpos luminosos o
iluminados que al interaccionar con el ojo producen el
efecto de la visión. Según este modelo, los fenómenos
ópticos son fenómenos puramente mecánicos, perfectamente
explicables a partir de los Principios de la Dinámica
newtoniana.
En 1728 el astrónomo inglés James Bradley (1693 1762) informó a la Real
Sociedad de Londres que en la búsqueda infructuosa de la determinación del
desplazamiento paraláctico de la estrella Eltanin, la más brillante de la
constelación Dragón, había descubierto el fenómeno de la aberración de la luz.
Bradley al encontrar un desplazamiento de la estrella en la dirección opuesta a
la esperada, dedujo correctamente que la variación observada en la posición
estelar era debido al movimiento que anima a un observador desde la Tierra
respecto a la velocidad finita de la luz. Mediante el análisis de las mediciones
del ángulo de la aberración estelar y teniendo el dato de la velocidad orbital
de la Tierra, Bradley arribó a una estimación notablemente precisa de la
velocidad de la luz en 295 000 km/s. Veinte años después de este descubrimiento
y luego de observar durante un ciclo completo de 18,6 años el movimiento de los
nodos de la Luna, Bradley anunció un nuevo descubrimiento astronómico: el
movimiento oscilatorio del eje de rotación de la Tierra, la llamada nutación del
planeta. Cuando Halley murió en 1742, Bradley fue nombrado su sucesor como
Astrónomo real del Observatorio de Greenwich.
Había cumplido los 35 años cuando el músico de origen alemán, nacionalizado
británico, William Herschel (1738 1822) despertó un gran interés por la
Astronomía que le condujo a manuales sobre los telescopios y a la fabricación de
sus propios instrumentos. Ocho años de perseverante búsqueda astronómica y de
perfeccionamiento de sus telescopios de reflexión le premió con un
169
descubrimiento trascendente. Desde la Antigüedad se conocían seis planetas
observables a simple vista, pero en 1781, Herschel apreció en la constelación de
Géminis un nuevo objeto celeste que inicialmente confundió con un cometa al cual
llamó "Estrella de Jorge", en honor del rey Jorge II pero poco después el
astrónomo alemán Heinrich Olbers(17581840), quien en 1779 había elaborado un
método para calcular las órbitas de los cometas, todavía hoy utilizado, descartó
que se tratara de este tipo de objeto celeste y precisó que se trataba de un
nuevo planeta. A partir de fines del XIX, el séptimo planeta del sistema solar
fue rebautizado como Urano. Seis años después de su hallazgo, Herschel observó
dos de los satélites de Urano, los de mayor tamaño, a los cuales nombró como
Oberon y Titania, dioses de las hadas de la comedia de Shakespeare, "Sueño de
una noche de verano" (1595).
La obra de Herschel en el siglo XIX estuvo fuertemente influida por los trabajos
del geólogo y físico británico John Mitchell (1724 1793). En 1767 publicó una
investigación sobre las estrellas dobles y los cúmulos de las Pléyades en la que
concluye que muchas de las estrellas visibles en el cielo deben formar pares
170
físicos o cúmulos de acuerdo con alguna ley general del universo. Pero la idea
cósmica más interesante que desarrolló Mitchel, aparece en una carta de 1784
dirigida a Cavendish, su amigo de toda la vida, en la cual predice la existencia
de “estrellas oscuras”, estrellas tan masivas y compactas que tendrían un campo
gravitatorio tan fuerte que ni la luz podría escapar. Sus ideas fueron
publicadas en dos sucesivas ediciones del "Sistema del Mundo" de Laplace pero
fueron excluidas en la tercera edición. Tal vez la noción de “los agujeros
negros” no cabía aún en el pensamiento de la época sobre el universo. Estamos a
132 años de 1916, cuando poco antes de su muerte el matemático alemán Karl
Schwarzschild (18731916) describiera las características de tales sistemas.
En el ámbito de las ciencias de la vida destacaremos sólo los logros relevantes
que demandaron una pronta penetración del conocimiento físico – químico,
estrechando los nexos entre estas disciplinas y la Biología.
El bando papal de Sixto IV, que autorizara la disección de los cadáveres en el
siglo XV y su posterior ratificación por Clemente VII un siglo más tarde se
reconocen entre las causas que provocaron la Revolución en la Anatomía, iniciada
por Vesalio y continuada en el XVII por los profesores de las Universidades de
la Italia Septentrional entre los cuales Malpighi cierra el siglo XVII con el
desarrollo de la Anatomía microscópica. A lo largo de las primeras décadas del
XVIII, Giambattista Morgagni (16821771) heredero de la cátedra de Anatomía de
la Universidad de Padua, desarrolla la Anatomía patológica, con ayuda de la cual
descubre la íntima relación existente entre alteraciones funcionales y físicas
de los órganos.
El siglo XVIII fue testigo de los descubrimientos que constituyen la base de la
moderna fisiología vegetal, la rama de la botánica que estudia las funciones
básicas de las plantas. Una de las primeras tentativas de abrirse paso en el
terreno de la fisiología con las armas que brindaba el conocimiento físico –
químico fue realizada por el inglés Stephen Hales (16771761), clasificado como
físicoquímico, botánico y fisiólogo. Hales demostró en 1726 que la circulación
sanguínea ejerce una determinada presión, logrando medir la presión de la sangre
en un caballo. Un año después publica “Estática Vegetal” considerada la primera
obra de fisiología vegetal. En esta obra Hales describe la respiración y
transpiración de las plantas, así como la evaporación desde las hojas y el
movimiento de los líquidos a través de las raíces y de las plantas.
171
Spallanzani, desde la cátedra de física de las
Universidades de Módena y Pavía, desarrolla las
investigaciones que lo hacen merecedor de considerarlo
uno de los pioneros de la biología experimental. Aborda
problemas tan disímiles como el rechazo experimental a la
teoría de la generación espontánea de la vida a partir de
la materia no viviente, el trasplante de órganos en
animales inferiores, la acción de los jugos digestivos
sobre los alimentos, la circulación pulmonar y el
intercambio gaseoso al nivel de tejidos demostrando que
el aire desflogisticado (oxígeno) se transforma en aire
fijo (dióxido de carbono).
En conexión con los trabajos de Hales, Joseph Priestley demostró que las plantas
en crecimiento "restauran" la naturaleza vivificante del aire saturado de
flogisto por la llama de las velas o la respiración de los animales. Esta
observación fue ampliada poco después por el fisiólogo holandés Jan Ingenhousz
(17301799) al descubrir que hace falta luz solar para que las plantas cumplan
esta función. Asistimos así al primer acto en la comprensión del fenómeno de la
fotosíntesis. Demoró aún más el desarrollo de una conciencia sobre la necesidad
de preservar “los pulmones” del planeta.
Lazzaro Spallanzani (1729 – 1799), continuador de la tradición investigativa en
el campo de la Biología experimental iniciada en las Universidades florentinas
del siglo XVII, anuncia en el propio título de su más importante trabajo
"Dissertazioni di fisica animale e vegetale" (Modena, 1780) que esta vez desde
la cátedra de Física, surge el científico que rechaza con experimentos la teoría
de la generación espontánea, aborda la caracterización de los jugos digestivos,
inicia el camino de la inseminación artificial, y en sus últimos estudios,
cuando apenas se estaban esclareciendo por los químicos de la época la
composición del aire, pretende aclarar el intercambio gaseoso que caracterizaba
la respiración pulmonar, y el mecanismo de la respiración al nivel de los
tejidos.
La revelación de una gran diversidad de faunas y de flores representa un
acontecimiento decisivo para las ciencias de la vida del siglo XVIII. Las
colecciones descubiertas por las misiones de exploración permitieron crear los
gabinetes y museos de Historia Natural. En este momento se erigieron como los
principales objetivos de los naturalistas la identificación y clasificación de
los organismos y la comprensión de la diversidad de los constituyentes de la
vida.
172
Las ciencias de la vida en el siglo XVIII encontraron como un imperativo de los
descubrimientos de una gran diversidad de faunas y de flores la identificación y
clasificación de los seres vivos. En esta tarea histórica brilló el sueco Carl
von Linneo (1707 – 1778) que inauguró en 1735 el sistema binomial de
clasificación en género y especie. Una parte genérica y una parte específica
debieran condensar “lo general y particular” característico para un animal o
planta. La concepción de Linneo de que cada especie es un atributo invariante de
la Creación va siendo minada por los naturalistas que estudian la historia de
las especies, su capacidad de adaptación y variabilidad.
La humanidad está en deuda con el médico británico Edward
Jenner (17491823) que en la última década de este siglo
descubriera la vacunación. En 1796 Jenner inoculó a un
niño humores de la viruela vacuna y seis semanas después
le aplicó una segunda inoculación, esta vez de la viruela
mortal, con resultados positivos. Había descubierto la
vacuna contra esta enfermedad y al mismo tiempo pondría
el primer peldaño en el desarrollo de la inmunología.
Debió enfrentarse a toda suerte de críticas, desde
aquellos que rechazaban el procedimiento adoptando una
posición pseudoreligiosa hasta ciertos círculos médicos
que exageraban los riesgos implícitos en una nueva
técnica. Lo acompañaban su ira y su fe en el triunfo del
hombre sobre las enfermedades que como la tuberculosis le
arrebataron primero a su hijo menor y luego a su esposa.
Casi 200 años después la Asamblea Mundial de la Salud
declaraba en 1980 al planeta libre del flagelo de la
viruela.
En el progreso de la “historicidad” de la naturaleza constituye un hito la obra
del naturalista francés Georges Louis Leclerc, conde de Buffon (17071788). En
un período de cuarenta años que cubren casi completamente la segunda mitad del
XVIII Leclerc publica un tratado en 36 volúmenes de Historia Natural. En esta
obra introduce nociones que bombardean “principios inconmovibles” como la edad
de la tierra fechada por la iglesia en seis mil años, o la creación divina e
inmutable de las especies. Buffon sugiere la ascendencia común de los mamíferos
y trata la cuestión delicada de las semejanzas entre los hombres y los grandes
simios.
El desarrollo de la minería y la mineralogía condicionó el surgimiento de
diferentes Escuelas de químicos que a lo largo de este siglo realizara numerosos
173
aportes en el análisis de minerales, en la comprensión y gobierno de los
procesos de su reducción, enterrando definitivamente el ideal alquimista de
transformar metales nobles en oro.
Toda la práctica de la especie humana anterior al siglo XVIII había producido el
hallazgo de 13 elementos químicos, entre ellos nueve metales típicos. La
expansión de los conocimientos químicos significó en esta centuria sumar trece
elementos al repertorio de los metales. En poco más de cincuenta años se
superaría el número de metales descubiertos por más de seis siglos de
infructuosa búsqueda alquimista. Con el paso del tiempo, estos metales se
emplearían en la fabricación de materiales estratégicos para el avance
tecnológico.
El más notable representante de la generación de químicos suecos del siglo XVIII
y campeón absoluto en la lid de los descubrimientos de elementos de esta
centuria fue Carl W. Scheele (17421786). En 1770 estableció contacto con el
líder de los químicos suecos de la época T.O. Bergman (1735 1784) y recibió su
ayuda pero nunca cursó estudios formales de Química. No obstante Scheele se
convirtió en uno de los más grandes químicos experimentales de todos los tiempos
tomando parte en el hallazgo de nuevas sustancias entre las que se encuentran
los compuestos del cloro, flúor, manganeso, bario, molibdeno, wolframio y
oxígeno.
Considerado entre los padres de la Química Analítica, Martín Heinrich Klaproth
(17431817) promueve la tradición alemana en este campo desde la cátedra de
Química de la recién fundada Universidad de Berlín (1810). A Klaproth se deben
los descubrimientos del zirconio y del uranio. El uranio fue descubierto en
1789, en la pechblenda. Más de un siglo transcurrió para que en 1896, el físico
francés Antoine Henri Becquerel descubriera la radiactividad.
En 1772, el químico sueco Carl Scheele logro aislar el aire
desflogisticado de Prietsley, al cual bautizó con más
propiedad aire incendiario, para destacar que en su seno
ardía vivamente una vela y una astilla incandescente
rápidamente se inflamaba. Sin embargo no publicó sus
investigaciones hasta 1777, en el libro de sugerente título
“Tratado Químico sobre el aire y el fuego”. En este libro
describe los procedimientos para determinar la composición
del aire, que según demuestra está constituido por “fluidos
ligeros de dos géneros”. Por primera vez está apuntando la
existencia de los dos principales componentes del aire: el
nitrógeno y el oxígeno. Se venia derrumbando la noción del
aire como algo elemental e inerte.
174
Nadie podía imaginar entonces que estos nuevos elementos hermanados en fechas de
descubrimiento, luego aparecieran hermanados en los reactores nucleares del
siglo XX: las aleaciones de zirconio resultan especialmente útiles para la
fabricación de los materiales de revestimiento de los elementos de uranio
combustible.
La importancia práctica de los procesos de combustión determinó que una de las
primeras prioridades en el estudio de las transformaciones estuviera enfilada a
explicar lo que acontecía durante la quema de los combustibles. No es posible
olvidar que en la Europa de la segunda mitad del siglo XVII la industria
metalúrgica experimenta cierta expansión, y este desarrollo implicaba un costo
energético que se sustentó en la tala de los bosques europeos. Resulta
sorprendente sin embargo que fueran tempranamente emparentados las reacciones de
combustión y el enmohecimiento que sufrían los metales.
Esta conexión fue revelada por el médicoquímico alemán Georg E. Stahl (1660 –
1734) para quien el flogisto podía considerarse como un principio elemental que
se liberaba rápidamente por los combustibles al arder y durante la calcinación
de los metales, o lentamente durante su enmohecimiento. Siguiendo el pensamiento
del flogista, el metal representaba la sustancia compuesta mientras la escoria
oxidada, resultante de la pérdida del flogisto, significaba la sustancia más
elemental.
Esta teoría, aunque presentaba el cuadro químico del mundo al revés representó
una explicación racional de la combustión, estimulando el desarrollo de
experimentos sobre la combustión, la oxidación, la respiración, y la
fotosíntesis.
En 1766, Cavendish presentó en la Royal Society su informe sobre “Factitious
Air” en el que con particular atención describe las propiedades sobresalientes
del gas liberado durante la reacción del ácido clorhídrico con algunos metales.
Lanzó entonces la hipótesis de haber aislado el propio flogisto. Al hacerlo se
basó en dos de sus propiedades: era el gas más ligero de los conocidos y
presentaba una alta inflamabilidad. En otros experimentos, haciendo saltar
chispas eléctricas por las mezclas de los nuevos aires descubre que la reacción
de su aire inflamable con el aire desflogisticado produce agua, enterrando para
siempre la visión milenaria del agua como sustancia elemental y primigenia. De
forma similar, la mezcla húmeda de aire flogisticado y desflogisticado
reaccionaba, impulsada por la fuerza del rayo local, para dar el acqua fortis de
los grabadores (el ácido nítrico).
175
España contó con la gloria de que dos hermanos, Juan José
(17541796) y Fausto Elhúyar (17551833), inscribieran sus
nombres entre los descubridores de elementos químicos del
siglo XVIII. Juan José en 1781 se entrenó durante seis
meses en Suecia en los laboratorios de Bergman. Corría el
año 1783 cuando los hermanos, en la Escuela de Explotación
Minera de Vergara, lograron el descubrimiento del
wolframio.
Los intereses de la Corona los llevan a la administración
de minas en el Nuevo Mundo y allí Juan José encuentra
su muerte en la Nueva Granada, Granada (Colombia) mientras
su hermano Fausto alcanza celebridad en la Nueva España
(México) donde investiga sobre los métodos de amalgamación
de la plata en frío y funda una Escuela de Minas que goza
de prestigio por lo avanzado de su currículo.
Los resultados cuantitativos que iban acumulándose se encargaban de revelar la
inconsistencia de la teoría del flogisto y sin embargo la mayoría de los
investigadores de la segunda mitad del siglo continuaba esforzándose por encajar
sus resultados en los marcos de sus presupuestos. En suma, de manera
contradictoria empujó al desarrollo de la experimentación y empañó la
interpretación de los resultados.
Las dos décadas que sucedieron al descubrimiento del “aire inflamable” de
Cavendish resultaron decisivas para comprender la composición del aire y su
papel en los procesos de respiración y combustión. En 1772,el joven químico
escocés Daniel Rutherford (1749 – 1819), discípulo de Black creyó obtener un
aire totalmente flogisticado (saturado de flogisto). Confinó un ratón en un
recipiente cerrado hasta provocar su muerte. En el aire residual hizo arder
pálidamente una vela hasta apagarse y a continuación provocó una fugaz ignición
del fósforo. El aire que entonces quedó lo hizo pasar a través de una solución
alcalina de modo que fuera absorbido “el gas fijo” de su mentor. Tenía en sus
manos una muestra de aire inerte al que llamó gas “noxious” en el que no podía
vivir un ratón, ni podía realizarse la combustión. Podría imaginar que estaba
frente a un gas agotado del componente vital y al mismo tiempo responsable de la
combustión pero su hipótesis fue bien otra. En los marcos de la teoría del
flogisto tanto la criatura viviente al respirar como el material al arder
liberan flogisto y llegan a saturar el aire de esta sustancia. Por tanto el aire
que logró inequívocamente aislar no era otro que un “aire flogisticado”,
saturado de flogisto.
176
Antes, Cavendish en carta a Priestley da cuenta de un aire resultante de la
circulación repetida por una muestra de carbono incandescente y posterior
eliminación del aire fijo con potasa cáustica al cual llamó aire mefítico. Hacia
1776 Lavoisier demuestra su carácter de sustancia elemental y en 1789 sugiere el
nombre de azote para significar que es un gas opuesto a la vida. Sin embargo el
nombre que se aceptó más tarde y llega hasta nuestros días fue propuesto en 1790
por el químico francés Jean Antoine Chaptal (17561832) en sus “Éléments de
chimie”, para indicar que engendra la sal de nitro (nitrógeno).
Mientras los químicos intentaban racionalizar el problema de
la combustión, el inventor inglés William Murdock (1754
1839) perteneciente al grupo de ingenieros mecánicos que
participaron en las mejoras de la máquina de vapor, se
encontraba investigando el aprovechamiento del gas de coque
como posible fuente de iluminación. Con tal propósito,
Murdock instaló una retorta de hierro en el traspatio de su
casa desde donde condujo hasta la sala una tubería que
transportaba el gas para alumbrar la habitación. Corría el
1792, y sólo 10 años más tarde, resueltos los problemas de
seguridad y de fabricación de los equipos necesarios, la
compañia de Bolton y Watt comenzó la empresa comercial de la
iluminación artificial con gas de coque.
Ya a fines de la segunda década del XIX, una ciudad como
Londres disponía de una red de tuberías de 288 millas que
alimentaban a más de 71 mil quemadores.
Poco después de los experimentos de Rutherford, Prietsley demostró que luego de
largas horas de permanencia de una planta en el seno de aire flogisticado, este
resultaba vivificante, pues en él un ratón se mostraba especialmente activo y
juguetón. Al mismo tiempo observó que en este aire inicialmente "saturado de
flogisto", y luego modificado por la acción de las plantas, los materiales
ardían con más facilidad. Desde otro ángulo, estos resultados representaron los
primeros indicios de que plantas y animales formaban un equilibrio químico que
hacía respirable la atmósfera de la tierra. La enorme significación de este
equilibrio ha sido lentamente comprendida por la humanidad. Pero en el siglo
XVIII de nuevo la teoría del flogisto impuso una línea de pensamiento que hacía
ver la obtención de un aire desflogisticado, la antítesis del aire aislado por
Rutherford.
En el verano de 1774, Priestley comprueba que el sólido formado durante la
reacción del aire con el mercurio, al calentarse regeneraba el mercurio y se
177
liberaba un gas que podía colectarse por desplazamiento del agua y que mostraba
las cualidades correspondientes a su aire vivificante ("un aire
desflogisticado"). Es este experimento el causante de la polémica histórica
alrededor del descubrimiento del oxígeno.
La interpretación que da Lavoisier a la calcinación de los metales o a la
reacción de combustión, a partir de los resultados cuantitativos es bien
distinta a la de sus colegas británicos. Los metales no liberan flogisto al
calcinarse sino que se combinan con un elemento componente del aire que se
corresponde con el aire “puro” y de ahí su incremento en peso. A partir de
entonces nombra este nuevo elemento gaseoso como oxígeno. Al componente gaseoso
residual de la combustión correspondiente a las cuatro quintas partes en volumen
del aire, caracterizado por su relativa inercia química (el aire flogisticado de
Black) lo denomina azote. Y por último, al enigmático gas inflamable de
Cavendish, capaz de arder produciendo vapores que condensan en forma de gotas de
agua, lo llama hidrógeno. Quedaba resuelto así, en términos del reconocimiento
de sustancias elementales determinadas, lo que Sthal pretendió asociar con
sustancias combinadas con flogisto.
Los trabajos de la Escuela Francesa de la segunda mitad del siglo encabezada
por Lavoisier actúan como rampa de lanzamiento del estudio de la Química sobre
bases cuantitativas. A partir de ahora queda abonado el camino para la
explicación de las reacciones químicas sobre una plataforma atomística.
Al terminar la década de los 70, se había cerrado el capítulo inicial del
aislamiento y estudio de las propiedades de los gases comenzado con Boyle el
siglo pasado y continuado por los investigadores que llevaron a cabo la
Revolución de la Química en el siglo XVIII. Estos progresos tuvieron su reflejo
en los primeros pasos en la conquista del ascenso por los aires y el vuelo
dirigido por el hombre.
178
para separar su cabeza del cuerpo, pasarán siglos para que una
cabeza como aquélla vuelva a ser llevada sobre los hombros de
un hombre de ciencias”.
En esta empresa se enrolaron dos físicos experimentales. En 1783, el mismo año
en que los hermanos Joseph (1740 – 1810) y Étienne de Montgolfier (1745 1799)
por primera vez “lanzaron” un globo lleno con aire caliente por el cielo
parisino, el físicoquímico francés Jacques Alexandre César Charles (1746 –
1823) llenó un globo con el hidrógeno de Cavendish y lo liberó para provocar su
ascenso y vuelo durante dos horas, recorriendo 43 km. Otro físico francés, Jean
François Pilâtre de Rozier (17561785), inauguró la época de los viajes en globo
tripulados cuando ascendió primero en un globo cautivo y luego en otro libre.
El siglo XIX traería un nuevo paradigma para el universo físico, el
Electromagnetismo; otra vez los más célebres matemáticos aportarían el
instrumental para operar con las magnitudes físicas y no pocas veces
contribuirían de forma decisiva en la construcción de los significados;
la Biología construiría la teoría celular, las leyes de la herencia y las tesis
sobre la evolución de las especies, la Química iniciaría un vertiginoso
ascenso, en particular hacia la segunda mitad del siglo, con el desarrollo de la
síntesis de nuevos materiales que superarían en cierto sentido, a los productos
naturales. De todo esto trataremos en el próximo tema.
179
histoirechimie.free.fr/
En 1783, luego de los progresos alcanzados en el estudio
de los gases, aparecen las primeras aplicaciones
prácticas que pretenden aprovechar las propiedades de
estas sustancias en una conquista acariciada por la
humanidad: el vuelo por los aires. Dos físicos franceses
tienen un rol protagónico en esta empresa: Jacques
Alexandre César Charles y JeanFrançois Pilâtre de
Rozier. El primero archiva el mérito adicional de
descubrir en 1787 la relación entre el volumen de un gas
y su temperatura conocida como ley de Charles y Gay
Lussac. Pilâtre de Rozier representa un héroe de la
técnica pues dos años después de su primer vuelo exitoso
que atravesara el Sena, intentó el cruce del canal de la
Mancha pero esta vez el accidente producido por el
estallido del globo de hidrógeno le costó la vida.
La proeza fue lograda en 1785 por el aeronauta francés
Jean P. Blanchard y el científico estadounidense John
Jeffries (1744 – 1819). Jeffries fue pionero en la
investigación de la atmósfera a diferentes altitudes con
el empleo de los globos. A más de dos siglos de estos
intentos los globos con radiosonda constituyen una
herramienta de rutina en la predicción meteorológica.
BIBLIOGRAFIA:
Aber, James S. (2007): Mikhail Vasil'evich Lomonosov. History of Geology.
Earth Science Department. Emporia State University .
http://academic.emporia.edu/aberjame/histgeol/lomonos/lomonos.htm
Archiving Early America (2001): The autobiography of Benjamin Franklin.
http://earlyamerica.com/lives/franklin/index.html
Beeson Malcolm, Dawson Vicky (2003): Edward Jenner and smallpox. Edward Jenner
Museum. England. http://www.jennermuseum.com/
180
Bertemeu J. (2000): Capítulo III La composición del aire. Textos clásicos de
Historia de la Química.Departament d’História de la Ciència i Documentació.
Universitat de Valencia.
www.uv.es/~bertomeu/material/clasico/lavoisier.htm
Bowden Mary Ellen (2005): Chemical Achievers: The human face of the Chemical
Science. Chemical Heritage Foundation.
Forerunners
James Priestley
http://www.chemheritage.org/classroom/chemach/forerunners/priestley.html
AntoineLaurent Lavoisier
http://www.chemheritage.org/classroom/chemach/forerunners/lavoisier.html
Chemistry of Life
Jan Ingenhousz
http://www.chemheritage.org/explore/lifeingenhousz.html
Braun Eliezer (1992): Electromagnetismo de la Ciencia a la Tecnología. Fondo de
Cultura Económica. México.
La Electricidad hasta 1800.
http://omega.ilce.edu.mx:3000/sites/ciencia/volumen3/ciencia3/112/htm/sec_4.htm
El Magnetismo hasta 1800.
http://omega.ilce.edu.mx:3000/sites/ciencia/volumen3/ciencia3/112/htm/sec_5.htm
http://euler.ciens.ucv.ve/matematicos/
Giunta Carmen (2003): Selected Classic Papers. Le Moyne College. Department of
Chemistry.
Experiments on Air. Henry Cavendish. Philosophical Transactions 75, 372 (1785).
http://web.lemoyne.edu/~giunta/cavendish.html
Experiments upon Vegetables, Discovering Their great Power of purifying the
Common Air in the Sunshine, and of Injuring it in the Shade and at Night. To
181
Which is Joined, A new Method of examining the accurate Degree of Salubrity of
the Atmosphere. Jan Ingenhousz (17301799). London 1779.
http://web.lemoyne.edu/~giunta/Ingenhousz.html
De la Selva, Teresa (1993): IV. Y en donde se ve que un siglo después de los
Principia se enuncia una ley fundamental y nace la Química. De la Alquimia a la
Química. Fondo de Cultura Económica. México.
http://omega.ilce.edu.mx:3000/sites/ciencia/volumen3/ciencia3/118/htm/alquimia.h
tm
Davidson Michael W. (2003): Pioneers in Optics. Timeline in Optics. Florida
State University.
http://micro.magnet.fsu.edu/optics/timeline/people/index.html
Edmund Halley
James Bradley
Díaz Pazos Patricio (2002): Biografías. A Horcajadas en el Tiempo.
PierreSimon Laplace. http://www.astrocosmo.cl/biografi/bp_laplace.htm
William Herschel. http://www.astrocosmo.cl/biografi/bw_herschel.htm
http://www.euchems.org/Distinguished/18thCentury/index.asp
Bergman, Torbern Olof (17351784)
Berthollet, Claude Louis (17481822)
Black, Joseph (17281799)
Cavendish, Henry (17311810)
Klaproth, Martin Heinrich (17431817)
Scheele, Carl Wilhelm (17421786)
Figurovski N.A.(1989): Historia de la Química. Editorial Pueblo y Educación. La
Habana.
182
5. La Crisis de la Teoría del Flogisto. 26 – 39. 6. La Revolución Química. 39
–46.
Fresquet José L. (2005): Historia de la Medicina. Universidad de Valencia.
http://www.historiadelamedicina.org/
Galeotti Paolo (1999): Lazzaro Spallanzani (1729 – 1799). Uomo i Scienziato.
UNIVERSITA' DEGLI STUDI DI PAVIA. Centro Interdipartimentale di Servizi. "Musei
Universitari"
http://www.unipv.it/webbio/spalla99/spallanz.htm
HernándezFalcón J., Ramón F. (2006): La electricidad estática. La Electricidad
en Biología. Facultad de Medicina. Universidad Autónoma de México.
http://www.facmed.unam.mx/historia/Electricidad.html
Kuznietzov B.G. (1962): Líneas esenciales en el desarrollo de las ideas físicas
del siglo XVIII.
205 227. Las ideas básicas de la Física: ensayos sobre su desarrollo.
Ediciones Pueblos Unidos. Montevideo.
http://wwwgroups.dcs.stand.ac.uk/~history/Indexes/1700_1749.html
Daniel Bernoulli
Charles Augustin de Coulomb.
Leonhard Euler
Benjamin Franklin
JosephLouis Lagrange
Georges Louis Leclerc
Gaspar Monge
Overview of the History of mathematics. History Topics.
http://wwwhistory.mcs.standrews.ac.uk/history/HistTopics/History_overview.html
183
Peacock Doug (2007): Understanding the Industrial Revolution. The full story of
the world’s greatest social upheaval. Cotton Times.
The Great Inventors. http://www.cottontimes.co.uk/invento.htm
Richard Arkwright
Edmund Cartwright
James Hargreaves and the Spinning Jenny.
Thomas Newcomen
James Watt
The Steam engine
Engineers. http://www.cottontimes.co.uk/engineero.htm
Darby Dynasty
William Murdoch
Petrusson Louise (2004): Carl Linnaeus. Botanical History. Department of
Phanerogamic Botany. Swedish Museum of Natural History
http://www2.nrm.se/fbo/hist/linnaeus/linnaeus.html.en
Pérez Tamayo Ruy (1997): VI La Medicina en la Edad Barroca (Siglos XVII –
XIX). De la magia primitiva a la medicina moderna. Fondo de Cultura Económica.
México.
http://omega.ilce.edu.mx:3000/sites/ciencia/volumen3/ciencia3/154/html/sec_14.ht
ml
Perich Campana, Danny (2002): Jean D’Alambert. Historia de la Matemática. Sector
matemática; Municipalidad de Punta Arenas. Chile.
http://www.sectormatematica.cl/biografias/dalembert.htm
Poirier Jean Pierre (1996) : AntoineLaurent de Lavoisier (1743
1794). LAVOISIER, THE CHEMIST.Chemistry in the mideighteen century.
http://historyofscience.free.fr/LavoisierFriends/a_chap2_lavoisier.html
Rosell Ned (1996): Daniel Fahrenheit and Anders Celsius left their marks. Alaska
Science Forum. December 24, 1996.
http://www.gi.alaska.edu/ScienceForum/ASF13/1317.html
184
Sedgley Site (2007): Abraham Darby: "Ironbridge and the Sedgley connection".
http://www.sedgleymanor.com/people/abraham_darby.html
ScotGaz (2007): William Murdock, 1754 1839. The Gazetteer for Scotland.
University of Edinburgh. http://www.spartacus.schoolnet.co.uk/SCmurdock.htm
The Eli Whitney Museum (2006): Eli Whitney: The Inventor. From: American Science
and Invention: A Pictorial History. Mitchell Wilson, Simon and Schuster, New
York, 1954; pp. 7883
http://www.eliwhitney.org/test/inventor.htm
The Open Door Web Site (2006): John Wikilson (1728 – 1808). Iron and Steel
Manufacture. The Industrial Revolution.
http://www.saburchill.com/history/chapters/IR/036.html
Universidad Católica de Chile (2004): XI. Figuras de la Medicina de la
Ilustración. Apuntes de Historia de la Medicina. Escuela de Medicina.
Pontificia. Universidad Católica de Chile
http://escuela.med.puc.cl/publ/HistoriaMedicina/Indice.html
http://escuela.med.puc.cl/publ/HistoriaMedicina/IlustracionMorgagni.html
Westfall Richard S. (1995): Catalog of the Scientific Community in the 16th and
17th Centuries.
Guillaume Amontons
http://galileo.rice.edu/Catalog/NewFiles/amontons.html
Hermann Boerhaave
http://galileo.rice.edu/Catalog/NewFiles/boerhaav.html
Stephen Gray
http://galileo.rice.edu/Catalog/NewFiles/gray.html
Stephen Hales
http://galileo.rice.edu/Catalog/NewFiles/hales.html
Edmund Halley
http://galileo.rice.edu/Catalog/NewFiles/halley.html
Francis Hauksbee
http://galileo.rice.edu/Catalog/NewFiles/hauksbee.html
185
Thomas Newcomen
http://galileo.rice.edu/Catalog/NewFiles/newcomen.html
Georg Stahl
http://galileo.rice.edu/Catalog/NewFiles/stahl.html
Williams S. Henry, Williams H. Edward (1904): A History of Science, vol II.
Chapter XI. Newton and the composition of light.
http://www.worldwideschool.org/library/books/sci/history/AHistoryofScienceVolum
eII/chap36.html
Chapter XIV. Progress in electricity from Gilbert and Von Guericke to
Franklin.
http://www.worldwideschool.org/library/books/sci/history/AHistoryofScienceVolume
II/chap45.html
Part II. The Experiments of Stephen Gray
Part III Experiments of Cisternay Dufay
Part IV: Dufay Discovers Vitreous and Resinous Electricity.
Part VI: The Leyden Jar Discovered
Idem: A History of Science, Modern Development of the Physical Sciences. vol III
Chapter I. The successors of Newton in Astronomy.
http://www.worldwideschool.org/library/books/sci/history/AHistoryofScienceVolume
III/chap2.html
Bradley and the Aberration of Light
French Astronomers
Leonard Euler
Chapter II. The progress of Modern Astronomy.
http://www.worldwideschool.org/library/books/sci/history/AHistoryofScienceVolume
III/chap6.html
Part X Double Star
Part XI. The Distance of the Stars
Part XII Revelations of the Spectroscope
186
Chapter VI. Modern Theories of Heat and Light
Part II Count Rumford and the Vibratory Theory of Heat
http://www.worldwideschool.org/library/books/sci/history/AHistoryofScienceVolume
III/chap43.html
187
NUEVO PARADIGMA ELECTROMAGNÉTICO EN EL SIGLO XIX
Rolando Delgado Castillo y Francisco Arturo Ruiz
Universidad de Cienfuegos.
Contexto y progresos en las Matemáticas
La potencia motriz del calor y los nuevos ingenios para el transporte
El mundo de las ondas electromagnéticas y la lluvia de invenciones eléctricas
La óptica, la astronomía y el nacimiento de dos nuevas técnicas
Antecedentes de un nuevo paradigma atómico
Vasos comunicantes con la Química
Resonancias en la Biología
Bibliografía
Contexto y progresos en las Matemáticas
Ni la Santa Alianza, concertada en el Congreso de Viena (1815) luego de la
derrota definitiva en Waterloo de las tropas bonapartistas, ni las monarquías
“legítimas” restauradas para supuestamente lograr la estabilidad europea
consiguieron detener los profundos procesos en constante aceleración del
desarrollo de las relaciones capitalistas.
El último tercio del siglo XIX resulta un período relativamente pacífico de
expansión capitalista que fertiliza el camino para las grandes realizaciones que
sobrevendrían en la ciencia y la técnica. Las mejoras asociadas a la
civilización urbana en los escenarios en que estas se viene produciendo, aunque
cargadas de desigualdades y contradicciones, provocan una explosión demográfica
que eleva la cifra de los habitantes del planeta por encima de los 1 600
millones de seres y hace crecer las necesidades en un amplio abanico de esferas
de la vida material y espiritual de la sociedad.
Las metrópolis europeas desde la Rusia zarista hasta la Corona británica
realizaron importantes contribuciones al desarrollo científico decimonónico pero
188
pueden advertirse tres polos exponentes de la vanguardia: La Confederación
Germánica, el Reino Unido, y la Tercera República francesa.
La unificación tardía de Alemania, capitaneada por la Prusia de Bismarck a
partir de 1871, se traduce en un arrollador auge económico que tiene un momento
brillante en los años 90 e influye en el esplendor de las instituciones germanas
y en su movimiento científico.
La economía británica, luego de siglo y medio de liderazgo absoluto observó
cierto declive, y las clases dominantes convinieron una nueva ronda de expansión
colonial. El mercado de las zonas subordinados a la Gran Bretaña experimentó
entonces un notable crecimiento: Afganistán, Egipto, Sudán, Birmania y extensos
dominios de los zulues sudafricanos fueron anexados. La producción científica
británica principalmente a través de sus instituciones líderes continuó su
brillante desarrollo.
La III República Francesa apostó también a la dominación colonial y resultaron
conquistados los territorios de Túnez, África Ecuatorial, África Occidental,
Madagascar y Vietnam. La Escuela Francesa heredera de la tradición de los
fundadores de esta ciencia prosiguió generando personalidades y producción
científica de primera línea.
Al otro lado del Atlántico, Estados Unidos conocía de una rápida expansión
económica. En breve lapso concluida la Guerra de Secesión (18611865), la Unión
avanzaba firmemente hasta alcanzar hacia la última década del siglo un lugar
cimero en la economía mundial. Paralelamente al despliegue económico de la joven
y pujante nación iban desarrollándose las doctrinas políticas de dominación
hemisférica. La amalgama de estos factores con la emprendedora inmigración que
experimentó el país lo transformó en una Meca de la innovación.
189
La emancipación de América Latina, nutrida por el ideario de la Revolución
Francesa y la Independencia de los Estados Unidos y sustentada por la
contradicción económica entre Metrópoli y territorios dominados, no condujo a la
cristalización del sueño bolivariano de un gran escenario de naciones integradas
por idioma, religión y cultura comunes, sino al nacimiento de un mosaico
fragmentado de países de acuerdo a estrechos intereses de las burguesías locales
que en lugar de orientar a la región hacia el progreso económico la sumergió en
frecuentes escenarios de conflictos, marginándola de los procesos sociales de la
ciencia y la tecnología.
En tales circunstancias históricas, se suceden apenas iniciado el siglo, como en
reacción en cadena, aquellas invenciones que producirían primero una revolución
en el transporte marítimo y terrestre y luego un diluvio de artefactos
eléctricos.
En unos treinta años desde que el ingeniero norteamericano Robert Fulton (1765
1815) inventara el buque accionado por el vapor, la travesía por el Atlántico
para enlazar los puertos industriales de América y Europa se convertiría en un
recorrido de unos catorce días. Por estos tiempos, el transporte terrestre
experimenta el nacimiento y meteórico desarrollo del ferrocarril. Si en 1814 el
ingeniero inglés autodidacta George Stephenson (1781 – 1848) construye la
primera locomotora a vapor, hacia 1870 doscientos diez mil kilómetros de vía
férrea enlazaban los principales nudos y núcleos poblacionales del mundo
industrializado.
Este fantástico incremento de la actividad del transporte trajo incontables
consecuencias: abarató el traslado de las materias primas hacia las fábricas y
de los productos industriales hacia los mercados de venta, contribuyó al
crecimiento del mercado interior y exterior, aumentó la necesidad de metal y de
combustible y por tanto impulsó las industrias correspondientes y los procesos
de industrialización de una serie de países.
En 1876 Thomas Alva Edison (1847 1931) construyó en
Menlo Park, una pequeña villa situada a 25 millas de
Nueva York, un laboratorio de investigación. Pronto
en este lugar se gestaron grandes inventos. La
primera gran invención de Edison en Menlo Park fue el
fonógrafo de una lámina de estaño en 1877. Dos años
después era logrado su mayor desafío, el desarrollo
de una bombilla incandescente práctica y en 1881
edifica en Nueva York una planta de corriente
continua que genera y distribuye la energía a través
190
de una red de líneas, tal como en ese entonces ya se
hacía con el gas y el agua. En septiembre de 1882 se
ilumina la primera calle que en Nueva York recibe los
servicios de la planta.
Pero el sello de un nuevo paradigma en este siglo se asocia con la revolución en
las comunicaciones y una nueva ola de invenciones en el transporte que están
precedidas esta vez por los colosales descubrimientos en el área del
Electromagnetismo.
A diferencia de momentos anteriores, en los que la práctica, precedía
significativamente a la teoría, ahora la fuerza de los conocimientos de las
nacientes ciencias impulsa y establece un complejo tejido de interacción con la
tecnología. Si la máquina de vapor apareció en escena antes de la elaboración de
la teoría de las máquinas térmicos, la construcción del motor eléctrico resultó
posible solamente después de los avances de la teoría del electromagnetismo.
El dominio de una nueva forma de energía, la energía eléctrica inauguraba toda
una época en el desarrollo de la sociedad. El tranvía eléctrico como forma de
transporte público y el invento de la locomotora eléctrica, unidos a los
primeros prototipos de móviles accionados por motores de combustión interna son
los exponentes de la nueva oleada de equipos de transporte. El estreno del
telégrafo y del teléfono y su rápida difusión, la grabación del sonido y la
primera producción del fonógrafo, la instalación de las primeras plantas
eléctricas y la iluminación de las ciudades con esta energía representan signos
de los colosales cambios que se operan a la vista de una generación. No
terminaría el siglo sin que las ondas hertzianas comunicaran a través del Canal
de la Mancha a Inglaterra y Francia.
Así la faz del hábitat humano; sus medios de transporte; las vías de
comunicación y de información; la producción de textiles, colorantes,
explosivos, alimentos y medicinas van sufriendo a lo largo de este siglo una
profunda revolución de la cual se sirve y a la cual apoya el progreso de las
ciencias.
En una compleja dialéctica, al filo de la necesidad y la casualidad, siendo
portadores de los progresos determinadas personalidades históricas que fueron
fortaleciendo el papel de las comunidades (Sociedades Científicas), en contextos
sociales principalmente dados por las naciones que encabezan el desarrollo
monopolista de la época, se produce el firme progreso de las ciencias.
191
En el campo de las Matemáticas se realizan trascendentales aportaciones que
posibilitan el asalto que se produciría el próximo siglo al mundo de las
partículas subatómicas; y se desarrollan nuevas ideas y mecanismos electrónicos
que incuban revolucionarios diseños de máquinas de cálculo.
A partir de 1822 y hasta 1848, Charles Babbage proyectaría
e intentaría construir sus máquinas de cálculo. Necesitó
dinero y obtuvo préstamos. Incumplió con los plazos y
padeció de crisis nerviosas. Pero la teoría y los
principios de su "máquina analítica", es la de una
computadora digital, una verdadera computadora que en el
XIX sólo un genio pudo haber imaginado.
En 1991 científicos británicos construyeron una máquina
diferencial a partir de las detalladas especificaciones
dejadas por Babbage y en efecto, a más de un siglo de su
diseño, la máquina fue capaz de realizar complejos cálculos
con una gran exactitud.
El libro de Carl F. Gauss (17771855), Disquisitiones arithmeticae, con que nace
el siglo XIX, marca el comienzo de la era moderna de la teoría de los números.
Ya en su tesis doctoral planteó el teorema que aun hoy se conoce como teorema
fundamental del Álgebra. En la teoría de la probabilidad, desarrolló el
importante método de los mínimos cuadrados y las leyes fundamentales de la
distribución de la probabilidad. El diagrama normal de la probabilidad se sigue
llamando curva de Gauss. Es uno de esos científicos que pueden calificarse de
físicomatemáticos pues desarrolla brillantes aplicaciones de la matemática a
diversos campos de la Física, en particular, al electromagnetismo. Una unidad de
inducción magnética perpetúa su nombre.
La teoría de los grupos, que resultaría muy útil más tarde en el desarrollo de
la Mecánica Cuántica, fue formulada en 1830 por el matemático francés Evariste
Galois (18111832). Sus manuscritos se publican más de una década después
para alcanzar la inmortalidad. Muchas de sus construcciones, que hoy se
denominan grupo de Galois, cuerpos de Galois y teoría de Galois, permanecen como
conceptos fundamentales en el Álgebra moderna.
En 1854, el matemático inglés George Boole (18151864) al emprender la
investigación sobre las leyes del pensamiento, logra relacionar la Matemática
con los argumentos lógicos y da origen a la Lógica Simbólica. El Álgebra de
Boole es fundamental en el estudio de las Matemáticas puras y en la programación
de las modernas computadoras.
192
El estadounidense Herman Holleritch (18601929) en 1880 inventa la calculadora
electrónica y luego funda la Tabulating Machine Company (1896), que está
considerada como una antecesora de la IBM (International Business Machines
Corporation). Alrededor de medio siglo antes el matemático e inventor británico
Charles Babbage (17921871) había concebido una máquina que debía funcionar con
tarjetas perforadas como lo hace un telar, y que fuera capaz de almacenar
respuestas parciales, utilizables posteriormente en otras operaciones.
En el año 1874, apareció el primer trabajo revolucionario de Georg Cantor (1845
1918) sobre la teoría de conjuntos. El estudio de los infinitos por parte de
Cantor fue considerado por Leopold Kronecker (1823 1891), una autoridad en la
materia, como una locura matemática. Por este supuesto atacó vigorosamente a
Cantor que mostró fragilidad y terminó a los 39 años en un manicomio. No
obstante, en sus momentos de lucidez siguió trabajando, obteniendo en este
periodo sus resultados más interesantes. La teoría de Cantor, forma hoy parte de
los fundamentos de las Matemáticas y de la Lógica Matemática. Nuevas
aplicaciones ha encontrado su teoría en el tratamiento de sistemas fluidos
turbulentos. Murió en el manicomio de Halle en 1918.
Transcurridos más de dos mil años de las ideas de Euclides sobre el espacio, en
el siglo XIX el matemático ruso Nikolai Lobachevski (17931856) formuló la
Geometría no euclidiana (Hiperbólica), suponiendo que por un punto exterior a
una recta pueden pasar infinitas paralelas, y no una sola como suponía Euclides.
Bernhard Riemann (18261866), por su parte, fundamentó la nueva geometría
esférica en el supuesto que por un punto exterior a una recta no exista ninguna
paralela. El impacto de estas nuevas Geometrías con sus grandes abstracciones
fue decisivo para el desarrollo de la Física Teórica Moderna.
193
La potencia motriz del calor y los nuevos ingenios para el transporte
En el universo de la Física los estudios sobre “la potencia motriz” del calor se
apuntaron en la agenda del siglo XIX con el desarrollo de nuevas leyes y
principios, y una desconocida hasta entonces mirada estadística hacia los
sistemas moleculares.
La Escuela Francesa de físicos – matemáticos que aplican novedosas herramientas
matemáticas al desarrollo de una teoría sobre el calor cuenta entre sus más
sobresalientes representantes de inicios del siglo a Joseph Fourier (1768 –
1830). Fourier empleó una nuevas series trigonométricas (series de Fourier) en
su tratado “Teoría analítica del calor” publicado dos años antes de la obra
clásica de Carnot. En 1824 el joven ingeniero francés Sady Carnot (1796
1832), el mismo año del nacimiento de Lord Kelvin, publica su famosa memoria
“Reflexiones sobre la potencia motriz del calor y sobre las máquinas apropiadas
para desarrollar esta potencia”, en donde se dedicó a razonar sobre la pregunta
general de cómo producir trabajo mecánico (potencia motriz) a partir de fuentes
que producen calor. Carnot, en momentos en que se trabaja en el
perfeccionamiento de estas máquinas, demuestra que no puede concebirse una
máquina térmica más eficiente operando entre dos temperaturas prescritas que la
suya y anuncia una de sus proposiciones fundamentales: La fuerza motriz del
calor es independiente de los agentes usados en producirla; su cantidad está
determinada unívocamente por las temperaturas de los dos cuerpos entre los
cuales ocurre, finalmente, el transporte del calórico.
Antes de los trabajos del ingeniero y físico francés Émile Clapeyron (17991864)
la obra de Carnot era poco conocida en los círculos científicos. En 1834 aportó
su primera contribución a la creación de la termodinámica moderna, al publicar
una memoria titulada Force motrice de la chaleur (Fuerza motriz del calor). En
esta publicación Clapeyron desarrolló las ideas de Carnot sobre el calor de
forma analítica, con la ayuda de representaciones gráficas. Sus trabajos
ejercieron una notable influencia en las ideas de Thomson y Clausius que
derivaron en el segundo principio de la Termodinámica.
194
puentes en esta gran nación. A su regreso, participa
en el diseño de líneas férreas y de locomotoras
en Francia. Entretanto elabora la formulación matemática del
ciclo de Carnot, y publica obras fundacionales de la
termodinámica.
Paralelamente con los trabajos iniciales que pretendieron analizar la eficiencia
de las máquinas térmicas, el problema de la interrelación entre trabajo y el
calor fue abordado por el médico alemán Julius Robert von Mayer (1814 – 1878).
Mayer estableció, en 1842, que si la energía, en sus formas de energía cinética
y potencial, se transformaba en calor, este debía poder transformarse en esas
dos formas de la energía sentando las bases del principio de conservación en los
fenómenos biológicos y en los sistemas físicos. Mayer fue capaz de encontrar una
relación cuantitativa entre el calor y el trabajo basándose en los resultados de
las mediciones de las capacidades caloríficas de los gases.
Unos años más tarde el también médico alemán Hermann von Helmholtz (1821 – 1894)
pretende publicar un trabajo "Sobre la conservación de la fuerza" (1847) que
defiende la conservación de la energía como un principio universal de la
naturaleza así como la posibilidad de conversión de la energía cinética y
potencial en "formas químicas, electrostáticas, voltaicas y magnéticas". La
lectura de su trabajo en la Sociedad Física de Berlín fue considerado por sus
miembros más viejos como demasiado especulativo y rechazada su publicación en la
Revista alemana Annalen der Physik.
En la década de los cincuenta el físico británico James P. Joule (18181889)
desarrolla los experimentos que permiten determinar el llamado “equivalente
mecánico del calor”. Joule considera el calor como movimiento y propone la
estructura corpuscular de la sustancia, con lo cual inaugura la Teoría Cinético
– Molecular de los gases, que intenta explicar el comportamiento de los gases
ideales, teniendo como antecedentes los trabajos desarrollados por Boyle,
Jacques A.C. Charles (1746 – 1823) y Joseph Gay Lussaac (1778 – 1850).
En los años siguientes Joule alcanza la confirmación experimental de las ideas
de von Helmholtz. Se formula entonces la ley de conservación y transformación de
la energía, que se constituyó en principio de capital importancia. Las
implicaciones de esta ley en el desarrollo ulterior de los conocimientos físicos
tuvieron tal alcance que algunos autores consideran al periodo que le sucedió
como una segunda etapa en el desarrollo de las Ciencias Físicas, basada en la
aplicación de los principios de conservación.
A treinta años del Principio de Carnot aparece la expresión del llamado 2do
principio de la Termodinámica en forma de dos enunciados que se complementan. El
195
enunciado del irlandés William Thomson, Lord Kelvin (1824 1907) establece que
no existen las máquinas térmicas perfectas pues no es posible construir un motor
térmico que operando cíclicamente convierta en trabajo todo el calor absorbido.
Joule, hijo de un cervecero, fue discípulo de John Dalton
en Manchester. Al igual que Faraday, fue un excepcional
experimentador. Sus primeros trabajos fueron sobre
electricidad, pues perseguía como propósito estudiar las
eventuales ventajas del motor eléctrico sobre la máquina
de vapor. Terminó por inaugurar lo que se considera una
segunda etapa en el desarrollo de las ciencias físicas,
basada en la aplicación de los principios de
conservación. Fundó en su ciudad natal la “Manchester
Literary andPhilosophical Society”.
Por su parte, en la visión complementaria del alemán Rudolf Clausius (1822
1888) para un ciclo refrigerante queda establecido la imposibilidad de extraer
calor a una baja temperatura para entregar a una temperatura más alta sin que se
suministre una determinada cantidad de trabajo al sistema.
Las aportaciones desarrolladas por Thomson entre 1848 y 1852 a la Termodinámica
le colocan entre sus fundadores. En 1848 a partir de la noción de entropía
desarrollada por Clapeyron propuso una escala de temperatura absoluta, cuyo cero
lo situó en –273° C. En 1852, como resultado de la colaboración con Joule
descubrieron y explicaron el efecto JouleThomson relacionado con el
enfriamiento que experimenta un gas cuando se expande lentamente a través de un
tabique poroso. Este fenómeno encuentra importantes aplicaciones pues se logra
obtener temperaturas muy bajas. Más de medio siglo de ejercicio de la docencia
en la Universidad de Glasgow le aseguraron la difusión de su obra en diferentes
ámbitos de la Física.
Hacia 1866, en forma independiente de Maxwell, Ludwig Boltzmann (1844 – 1906)
había formulado las bases de la teoría cinética de los gases. Esta teoría
constituyó el primer eslabón de lo que más tarde se denominó Física Estadística
como rama de la Física que estudia los sistemas de muchas partículas. Para estos
sistemas existe objetivamente una dificultad en los cálculos que se supera
mediante la descripción estadística. Su teoría significó un cambio de un
concepto de certidumbre (el calor visto como un flujo de lo caliente hacia lo
frío) hacia una noción estadística del movimiento de las moléculas. Su nueva
visión no rechazó los anteriores estudios de termodinámica sino explicó mejor
las observaciones y experimentos.
196
Todos los resultados anteriores posibilitaron enunciar ya en este siglo tres de
los cuatro principios que constituyen los núcleos de la disciplina llamada
Termodinámica: el Principio Cero que establece la posibilidad y el método de
medición de la temperatura absoluta de un sistema como parámetro del equilibrio
termodinámico; el Primer Principio en esencia reflejo de la expresión más
general de la ley de conservación y transformación de le energía; y el Segundo
Principio, también conocido como el principio de aumento de la entropía, que
expresa el carácter irreversible de los procesos naturales y las relaciones
entre el orden y el desorden empleando el concepto de entropía como una medida
logarítmica del número de estados accesibles del sistema.
Es difícil sobreestimar la contribución de Boltzmann en el
desarrollo de la Física. Gracias a él se unieron dos mundos:
el de las propiedades macroscópicas con los parámetros del
movimiento de los átomos y moléculas. Filosóficamente, la
Termodinámica Estadística que construyen entre él y Maxwell
significó un cambio de un concepto de certidumbre (el calor
visto como un flujo de lo caliente hacia lo frío) hacia una
noción estadística del movimiento de las moléculas. Su
nueva visión no rechazó los anteriores estudios de
termodinámica sino explicó mejor las observaciones y
experimentos.
Pero las ideas vanguardistas de Boltzmann chocaron con los
que defendían la dirección descriptiva en la Física. En
particular su violenta polémica con Ernest Mach (1838
1936), profesor titular de la Cátedra de Filosofía de las
Ciencias de la Universidad de Viena lo lleva a Leipzig,
donde comienza a padecer de trastornos síquicos. Un día
festivo, mientras su esposa e hija nadaban, termina con su
vida. Poco después los experimentos confirmaban sus ideas.
En 1880 coinciden dos descubrimientos trascendentes: uno para la física de los
gases y el otro para la física del estado sólido. Este año, el físico holandés
Johannes Diderik van der Waals (1837 – 1926) produjo su segundo gran
descubrimiento cuando publicó la Ley de los Estados Correspondientes. Esta ley
mostraba que si la presión, el volumen y la temperatura se expresan
respectivamente como una función simple de la presión crítica, el volumen
crítico y la temperatura crítica, se obtiene una forma general de la ecuación de
estado aplicable a todas las sustancias. Siete años antes, durante la defensa de
su tesis doctoral “Sobre la continuidad entre el estado gaseoso y el líquido”,
se convirtió en el primer físico en apuntar la necesidad de tener en cuenta el
197
volumen de las moléculas y las fuerzas intermoleculares en el establecimiento de
las relaciones entre la presión, el volumen y la temperatura de los gases.
La obra de van der Waals, según la opinión del premio Nobel de Física (1913),
Heike Kamerlingh Onnes (1853 – 1926), fue una guía para el trabajo experimental
del Laboratorio de Criogenia de Leiden donde se montó la primera planta de
producción de aire líquido en 1894 y ya en el siguiente siglo se hicieron
trascendentes descubrimientos sobre el comportamiento de gases y metales a
temperaturas extremadamente bajas. En este camino de la licuefacción de gases un
hito de fines del XIX fue la obtención del hidrógeno líquido por vez primera en
1896 en el laboratorio del físico y químico escocés James Dewar (1842 1923).
El otro descubrimiento, el efecto piezoeléctrico, fue reconocido en los círculos
científicos de la época como un nuevo ámbito para la producción de electricidad
que se distinguía de la electricidad estática generada por fricción o la
piroelectricidad (originada mediante el calentamiento de cristales). No
obstante, los hermanos Pierre (1859 – 1906) y Jacques Curie afirmaron que
debería existir una correspondencia entre los efectos eléctricos observados por
el cambio de temperatura, y por la presión ejercida sobre un cristal dado. Para
ellos el hallazgo fue una confirmación de las predicciones que naturalmente
derivaron de la comprensión de los orígenes microscópicos cristalográficos de la
piroelectricidad (esto es a partir de ciertas asimetrías del cristal). Los
hermanos sin embargo no predijeron que los cristales que exhibían el efecto
piezoeléctrico directo (electricidad a partir de la presión ejercida) también
podrían exhibir el efecto piezoeléctrico inverso (deformación como respuesta a
un campo eléctrico aplicado). Esta propiedad fue deducida en 1881 a partir de
los principios fundamentales de la termodinámica, por el físico luxemburgués
Gabriel J. Lippmann (1845 1921), y casi inmediatamente confirmada por los
Curie. Luego continuaron obteniendo pruebas cuantitativas de la reversibilidad
completa de las deformaciones electroelastomecánicas en cristales
piezoeléctricos.
Van der Waals, con 30 años se gana la vida como Director de
una Escuela Secundaria en el núcleo industrial de Deventer,
al centro de los Países Bajos. Seis años después, en 1873,
publica su tesis doctoral “Sobre la continuidad entre el
estado gaseoso y el líquido” y se incluye en la vanguardia
de los físicos que se esfuerzan por construir una ciencia
al nivel molecular. Al conocer esta obra, Maxwell le dedica
los más entusiastas elogios. En 1876 es designado como
primer profesor de Física de la Universidad de Ámsterdam,
198
en donde permanece hasta su retiro. En 1910 recibe el
premio Nobel de Física.
Imagen: En el célebre Laboratorio de Criogenia de la
Universidad de Leyden, van der Waals (a la derecha) junto
su colega Heike K. Onnes.
Este andamiaje teórico contribuyó a la comprensión de innumerables hechos
experimentales, los mecanismos del intercambio de calor, de masa y de momentos
lineales, base de los actuales esquemas de transferencia que son propios de las
tecnologías químicas, y lo que es más importante, ofreció los fundamentos de los
sistemas llamados máquinas térmicas y de los mecanismos de refrigeración. A
diferencia de la ciencia del XVIII que se mantuvo a la zaga de los avances
técnicos en el período inicial de desarrollo de la máquina de vapor ya en el XIX
las leyes de la Termodinámica que se descubren y todo la plataforma conceptual
que se construye sirve de apoyo a la teoría de la máquina de vapor y a toda
práctica relacionada con las transformaciones energéticas.
Inglaterra, la cuna de la revolución Industrial, había construido hasta 1840 más
de 40 coches y tractores propulsados a vapor. Hacia la mitad del siglo
circulaban regularmente unas 9 diligencias a vapor, capaces de transportar cada
una entre 10 y 20 pasajeros a unos 24 km/h. Pero esta naciente industria
británica tuvo una breve vida. Los intereses de la industria de las locomotoras
frenó el desarrollo alternativo del transporte por carretera y trajo como
resultado que los ingenieros ingleses, líderes en la tecnología de la máquina de
vapor, no contribuyeran a las grandes invenciones que precedieron la revolución
que significó la industria del automóvil.
En 1860 el ingeniero belga Étienne Lenoir (18221900) inventó y patentó en París
un motor de combustión interna alimentado con gas de alquitrán, de doble acción
con ignición por chispa eléctrica. Tres años después mejoró el motor usando
petróleo y un primitivo carburador y lo acopló a un vagón de tres ruedas que
completó un histórico recorrido de 50 millas.
Inspirado en el motor diseñado por Lenoir, el ingeniero alemán Nicolaus A. Otto
(18321891) junto con el técnico Eugene Langen (1833 – 1895) diseña el primer
motor de gas con el cual ganan medalla de oro en La Exposición Mundial de París
de 1867. En mayo de 1876 Otto construye el primer motor práctico con pistones y
ciclo de cuatro tiempos. Para 1884, Otto había inventado el sistema de ignición
magnético para bajo voltaje de ignición. A partir de entonces el monopolio de la
innovación de los motores de combustión interna está principalmente en manos de
los inventores alemanes.
199
Entre 1885 y 1887 se produjo el acoplamiento de un motor
a un vehículo, cuando Karl Benz (18441929) y Gottlieb
Daimler (18341900) introdujeron los primeros automóviles
de gasolina eficaces. En 1889, Daimler inventó un motor
con válvulas en forma de hongo, de cuatro tiempos con dos
cilindros, en forma de V. El nuevo motor de Daimler
estableció las bases para todos lo motores de autos que
se producirían más adelante.
También en 1889, Daimler y Wilhem Maybach (1846 – 1929)
construyeron el primer automóvil en su totalidad, sin
adaptar como había sido hecho hasta el momento otro
vehículo. El nuevo automovil de Daimler tenía transmisión
de cuatro velocidades y desarrollaba velocidades de 10
millas por hora.
En 1885, el ingeniero mecánico alemán, Karl Benz diseñó y construyó el primer
automóvil práctico del mundo en ser impulsado por un motor de combustión
interna: era un triciclo. Benz construyó su primer automóvil de cuatro ruedas
con su marca en 1891. En 1893, el Benz Velo se volvió el primer automóvil
barato, producido en masa en el mundo. La Compañía Benz, fundada por el
inventor, se volvió el fabricante más grande del mundo de automóviles en 1900,
llegando a producir para esa temprana fecha unos dos mil quinientos vehículos.
Un eficiente motor de combustión interna, utilizando gasoil como combustible,
fue patentado en 1892 por el ingeniero alemán Rudolf Diesel (18581913). La
eficiencia de este motor es mayor que cualquier motor de gasolina, llegando a
superar el 40%. Los motores Diesel se aplicaron en instalaciones generadoras de
electricidad, en sistemas de propulsión naval y en camiones y autobuses. En
1897 y luego de años de esfuerzos, Robert Bosch (1861 1942) consiguió
desarrollar un magneto de encendido de aplicación práctica y casi
simultáneamente comenzó a funcionar el motor de autoencendido de Diesel, que no
requería de un sistema eléctrico de ignición.
Toda esta colosal revolución en los medios de transporte demandaba con urgencia
el descubrimiento de fuentes de combustibles que convirtieran la energía química
en mecánica. Por entonces no se avizoraban los peligros que entrañaría más tarde
la despiadada explotación del petróleo, una reserva geológica del
planeta. Sucedió entonces que en el Condado de Alberta, New Brunswick, el médico
y geólogo canadiense Abraham Gesner (17971864) descubrió un mineral oscuro
bituminoso, que al destilarse exhibe una llama excepcionalmente brillante para
la época. La lámpara de keroseno, anunciada en 1846 a 34 años de la patente para
la fabricación de la primera bombilla eléctrica por Thomas Alva Edison (1847
200
1931), se convertía en un poderoso estímulo para la prospección del petróleo y
el desarrollo ulterior de la industria petrolera.
Mucho más allá fue el químico estadounidense Benjamín Silliman Jr. (1816 – 1885)
en su "Report on Rock Oil, or Petroleum, from Venango County, Pennsylvania"
publicado en 1855. En esta obra Silliman predice los usos del petróleo para los
próximos 50 años y describe los métodos principales de preparación y
purificación de sus productos. Silliman separó por destilación fraccionada
diferentes componentes del petróleo crudo y evaluó las cualidades de cada
fracción. Usando el fotómetro determinó que el petróleo destilado es mucho más
brillante que los combustibles conocidos hasta el momento. También destacó el
potencial uso de las fracciones menos volátiles como lubricantes y el prolongado
empleo que podía dársele a este producto. El estudio de Silliman constituyó un
estímulo importante para iniciar la búsqueda del petróleo no sólo para dar
respuesta a la crisis del combustible para la iluminación.
En el verano de 1859, la casualidad premió el esfuerzo de
Edwin L. Drake (1819 1880) y a sólo 69 pies de profundidad
en las tierras de Titusville, Pennsylvania se encontró un
depósito rico en gas natural del cual emergía con fuerza el
petróleo. Como si fuera poco, a este hallazgo sumó Drake
tiempo después el método para separar del petróleo la
fracción de queroseno, producto que Gesner había descubierto
como un sustituto ideal del aceite de ballena para
combustible en las lámparas. A pesar de sus dos trascendentes
innovaciones, Drake muere en la pobreza al no patentar su
método de extracción y llevar la empresa a la ruina, sin
ver la expansión de la industria petrolera ni soñar tal vez
siquiera la revolución que se produciría en el transporte.
Si al final del siglo XVIII, París había conocido el primer asalto del hombre a
la conquista del aire, el segundo capítulo de esta conquista sería escrito a
partir de la segunda mitad del siglo XIX y siguió diferentes caminos: los
dirigibles segunda generación de los globos que aprovechaban la menor densidad
de los gases ligeros para la ascensión y los mecanismos de la propulsión
mecánica para enrumbar el vuelo; los planeadores, móviles alados para sostener
un vuelo individual; y los aeroplanos que perseguían despegar una estructura más
densa que el aire venciendo la gravitación, establecer un vuelo sostenido y
guiado, y garantizar luego el aterrizaje suave. En semejante empresa se
enrolaron aquellos que combinaron ideas ingeniosas y los últimos adelantos en
materia de motores y otros aditamentos mecánicos, con una audacia a toda prueba.
201
El primer dirigible tripulado apareció en los cielos de París en 1852. Su
inventor fue el ingeniero francés Henri Giffard (1825 1882). La nave aérea de
Giffard propulsada por una hélice acoplada a un motor de vapor fue elevada
utilizando un especie de balón en forma de tabaco de casi 40 metros de longitud
lleno de dihidrógeno (el gas más liviano) y despegando del Hipódromo de París
mantuvo una velocidad promedio de unos 10 km/h recorre una distancia de 27 km.
Por otro camino iba el inventor británico John Stringfellow (1799 1883) que
entre 1846 y 1848 se ocupó de construir un pequeño modelo, de tres metros de
envergadura, provisto de una máquina de vapor, que accionaba dos hélices
propulsoras, situadas detrás de las alas. Probado en una gran nave de una
fábrica abandonada realizó con éxito vuelos limitados por las paredes de la
nave. A Stringfellow, por tanto, debe corresponder la gloria de ser el primer
hombre del mundo que construyó un aeroplano manejable provisto de motor. Sin
embargo, es dudoso que sus experimentos hubieran tenido éxito al aire libre.
La tragedia estuvo presente en estos primeros intentos de dominar las alturas.
Este es el caso del inventor alemán Otto Lilienthal (1848 1896). Su primer
monoplano fue construido en 1891 y mostró capacidad para hacer vuelos de
considerable longitud, lanzándose desde lo alto de una colina. Lilienthal hizo
más de mil vuelos exitosos con monoplanos y biplanos. Estaba precisamente a
punto de adaptar un motor a su último planeador cuando se mató en agosto de
1896, a consecuencia de la rotura de su aparato.
El proyecto frustrado de Lilienthal en Alemania fue cumplido por el profesor de
Física de la Universidad Occidental de Pensilvania, quién había estudiado los
principios de la aerodinámica, Samuel Pierpont Langley (18341906). Langley en
1896 hizo volar en dos ocasiones un monoplano sin piloto que recorría unas diez
cuadras, antes de que su motor se apagara y descendiera suavemente en las aguas
del río Potomac.
202
El mundo de las ondas electromagnéticas y la lluvia de invenciones eléctricas
Mas el verdadero viraje en la carrera del binomio técnica ciencia se produce
con el descubrimiento del mundo de las ondas electromagnéticas, ahora la ciencia
se convierte en el factor precedente de la invención técnica.
El debate Galvani Volta fue uno de los episodios notables con que nacen las
ideas modernas sobre la electricidad. Luigi Galvani (1737 1798) fue 33 años
profesor de la Universidad de Boloña y sus trabajos son los primeros que apuntan
a la acción fisiológica de la electricidad demostrando la existencia de fuerzas
bioeléctricas en el tejido animal. Fue este cirujano, que renunciara a su
cátedra universitaria cuando la invasión napoleónica para morir un año después,
uno de los primeros biofísicos de la historia. La teoría del fluido eléctrico
animal fue rechazada por el también italiano Alessandro Volta (1745 1827). A
Volta se debe el invento en el 1800 de la primera batería eléctrica que hizo
posible la construcción de dispositivos para mantener una corriente eléctrica
por un circuito dado, y abordar el problema de los nexos entre la Electricidad y
el Magnetismo. Una vez presentados sus trabajos en la Academia Francesa de la
Ciencia, aceptó el título de Conde de Lombardía, territorio ocupado por las
tropas napoleónicas.
En 1820 el físico y químico danés, profesor de Física de la Universidad de
Copenhague Hans C. Oersted (1777 – 1851) descubrió que alrededor de un
conductor por el que circulaba una corriente eléctrica se instauraba un campo
magnético semejante al que se lograba con un imán permanente.
La relación conocida hoy como Ley de Ohm apareció publicada en 1827 cuando el
profesor alemán Georg Simon Ohm (1787 1854) fue capaz de definir la relación
fundamental entre voltaje, corriente, y resistencia. Ohm había cumplido los
cuarenta años cuando haciendo uso de los recursos construidos por él mismo en
un laboratorio escolar, descubre la ley considerada la verdadera apertura hacia
el análisis de los circuitos eléctricos. Sin embargo entre la comunidad
científica alemana los trabajos de Ohm fueron acusados de una excesiva
formalización matemática e ignorada su trascendencia. Fue la Royal Society
londinense la que en 1841 reconoce la importancia de su descubrimiento pero no
es hasta ocho años más tarde que cumple sus sueños cuando le ofrecen la cátedra
de Física Experimental de la Universidad de Munich.
203
A unas semanas de los trabajos de Oersted, el científico
francés André Ampere (1775 – 1836) logró formular y
comprobar experimentalmente la ley que pretende explicar en
términos matemáticos las posibles interacciones que
relacionan magnetismo y electricidad. Su memoria se perpetúa
en la unidad de intensidad de la corriente eléctrica, el
Amperio (A). Su vida personal ofrece el contraste entre una
carrera exitosa y un destino desventurado.
Un momento trascendente en los estudios sobre el electromagnetismo se produjo
al establecer M. Faraday en 1831, la llamada Ley de Inducción Electromagnética
que establece que en cualquier punto de una región donde esté instaurado un
campo magnético y exista una variación de su vector inducción magnética,
aparecerá un campo eléctrico inducido. Esta la ley física sustenta el
funcionamiento tanto de los generadores de electricidad movidos por distintas
fuentes de energía en las plantas generadoras; como de los transformadores, con
sus múltiples aplicaciones.
La invención de un equipo eléctrico que permitiera emitir y captar señales
según un código de impulsos eléctrico aparece disputada por dos pares de
físicos renombrados en polos científicos de Europa y un profesor universitario
de Arte al otro lado del Atlántico en la pujante atmósfera neoyorquina.
La historia reconoce que en 1831, el físico estadounidense Joseph Henry (1797
1878) diseñó y condujo un experimento que permitía la comunicación a larga
distancia al enviar una corriente eléctrica por el cable a una milla de
distancia para activar un electroimán que causaba el repiqueteo de una campana.
Esta prueba significó el nacimiento del telégrafo eléctrico.
Uno de los primeros registros de comunicación telegráfica se reporta en la
célebre Universidad de Gotinga. La intención fue dejar comunicados dos
laboratorios donde trabajaban el profesor de electrodinámica Wilhem Weber (1804
1891), quien debió abandonar a los 33 años la Universidad por problemas
políticos vinculados con su pensamiento liberal, y el físico matemático Carl
Friedrich Gauss (1777 1855).
La primera patente europea por la invención de un telégrafo eléctrico les fue
concedida en 1837 al ingeniero William F. Cooke y el físico Charles Wheatstone
(18021875) de la universidad londinense, por los mismos años que Samuel Morse
204
(17911872), se asomaría con sorpresa al mundo de la transmisión y recepción de
señales eléctricas.
Pero inobjetablemente la invención de Henry fue económicamente explotada
mediante el ingenio del profesor de arte y diseño de la Universidad de Nueva
York. En 1838, el primer mensaje telegráfico contenía una cita bíblica
propuesta por la joven hija de un amigo, Annie Ellsworth: ¿Qué ha hecho Dios?
El sistema primitivo de Morse producía una copia sobre papel con puntos y rayas
que debía ser traducida por un operador adiestrado. Este podía llegar a
transmitir 40 50 palabras por minuto.
Michael Faraday (1791 – 1867) es considerado un paradigma de
experimentador, y lo clasifican, hecho ya no común en el
siglo XIX, como físico y como químico. Y es que este hijo
de herrero, y por feliz casualidad encuadernador de libros,
hizo aportes relevantes para ambas ciencias. Pero lo
inmortaliza el descubrimiento de la llamada ley de
inducción electromagnética. Esta ley revela un efecto
inverso al descrito por Oersted, es decir que el movimiento
de un imán en las proximidades de un cable induce en éste
una corriente eléctrica. Fue por tanto el fundamento para la
construcción de los generadores de electricidad, de los
transformadores, y de los frenos magnéticos. No es exagerado
decir que la lluvia de artefactos eléctricos que se inventan
en la segunda mitad del siglo XIX, principios del XX tiene
su principal aliento en la obra de Faraday.
La empresa Western Union en 1861 construyó a lo largo de las vías férreas su
primera línea telegráfica transcontinental. Pronto se presentó la necesidad de
ampliar la red telegráfica entre Europa y América. Fue gracias al gran talento
del eminente físico inglés William Thomson, Lord Kelvin (18211907), que se
hicieron los estudios necesarios para instalar en 1866 el primer cable
trasatlántico que conectó a Wall Street en Nueva York con Londres.
Los litigios por los derechos para explotar un invento fue una constante en
todos estos años de verdadero diluvio de invenciones. El nacimiento de una
tecnología parecía conspirar con el florecimiento de otra, así el teléfono
parecía que iba a destronar los intereses económicos desarrollados en torno del
telégrafo.
La intención original de perfeccionar el sistema telegráfico obsesionaba a las
mentes creativas. Este fue el propósito original del inmigrante de origen
205
escocés Alexander Graham Bell (1847 1922), por entonces profesor de
fisiología vocal de la Universidad de Boston, que fue girando hacia el objetivo
de transmitir por el cable conductor la propia voz humana. Para alcanzar el
éxito ellos necesitaron construir un transmisor con una membrana capaz de
variar las corrientes electrónicas y un receptor que invirtiera el proceso
pudiendo reproducir estas variaciones de la corriente eléctrica en frecuencias
audibles. El 14 de febrero de 1876 Bell presentó su solicitud de patente de
invención de un dispositivo capaz de transmitir eléctricamente la voz. El
mismo día Elisha Gray (1835 1901) asentaba en la oficina de patentes una
solicitud de invención similar. Gray y Bell se enfrentaron a una batalla legal.
Unas pocas horas de ventaja le adjudicaron a Bell y la Corte inclinó la balanza
hacia el profesor de fisiología vocal. La historia reconoce muchos casos como
este, la verdad es que el equipo estaba en el orden del día histórico,
correspondió a uno llevarse la gloria.
El desarrollo del telégrafo y el teléfono creó la necesidad de contar con
electricistas hábiles, y por consiguiente empujó a la apertura de escuelas
técnicas y superiores de las que egresarían los que posteriormente se llamarían
ingenieros electricistas. Los diferentes problemas técnicos que se presentaron
en el tendido de los cables, en el mejoramiento de los equipos telegráficos, y
en el desarrollo de la teoría de la transmisión de señales fueron materia de
investigación en departamentos científicos de las universidades.
Entretanto en el mundo de la teoría, que se encargaba de iluminar la práctica y
las invenciones de los artefactos eléctricos, tuvo lugar un trascendental paso
que se convirtió en resumen y totalización del electromagnetismo en la región
clásica. Este salto fue dado por James Clerk Maxwell (1831 – 1879) cuando en
206
1865 estableció la simetría que existe entre los campos eléctrico y magnético y
completó el contenido de la llamada Ley de Ampere de forma que introduciendo el
concepto de corriente de desplazamiento logró establecer que en un punto de una
región donde esté instaurado un campo eléctrico variable con el tiempo, aparece
un campo magnético inducido. Con esto se completó el sistema de ecuaciones que
describen todos los fenómenos del electromagnetismo en la región clásica y se
produjo la primera unificación conformando el concepto de un solo campo: el
electromagnético, que puede presentar como manifestaciones particulares los
casos del campo electrostático y el magnetostático.
La significación desde el punto de vista epistemológico de la obra de Maxwell es
notable porque cristalizó la idea de la unificación de dos interacciones que se
creían de naturaleza distinta y marcó pauta para la búsqueda de otras
unificaciones entre otros tipos de interacciones, de modo que ya en el próximo
siglo se establecería la unificación entre la interacción débil y la
electromagnética (interacción electrodébil) y las explicaciones sobre el origen
del universo en las cuales se supone que en los primeros instantes después de la
gran explosión, solo existía un tipo de interacción y al irse rompiendo las
simetrías, estas interacciones se fueron separando con características bien
definidas y diferenciadoras.
A partir de este momento el nacimiento y desarrollo de la industria eléctrica,
en contraste con otras más antiguas, tuvo desde sus inicios un carácter de
empresa científica derivada de los logros de la investigación. En este afán
brilló el inventor estadounidense Thomas Alva Edison. El alcance de la invención
de Edison no se reduce a inventar solo la luz eléctrica incandescente sino
también un sistema de iluminación eléctrica con todos los elementos necesarios
para hacer la luz incandescente práctica, segura y económica. Después de año y
medio de pruebas, obtuvo el éxito cuando una lámpara incandescente con un
filamento carbonizado trabajó durante trece horas y media.
La primera demostración pública del sistema de iluminación incandescente fue
realizada en diciembre de 1879 cuando el complejo del Laboratorio de Menlo Park
fue iluminado con luz eléctrica. Alrededor de esta invención mayúscula se gestan
otras de menor trascendencia pero de esencial importancia práctica que fueron
desarrolladas por los laboratorios de Edison y que en esencia llegan hasta los
días de hoy. Estos siete sistemas inventados fueron: el circuito paralelo; la
bombilla duradera; un dinamo perfeccionado; la red conductora básica; los
dispositivos para mantener el voltaje constante; los fusibles de seguridad, los
materiales aislantes; y por último los soques e interruptores.
207
En Cambridge donde cursa estudios superiores (1850 –
1854), Maxwell se vincula con un denominado Movimiento
Socialista Cristiano y actúa como profesor de cursos
nocturnos extraoficiales para la instrucción de modestos
artesanos. Unos 20 años más tarde se convierte en el primer
profesor de Física del Instituto Cavendish. A Maxwell se
debe el resumen y totalización de la teoría sobre el
electromagnetismo cuando en 1865 completó el sistema de
ecuaciones que describen en la región clásica todos los
fenómenos electromagnéticos y formuló la primera unificación
conformando el concepto de un solo campo: el
electromagnético, que puede presentar como manifestaciones
particulares los casos del campo electrostático y el
magnetostático.
Edison debió entonces impulsar la creación de una industria generadora de
energía eléctrica. En 1881 Edison edifica en Nueva York una planta de corriente
continua que genera y distribuye la energía a través de una red de líneas, tal
como en ese entonces ya se hacía con el gas y el agua. En septiembre de 1882 se
ilumina la primera calle que en Nueva York recibe los servicios de este
revolucionario sistema.
A pesar de sus extraordinarios logros, el empleo de la corriente directa trajo
no poco problemas. En primer lugar, la utilización de circuitos en paralelo
requirió que los cables fueran muy gruesos, lo cual generaba costos altos. En
segundo lugar, y de más importancia, al aumentar la demanda de iluminación se
necesitaron cargas cada vez más altas que implicaban corrientes eléctricas
enormes. Por lo tanto, se estaba ante la alternativa de enviar corrientes muy
altas a través de grandes cables de cobre, lo cual era muy ineficiente, o de
construir muchas plantas generadoras de electricidad cercanas a los usuarios,
con el respectivo aumento considerable de los costos.
La solución a estos dilemas se encontró con la invención del transformador y la
construcción de generadores de corriente alterna. Un inventor francés, Lucien H.
Gaulard (1850 1888), originalmente interesado en la química de los
explosivos, obtuvo en 1882 una patente para un dispositivo que llamó generador
secundario y que fuera una versión primitiva de lo que hoy llamamos
transformador. Después de esta invención, Gaulard en 1884 instaló un sistema de
iluminación en el cual usó corriente alterna y lámparas incandescentes. Su
muerte prematura víctima de una fuerte depresión nerviosa le impidió ver
coronado con éxito sus empeños iniciales. George Westinghouse (1846 1922), fue
208
testigo de las demostraciones de Gaulard en Italia con motivo de la Exposición
Internacional de Turín y advirtió el potencial de la electricidad.
En 1884 Westinghouse contrató a un joven ingeniero eléctrico, William Stanley
(1858– 1916), quien un año después ya había superado la eficiencia de todos
los transformadores diseñados hasta entonces. Dos años más tarde fundó la
Compañía Eléctrica Westinghouse que pronto llegó a contar con una fuerza laboral
de 200 hombres con el propósito de desarrollar y producir aparatos para la
generación, transmisión y aplicación de la corriente eléctrica alterna.
Al morir Tesla había sido destituido, perdido su fortuna
y reputación científica. Hoy es considerado uno de los que
pavimentaron el camino hacia el desarrollo de muchas
tecnologías de los tiempos modernos. La unidad de medida de
inducción magnética en el sistema internacional recibe en
su honor el nombre de "Tesla”.
En 1886 se edificó, bajo la dirección de Stanley, la primera planta eléctrica
en el poblado de Great Barrington, Massachusetts, un centro de manufactura
floreciente de poco más de 2 500 habitantes. Esta planta operó con corriente
alterna, con un generador que produjo una corriente de 500 V y que por medio de
transformadores redujeron a 100 V, que es el valor que se requiere para hacer
funcionar las lámparas. El resultado fue un gran éxito y de inmediato
Westinghouse inició la manufactura y venta de equipos para distribuir
electricidad por medio de corriente alterna.
Haciendo uso de los inventos del ingeniero croata Nicola Tesla (1856 – 1943), la
Compañía de Westinghouse diseñó e instaló el sistema de Iluminación de la
Exposición Mundial de Chicago en 1893. Poco después asume la encomienda de
construir la Hidroeléctrica sobre las Cataratas del Niágara y ya en 1896 se
inaugura exitosamente la Planta del Niágara que transmitió la energía eléctrica
hasta Búfalo, a 20 millas de distancia. Con esta planta quedó confirmada la
superioridad práctica de la corriente alterna sobre la directa y la posibilidad
de ofrecer la energía desde un circuito para múltiples propósitos.
209
Una vez que la electricidad pudo ser generada y distribuida para la iluminación,
se aprovechó para ser utilizada como fuerza motriz. Se puso así a disposición de
la industria y de los transportes un nuevo medio universal de distribución de
energía que dio un gran impulso a la utilización de los motores eléctricos.
La naturaleza de la luz fue explicada por la perspectiva maxwelliana que
desarrolla la Teoría Electromagnética Ondulatoria de la Luz (TEM). Siguiendo
esta teoría, la luz en su sentido más amplio está formada por ondas
electromagnéticas que no son más que las oscilaciones automantenidas del campo
electromagnético. Este logro científico de primer orden permitió al hombre
explicar toda la Óptica Ondulatoria sobre bases científicas y desechar la idea
del éter, amén de las múltiples aplicaciones que generó en el campo de las
radiocomunicaciones y las telecomunicaciones.
Precisamente de los experimentos en búsqueda de la comprobación sobre la
existencia del éter, y en particular de la obra del físico alemán Heinrich
Rudolf Hertz (1857 – 1894), se obtuvo el triunfo total de la teoría de Maxwell
y se fueron preparando las ideas para el surgimiento, en el siglo XX, de la
Teoría de la Relatividad. Entre 1885 y 1889, Hertz descubrió que la
electricidad podía transmitirse en forma de ondas electromagnéticas que se
propagan a la velocidad de la luz conforme Maxwell había anticipado. Este
descubrimiento puso en la agenda histórica las invenciones de la telegrafía y
la radio inalámbrica.
Entre 1885 y 1889 el físico alemán Heinrich R. Hertz desde
su cátedra en la Escuela Técnica de Karlsruhe descubrió que
la electricidad podía transmitirse en forma de ondas
electromagnéticas que se propagan a la velocidad de la luz
conforme Maxwell había anticipado. Este descubrimiento puso
en el orden del día histórico las invenciones de la
telegrafía y la radio inalámbrica. Algunos le consideran su
inventor pero lo cierto es que los 37 años de su breve
existencia le impidieron ir más lejos y cristalizar en
invenciones desarrolladas sus resultados experimentales. La
unidad de frecuencia lleva su nombre y se simboliza por Hz.
En 1892 el físicoquímico William Crookes (18321919) publicó un trabajo en la
revista inglesa Fortnightly Review, en el que proponía las bases para utilizar
ondas electromagnéticas como medio para transmitir señales telegráficas a través
del espacio, es decir, telegrafía sin hilos o inalámbrica.
210
Dos años después el ingeniero italiano Guglielmo Marconi (18741937) leyó la
biografía de Hertz e inmediatamente empezó a trabajar en la idea de usar las
ondas electromagnéticas para transmitir señales. Construyó los aparatos
descritos por Hertz, a los cuales les añadió un cohesor, que es un tubo de
vidrio que contiene limaduras de hierro, y conectó tanto el transmisor como el
receptor a una antena. Una señal eléctrica que pase por el cohesor hace que las
limaduras se unan durante el intervalo que dura la señal; de esta manera este
dispositivo detecta ondas electromagnéticas. En 1895 Marconi probó sus aparatos,
con los cuales logró enviar señales hasta distancias de un par de kilómetros. En
1898 transmitió señales a través del Canal de la Mancha y ya en 1901 logró una
transmisión a través del Océano Atlántico: desde Inglaterra hasta Canadá. Las
señales inalámbricas probaron su efectividad en la comunicación para el trabajo
de rescate durante accidentes marítimos. Numerosas líneas oceánicas instalaron
equipos inalámbricos.
La óptica, la astronomía y el nacimiento de dos nuevas técnicas
El primer tercio del siglo XIX fue testigo de una revolución en el campo de la
óptica. No había transcurrido aún un siglo de la publicación de Opticks cuando
el médico y físico inglés Thomas Young (1773 1829) casi con el nacimiento del
siglo desafiaba la teoría corpuscular de la luz desarrollada por Newton. La
teoría de Young sobre la necesidad de aceptar la naturaleza ondulatoria de la
luz para explicar el fenómeno de interferencia, a pesar de la relevante posición
que ocupó desde 1802 hasta su muerte como secretario externo de la Royal
Society, fue acogida con una buena carga de escepticismo por la ciencia
británica. A una década de los trabajos de Young, el físico francés Augustine
Jean Fresnel (1788 1827) formaliza matemáticamente con gran rigor las leyes
que rigen los fenómenos de interferencia y difracción de la luz.
Desde el inicio del siglo se suceden los descubrimientos que demuestran la
existencia de regiones del espectro de radiación solar invisible para el ojo
humano. En 1800 el astrónomo británico de origen alemán William Herschel (1738
1822) determina experimentalmente la temperatura asociada a cada color del
espectro solar y descubre que justamente por encima del rojo en la región del
espectro visible existe una radiación que tenía más alta temperatura, que puede
ser medida y sentida pero no ser vista: la región infrarroja.
211
En 1818 AgustinJean Fresnel presentó en la Academia de
Ciencias de París un informe con un tratamiento matemático
riguroso de los fenómenos de interferencia y difracción
sobre la base de la teoría ondulatoria propuesta por Young
que le merecieron el premio de la Academia del año
siguiente. Anteriormente, en 1811 junto con el físico
François Arago (17861853) habían establecido las bases de
las leyes de la interferencia de la luz polarizada.
Fresnel había mostrado un lento aprendizaje durante la niñez
y aún com ocho años no había aprendido a leer. Luego fue
egresado de las instituciones de la ingeniería francesa, la
Escuela Politécnica y la Escuela de Puentes y Caminos. Murió
con sólo 39 años, víctima de la tuberculosis, cuando aún
muchos de sus trabajos no habían sido publicados.
Un año después el joven físico alemán, con sólo 25 años de edad, Johann W.
Ritter (1776 1810) descubre que hacia el otro extremo del espectro solar se
extiende luego de la radiación correspondiente al violeta una radiación
invisible que provoca un oscurecimiento más intenso y rápido de las sales de
plata. El espectro de la radiación se ampliaba ahora y "nacía" la región
ultravioleta.
En 1802, el médico inglés William Hyde Wollaston (1766 1828), descubrió las
bandas oscuras en el espectro de la luz solar, que más tarde serían aclaradas
por los estudios de Franhoufer. Wollaston que había abandonado la práctica
médica al perder parcialmente la visión se entregó a las investigaciones
científicas con resultados notables. Por ejemplo invadió el campo de la
mineralogía y al inventar en 1809 el goniómetro de reflexión, instrumento
diseñado para medir los ángulos de los cristales, le dio a esta disciplina todos
los caracteres de una ciencia exacta. También puso en manos de los artistas de
la época un simple instrumento óptico compuesto por un prisma de cuatro caras
sostenido sobre un pequeño soporte que le ayudaba a obtener la perspectiva de la
imagen, la llamada cámara lúcida (1807).
Entre 1812 y 1814 el óptico y físico alemán Joseph von Fraunhofer (17871826)
redescubre las líneas oscuras del espectro solar, e identifica una gran número
de las 500 líneas que podía observar con el espectroscopio de red, inventado por
él, que más tarde sería desarrollado para su aplicación en la espectroscopia
ultravioleta y de rayos X. Las líneas de Franhoufer serían utilizadas
eventualmente para descubrir la composición química de la atmósfera solar. En
1821 inventa la red de difracción construida con 260 alambres dispuestos juntos
212
paralelamente. Pertenece a la extirpe de talentos desaparecidos prematuramente,
víctima de la tuberculosis, con lo cual la ciencia perdía ulteriores
realizaciones.
Muchas de las innovaciones desarrolladas en el siglo XIX a la técnica de la
microscopía se deben al egresado de ingeniería de la Universidad de Bolonia, y
luego profesor de Matemáticas de la Universidad de Modena, Giovanni Baptiste
Amici (1786 – 1863). En 1827 Amici inventó el primer sistema de lentes para un
microscopio acromático y en 1840 introduce la técnica de inmersión en aceite que
minimiza las aberraciones ópticas, y luego en 1855 desarrolla el objetivo de
inmersión en agua. Su interés investigativo abarcó no solo el universo
microscópico sino también el espacio sideral. Un cráter en el lado oscuro de la
Luna perpetúa su memoria.
La teoría ondulatoria sobre la imagen microscópica fue formulada en 1872 por el
físicomatemático alemán Ernest Abbe (1840 1905). Abbe y el fabricante de
material óptico de Jena, Carl Zeiss (1816 1888) inventaron un nuevo aparato
para la iluminación del microscopio. De acuerdo con las deducciones de Abbe,
Zeiss comenzó a fabricar 17 nuevos objetivos de microscopios que pronto se
ganaron una reputación universal por la excelente calidad de las imágenes
obtenidas.
Como resultado de las investigaciones de Zeiss con el químico Otto Schott (1851
1935) sobre las formulaciones de nuevos vidrios de grado óptico introdujeron en
1886 un nuevo tipo de lente objetivo el apochromat. Los objetivos de
Apochromat eliminaron la aberración cromática y llevaron el poder de
213
resolución del microscopio al límite que disfruta hoy. Conforme Abbe había
calculado, ningún refinamiento del vidrio o del cálculo teórico sobre la forma
de la lente podría superar el límite de resolución para luz visible que está
sobre la media micra.
La expansión del conocimiento cósmico estuvo relacionada con el
perfeccionamiento de las lentes telescópicas, el estudio de las perturbaciones
de las trayectorias de diferentes astros a partir de la mecánica celeste
newtoniana, y sobre todo con el análisis espectral de la radiación procedente de
los astros.
Ya a comienzos del siglo XIX, el astrónomo británico, de origen alemán, William
Herschel había descubierto las estrellas dobles. En sus sistemáticas
observaciones de la bóveda celeste pudo apreciar que muy frecuentemente se
encuentran dos estrellas brillantes muy cercanas una de la otra. Como no podía
determinar si se trataba de un alineamiento casual o de un par físico, Herschel
derivó de consideraciones estadísticas que el número de binomios ópticos
observados era mucho mayor que el pronosticado por formación aleatoria. Concluyó
que las estrellas constituyen pares físicos. Posteriormente logró detectar en
algunos casos movimientos de una estrella en torno a la otra, lo que confirmó su
afirmación inicial. Las investigaciones posteriores demostraron que la mayoría
de las estrellas que se ven en el cielo son dobles o incluso múltiples. La
espectroscopia permitía descubrir la existencia de estrellas dobles aún cuando
se encontraran muy próximas y su movimiento orbital fue determinado por los
diferentes efectos Doopler mostrados en sus espectros.
214
Cambridge, James Challis (18031882), el resultado de sus
cálculos sobre la posición precisa de un nuevo planeta más
lejano que Urano, pero inexplicablemente, una información
tan valiosa no recibió la atención merecida y Adams, de
acuerdo con su carácter, no reclamó el necesario examen de
su solicitud.
Desde el Observatorio de Königsberg que dirigió desde los 29 años hasta su
muerte, el matemático y astrónomo alemán Friedrich Wilhelm Bessel (17841846)
emprendió en 1838 la tarea de determinar el paralaje de la estrella 61 Cygni,
perteneciente a la importante constelación del hemisferio norte llamada Cisne
(Cignus), y al resolverla calculó con exactitud por primera vez la distancia de
una estrella a la Tierra en 10,3 añosluz. Sus “Observaciones astronómicas”
fueron publicadas en 1842. Un año antes había anunciado que Sirio, la estrella
más brillante del firmamento, tenía una estrella compañera, lo que se confirmó
diez años mas tarde, al calcularse la órbita de Sirio B. Esta estrella fue
observada en 1862 por el fabricante estadounidense de potentes telescopios Alvan
Graham Clark (1804 – 1887), después se comprobó que era una enana blanca.
El siglo cierra con resonantes éxitos de la ciencia y la técnica en el arte de
atrapar las imágenes de las cosas sobre materiales fotosensibles. No sólo se
hará a partir de ahora perdurable la reproducción en imagen del acontecimiento o
del personaje para todos los tiempos, sino que el hombre ha aprendido a captar
las señales de lejanos confines del universo, contribuyendo a descifrar su
composición mediante una nueva técnica que ha sido llamada espectroscopia.
El descubrimiento de la espectroscopia fue el resultado del estudio de la
interacción entre la radiación visible y la sustancia abordado hacia mediados de
siglo por el físico alemán Gustav Kirchhoff (1824 1887) y el químico Robert
Bunsen (18111899). Según sus resultados, cada elemento cuando se calienta hasta
el estado incandescente emite una luz de color característico que separada en
sus componentes origina un patrón único. Esto hizo posible el nacimiento del
análisis espectroscópico para identificar la composición química de las
sustancias. Pero más lejos aún llegaron con el descubrimiento de que los gases
de los elementos absorbían luz de longitudes de onda específicas. Esto significó
el descubrimiento de un método para identificar la composición química de
remotos astros en el firmamento estelar.
En 1862, fascinado por los trabajos espectroscópicos de Kirchoff y Bunsen, el
astrónomo francés Pierre Jules César Janssen (1824 – 1907) inició sus estudios
del espectro solar. Después de sus observaciones del eclipse solar de 1868 en la
India Janssen sugirió que algunas de las líneas espectrales observadas por
215
encima del extremo del sol eran debidas a un elemento químico hasta entonces
desconocido. Al año siguiente, trabajando en colaboración con el astrónomo
inglés J. Norman Lockyer (1836 – 1920) descubrieron una línea espectral
cromosférica de un elemento desconocido al cual llamaron Helio. Más de un cuarto
de siglo después en 1895 el químico inglés William Ramsay descubrió al Helio en
el laboratorio.
Uno de los pioneros en combinar la espectroscopia con la fotografía fue el
profesor de física de la Universidad de Upsala, Anders Jonas Angstrom (1814 –
1874). En 1862, descubre al hidrógeno en la atmósfera solar mediante el análisis
de su espectro. Angstrom fue el primero en analizar el espectro de la aurora
boreal, en 1867. Después, en el año 1868, publicó un mapa espectrográfico del
sol: "Recherches sur le spectre solaire", que incluye medidas detalladas de más
de 1000 líneas espectrales. Para expresar las longitudes de onda propuso como
unidad de medida la diezmillonésima parte de un milímetro que en su homenaje se
llama Ángstrom. A pesar de no ser reconocida por el sistema internacional de
unidades el Ángstrom (símbolo Å) se utiliza en las medidas atómicas y para las
longitudes de onda de la radiación electromagnética.
El empleo de la espectroscopia combinado con el método que ideó para fotografiar
los espectros, condujo al astrónomo británico William Huggins (1824 — 1910) y
su esposa Margaret Lindsay (1848 – 1915) a relevantes descubrimientos. En 1864
logra la primera evidencia que permite distinguir entre nebulosas y galaxias.
Huggins descubre que algunos sistemas tienen espectros típicos de gases (como la
nebulosa de Orión), mientras otros tienen espectros característicos de las
216
estrellas (galaxia gigante de Andrómeda). Por otra parte los espectros
estelares de Huggins demuestran la unidad material del universo al evidenciar
que las sustancias que componen las estrellas se encuentran también en la
Tierra.
Un problema que desborda la imaginación del hombre fue dilucidado por la
investigación científica justamente en la mitad del siglo XIX. El físico francés
Jean Bernard Leon Foucault (1819 1868) registró la velocidad de la luz en 298
000 km por segundo usando el método del espejo rotatorio. Un año más tarde
descubrió que la velocidad de la luz depende del medio de propagación al
encontrar diferencias en el agua y en el aire.
En 1865 Maxwell determina matemáticamente que las ondas electromagnéticas viajan
a la velocidad de la luz. Maxwell no cree que esto sea una simple coincidencia y
concluye que la luz es un tipo de ondas electromagnéticas. Al respecto
escribiría: "Se nos hace difícil evitar la conclusión de que la luz consiste en
ondas transversales del mismo medio que causa los fenómenos eléctricos y
magnéticos". Esta noción no sólo unifica las teorías sobre la electricidad y el
magnetismo sino también de la óptica. La electricidad, el magnetismo y la luz
pueden ser consideradas a partir de ahora como aspectos de un fenómeno común:
las ondas electromagnéticas.
La alianza de la ciencia con la técnica en el nacimiento de
la fotografía se expresa en un primer plano por las
contribuciones de John W. Herschel (1792 1871) en el
escenario inglés y el apoyo al desarrollo de la técnica en
Francia por el eminente físico François Arago. El
científico británico, publica ya en 1819 sus estudios sobre
la impresión fotoquímica de las imágenes y durante los
siguientes 20 años establece los fundamentos científicos,
los términos básicos de la fotografía, descubre la acción
del tiosulfato de sodio sobre las sales de plata y brinda
valiosa ayuda privada a Fox Talbot. En París, Arago actúa
como promotor de los trabajos de Daguerre tanto en la
Academia de Ciencias como en la Cámara de Diputados
de la capital francesa.
Maxwell también contribuye en el terreno de la práctica al desarrollo de la
fotografía en colores. En 1861, su análisis sobre la percepción del color
condujo a la invención del proceso tricromático. Mediante el uso de los filtros
rojo, verde y azul creó la primera fotografía en color. El proceso tricromático
es la base moderna de la fotografía en color.
217
Atrapar la imagen en materiales fotosensibles fue una tarea que tocó a las
puertas de físicos y químicos y exigió la alianza de la ciencia y la técnica. A
los 61 años, el físico francés Joseph Nicéphore Niépce (17651833) en la París
de la tercera década del XIX, expone una placa de estaño recubierta con un betún
(derivado del asfalto) durante unas ocho horas en la cámara obscura enfocada
hacia el patio de su casa y obtiene la imagen que es considerada por los
expertos como la primera fotografía obtenida.
Este proceso fue bautizado por Niépce como Heliografía o "grabado con la luz
solar". Desde otro frente francés, el pintor Louis Jacques Mandé Daguerre (1787
1851) fijaba la imagen mediante largas exposiciones, en la cámara obscura, con
placas de cobre recubiertas con plata pulida y sensibilizadas con vapor de yodo
hasta que la imagen aparecía en ellas.
Mientras en Francia tenían lugar los estudios de Daguerre, en Londres el
científico William Henry Fox Talbot (1800 1887) iba por un camino diferente
hacia el objetivo común. Se discute si el descubrimiento de la imagen latente y
posterior revelado es obra de Daguerre o de Talbot, pero se conoce que fue
Talbot el primero en emplear como sustancia fotosensible el yoduro de plata,
como revelador el ácido gálico y como fijador el tiosulfato sódico. El calotipo,
que así le llamó a su técnica, fue reemplazado a los pocos años pero sentó las
bases de la fotografía moderna y produjo la más decisiva revolución en el
dominio de la imagen: el negativo que permite sucesivas copias.
Talbot publicó en 1844 el primer libro ilustrado con fotografías, "The pencil
of Nature", el cual contiene una detallada explicación de sus trabajos. A
partir de entonces se desarrolla una carrera de invenciones que persiguen
emplear medios de fijación más eficaces y que permitieran reducir los tiempos de
exposición. Cuatro décadas más tarde George Eastman (18541932), inventor
estadounidense, patentó la primera película en forma de carrete que empezó a
ser práctica. Se habían superados las principales barreras para la inauguración
de la era fotográfica.
Ya en tiempos de la Grecia antigua se conoció el fenómeno de la persistencia de
la imagen en la retina. Pero su cabal comprensión sólo fue posible a partir de
los estudios del físico belga Joseph Antoine Plateau (1801 1883).
218
Sesenta y tres años después de la invención del disco mágico
de Plateau los hermanos Lumière, Louis (18641948) y Auguste
(18621954), patentaron el cinematógrafo, un dispositivo que
funcionaba como cámara de cine, proyector e impresor de
copias. Se cumplía en este ingenio el principio establecido
por Plateau: una manivela se ocupaba del arrastre
intermitente de la película a una velocidad de 16 imágenes
por segundo. Casi al finalizar el 1895, un 28 de diciembre,
se estrenaba en París las primeras películas rodadas cada
una con un minuto de duración. La época del séptimo arte
había nacido y con él una nueva industria generalmente
dominada por las leyes del mercado.
Plateau no sólo condujo los experimentos demostrativos de los factores
influyentes en la persistencia retiniana sino que inventó en 1832 un dispositivo
precursor del cine, el llamado disco mágico de Plateau que rodando las imágenes
a una velocidad superior a 10 cuadros por segundo, lograba dar la impresión de
animación de las imágenes. Plateau perdió la vista en medio de su consagración a
los experimentos y no pudo arribar a la invención del cine. El tremendo impacto
que tuvieron las primeras proyecciones en el nuevo público espectador anunciaron
las potencialidades de la nueva técnica naciente. La primera cinta filmada por
los hermanos Lumiere: "Salida de los obreros de la fábrica Lumière" constituyó
un importante documento social antecesor de los primeros documentales.
Antecedentes de un nuevo paradigma atómico
Por otra parte, en los últimos 25 años del siglo se producen los antecedentes
inmediatos para un cambio de paradigma en la concepción del átomo y la
consiguiente necesidad de la elaboración de un modelo atómico:
∙ En 1879, William Crookes (1832 – 1919) investigando el paso de la
electricidad a través de un gas enrarecido en un tubo de descarga, pudo
descubrir la emisión de un haz de rayos que se propagan en trayectoria
rectilínea, a los que llamó rayos catódicos.
∙ Johaann Jakob Balmer (1825 –1898), al estudiar el espectro de
emisión del Hidrógeno, establece en 1885 que sus líneas espectrales se pueden
agrupar en series cada una de las cuales converge a una frecuencia dada. Más
tarde, Rydberg (1854 – 1919) obtiene la ecuación empírica para calcular la
219
longitud de onda de la luz correspondiente a cada línea espectral en la serie
de Balmer.
∙ Dos años después de que en 1893 el mundo conociera asombrado el
espectáculo de la iluminación eléctrica en la Exposición Mundial de Chicago,
los resultados de la experimentación con el paso de la electricidad a través
de un gas enrarecido en un tubo de descarga estremecerían las concepciones
físicas de la época. Jean Perrin (1870 – 1942), en 1895, al estudiar el
comportamiento de los rayos catódicos en el tubo de Crookes, cuando se
exponen a la acción de un campo magnético, demuestra que constituyen
partículas cargadas negativamente. Este propio año de 1895 nos trae el
reporte de Roentgen acerca de una nueva radiación observada en el tubo de
descarga de Crookes, emitida esta vez por el anticátodo a la cual llamó, ante
la polémica surgida acerca de su naturaleza corpuscular u ondulatoria, rayos
X.
El 8 de noviembre de 1895, el físico alemán Wilhelm Conrad
Roentgen (1845 – 1923) descubre unos extraños rayos que
exhiben un alto poder de penetración. Ante el
desconocimiento de su naturaleza, los llama rayos X, como en
álgebra se designa a la incógnita. En diciembre él los había
usado para tomar fotos de los huesos humanos, y al año era
bien comprendido su extraordinario valor práctico. La rápida
difusión de los rayos X a través del mundo, demostró la
forma en que científicos, ingenieros, e inventores podrían
convertir descubrimientos fundamentales en revolucionarias
tecnologías en el entrante siglo XX.
Un año después del descubrimiento de Roentgen, Antoine H. Becquerel (1852 –
1908), físico por herencia, descubre casualmente que ciertas sales de
uranio emiten una radiación invisible. En 1898, a dos años del descubrimiento
de la radiación de Becquerel, Marie Sklodowska (1867 – 1934) y Pierre Curie
(1859 – 1906), al analizar ciertos minerales uránicos descubrieron un metal
vecino del Bismuto en la Tabla Periódica al cual llamaron, en honor al país
natal de Marie, Polonio. Otros dos radioelementos serían descubiertos en el
laboratorio de los Curie antes del fin de siglo: el radio y el actinio. A los
elementos de núcleos inestables “los transuránicos” le correspondería jugar
un papel sin precedentes en la historia del hombre: el dominio de la llamada
energía nuclear.
∙ Al determinar experimentalmente la relación carga –masa de los rayos
catódicos, Sir Joseph John Thomson, (1856 1940) demuestra inequívocamente
220
que se tratan de partículas subatómicas y por consiguiente es universalmente
reconocido como el científico que descubre e identifica el electrón. Sucesor
de Maxwell en la dirección del Laboratorio Cavendish en Cambridge, Thomson
recibe el Premio Nóbel de Física en 1906, y archiva el merito de que siete de
sus investigadores asistentes, incluyendo a su hijo George merecieron
igualmente este galardón.
Estos hechos experimentales reclamaban la construcción de un modelo atómico.
Tales modelos aparecieron ya en el siglo XX dando así lugar al nacimiento de la
Física Atómica y a la Física Nuclear y al dominio por el hombre de inusitadas
fuentes de energía.
Al siglo XIX pertenece la primera patente sobre un sistema de televisión
electromecánico. Esta fue obtenida en 1884 por un estudiante de ingeniería,
alemán, Paul G. Nipkow (1860 –1940). Nipkow imaginó la posibilidad de provocar
la disección secuencial de una imagen, su transmisión y su recepción sincrónica,
recomponiéndola en una pantalla. Al hacer esto estaba apuntando hacia el
principio de exploración de la imagen en el sistema de televisión. Un disco
rotatorio con un sistema de rendijas que permitía el barrido de la imagen y la
proyección de las diferentes intensidades de luz sobre un elemento de selenio
fotosensible capaz de generar una señal eléctrica proporcional a la luminosidad
del punto explorado, fueron los elementos de la primitiva imagen de 18 líneas
que lograba. Algo más de un lustro después de la patente de Nipkow, que
adelantaba el primer sistema de televisión electromecánico, el ingeniero
eléctrico Alan Archibald Campbell Swinton (1863 – 1930) expone en la Sociedad
Roentgen de Inglaterra un esquema que en principio constituye el sistema de la
tecnología televisiva actual. Otros 24 años hicieron falta para que la idea de
Campbell se transformara en el primer sistema mundial de fotografía electrónica.
221
Vasos comunicantes con la Química
Los vasos comunicantes entre la Física y la Química aparecen casi en cada
descubrimiento de esta última disciplina. Cuando con el nacimiento del siglo XIX
el fisicoquímico inglés John Dalton (1766 – 1844) publicara su obra “Nuevo
sistema de filosofía química” defendía un modelo de átomo como partícula
indivisible en las reacciones químicas que parece un retorno a las ideas de los
atomistas griegos pero que sitúa en su centro a la masa newtoniana como la
propiedad distintiva de los átomos. A partir de este momento, las diferencias
observadas en las propiedades de los elementos se pretenden relacionar con el
peso atómico.
A los avances en el dominio de la electricidad, corresponde el nacimiento de la
electroquímica, el desarrollo de técnicas electrolíticas que permiten el
descubrimiento de nuevos elementos, y la invención de dispositivos que
aprovechan la energía química para la generación de electricidad. Como
resultados de los adelantos en el campo de la óptica y la producción de nuevos
instrumentos ópticos, aparecen las técnicas analíticas espectroscópicas que
permiten determinar la composición de gases y minerales. Los progresos en el
terreno de la termodinámica determinan la comprensión y el gobierno de los
procesos químicos.
En 1804 el profesor de Física de la Sorbona Joseph L. GayLussac (1778 1850)
incursionó en la tradición francesa de los vuelos en globos para estudiar la
composición y temperatura del aire a diferentes altitudes. Cinco años después,
GayLussac enunció la ley de los volúmenes de combinación de los gases. Hacia
1811, el físico italiano Amadeo Avogadro (1776 1856) sugirió que volúmenes
iguales de cualquier gas a la misma temperatura y presión contienen el mismo
número de partículas, postulado que pasa a la Historia como "Ley de Avogadro".
La combinación de la noción de molécula y esta hipótesis explicaba perfectamente
la ley de los volúmenes de combinación. Sin embargo no fue hasta el Congreso de
Karlsruhe, ya desaparecido Avogadro, que Stanislao Cannizaro (1826
1910) demuestra la importancia de sus conceptos para obtener no sólo las masas
moleculares, sino también indirectamente las masas atómicas.
222
tubos de descarga, los rayos catódicos. Comienza entonces un
período de crisis de la Física que da pie a la Revolución
Científica del XX.
La necesidad de explicar en virtud de qué tipo de fuerzas se enlazan los átomos
se erige en problema, y entre los primeros intentos por aclarar este enigma se
destaca la teoría electroquímica creada por el químico sueco Jons J. Berzelius
(1779 – 1848) en momento tan temprano como el 1810. Su original hipótesis
considera que cada átomo tiene dos polos de signos contrarios, pero predomina
uno. Así clasificaba a los elementos como electropositivos o electronegativos
según predominara el polo positivo o negativo del átomo. Siguiendo su hipótesis
la fuerza atractiva entre los átomos enlazados era un resultado de la atracción
entre los polos predominantes de cada átomo. El período de vida de tal teoría, a
pesar de sus interesantes bases, fue relativamente fugaz al no poder explicar la
existencia de las agrupaciones atómicas (moléculas) estables constituidas por
átomos de igual naturaleza (concebidas por Avogadro) y por tanto de la misma
predominante polaridad.
Dos factores contribuyeron de forma decisiva al vertiginoso descubrimiento de
nuevos elementos químicos que acompañó al siglo XIX: la aplicación de la pila
voltaica y los ingenios que se inventaron posteriormente para conducir la
descomposición de las sustancias; y la introducción de las técnicas espectrales
al análisis de muestras de minerales tratadas convenientemente.
La Antigüedad reconoció siete elementos metálicos (oro, plata, hierro, cobre,
estaño, plomo y mercurio) y dos no metales (carbono y azufre); el esfuerzo de la
alquimia medieval sumó el conocimiento de otros cinco (arsénico, antimonio,
bismuto, cadmio, zinc y fósforo); y el siglo XVIII, con el estudio de los gases
dejó como fruto el descubrimiento de cinco nuevos elementos (hidrógeno, flúor,
cloro, nitrógeno y oxígeno) mientras el análisis de minerales aportaba la
identificación de 14 elementos, trece de ellos metales típicos y un semimetal,
(cobalto, platino, níquel, magnesio, manganeso, tungsteno, molibdeno, uranio,
zirconio, titanio, ytrio, berilio, cromo y teluro). En total a las puertas del
siglo XIX eran conocidos 35 elementos químicos, una década después del
descubrimiento de Mendeleiev hacia 1880, se había duplicado el número de
elementos químicos conocidos. Ochenta años de actividad científica habían
igualado más de seis milenios de práctica humana.
En la década del 30 el químico y meteorólogo británico John Frederic Daniell
(1790 1845) se sintió profundamente interesado en los trabajos de su amigo
Faraday y giró el centro de su actividad hacia la Electroquímica. Los
experimentos de Daniell por mejorar la batería de Volta con sus problemas de dar
223
una inestable y débil fuente de corriente datan de 1835. Un año después el
inventó una celda primaria en la cual el dihidrógeno fue eliminado en la
generación de electricidad y por tanto había resuelto el problema de la
polarización. Hacia fines de esta década la pila de Daniel era usada para
alimentar de energía los nacientes sistemas telegráficos de Gran Bretaña y los
Estados Unidos.
La primera pila secundaria o acumulador es inventada en 1859 por el físico
francés Gastón Planté (1834 1889). Este invento puede ser considerado una de
las grandes contribuciones de la química al desarrollo de los móviles
terrestres. Cuando entre 1885 y 1887 ingenieros alemanes fabricaron los
primeros automóviles de gasolina eficaces, disponían ya de los acumuladores para
generar la corriente eléctrica necesaria.
Hacia la mitad del siglo se configuran otros enfoques de los estudios
estructurales que esquivando el problema de la naturaleza de las fuerzas
químicas elaboran importantes conceptos como el de la valencia y la isomería
estructural de las sustancias orgánicas en un esfuerzo por aclarar la forma en
que se enlazan los átomos en la estructura particular de la sustancia y edificar
un sistema de símbolos y notaciones que permitieran una comunicación universal.
La línea de pensamiento defendida por el químico británico Edward Frankland
(1825 1899) admite como posible la determinación de la estructura de las
moléculas e introduce el concepto de valencia como pieza clave para cumplir esta
tarea. La valencia vendría a expresar la capacidad de un átomo de formar
compuestos con un número dado de átomos de otro elemento. Tomada la valencia del
hidrógeno igual a la unidad, se puede considerar que la valencia de otros
elementos está dada por el número de átomos de hidrógeno que se unan al átomo
del elemento dado.
224
El desarrollo ulterior de las ideas de Frankland tienen como principales
protagonistas a quien fue a la Universidad de Giessen a titularse de arquitecto
y terminó, cautivado por Liebig, convertido en arquitecto de las moléculas
orgánicas, el químico alemán de descendencia checa August Kekulé von Stradonitz
(1829 1896) y al académico ruso Alexander Mijailovich Butlerov (18281886). En
1862 arribó al laboratorio de Kekulé el profesor de la Universidad de Kazán con
sus ideas acerca de la orientación tetraédrica de los enlaces de los átomos de
carbono. La integración de los supuestos de ambos investigadores conducen a las
principios siguientes: la unión de los átomos ocurre en correspondencia con su
valencia; los átomos se enlazan en la molécula en un orden determinado; las
propiedades de las sustancias dependen no sólo de la naturaleza y cantidad de
los átomos que la constituyen sino del orden y disposición en que estos se unen,
es decir de la estructura molecular.
Al inicio de los setenta, el físicoquímico holandés Jacobus
Henricus van't Hoff (1852–1911) trabajó en Bonn durante un
año con Kekulé y se informó del repertorio de nociones que
sobre el enlace habían desarrollado de manera independiente
su tutor y Butlerov. En 1873 van't Hoff se trasladó a París a
trabajar en el laboratorio de Charles Adolphe Wurtz (1817
1884) y allí se dio cuenta de que la actividad óptica
observada por determinadas sustancias orgánicas,
descubrimiento realizado por Pasteur (1822 – 1895), podía ser
explicada en términos de la orientación tetraédrica de las
valencias del carbono. Otro graduado que trabajaba en el
laboratorio de Wurtz, el francés Joseph Achille Le Bel (1847
1930), de forma independiente arribó a la misma explicación
de la actividad óptica. Un trascendental paso se había dado
al aceptar la posibilidad de penetrar en la estructura de las
moléculas para explicar sus propiedades sobre la base de
reflejar no una estructura hipotética sino una estructura con
realidad física. La temprana aplicación que hace van't Hoff
de la termodinámica y de la cinética a las reacciones
químicas, lo convierten en uno de los padres de la Física
Química. Inaugura en 1901 la selección de la Academia Nobel
recibiendo el Premio de Química.
Un cambio de paradigma en el estudio sistemático de las propiedades de los
elementos químicos fue dado por el descubrimiento de la Ley Periódica de los
elementos químicos. En 1869, el químico ruso Dimitri Mendeleiev (1834 – 1907)
defendió la tesis de que una variación regular en las propiedades de los
225
elementos químicos se podía observar si estos se ordenaban en un orden creciente
de los pesos atómicos. La edificación de la tabla periódica de Mendeleiev
no solo dio lugar a la clasificación de los elementos químicos en familias
o grupos sino que posibilitó la predicción de la existencia de elementos
químicos aún no descubiertos y de las propiedades que estos debían exhibir. La
sorprendente correspondencia entre estas predicciones y los descubrimientos de
nuevos elementos que se producirían en los años subsiguientes demostró la
validez de la ley periódica. Por estas aportaciones Mendeleiev es muy recordado
pero es menos reconocido por su postura antizarista que lo lleva ya con 56 años
a la renuncia a su cargo de catedrático universitario.
Un par de violaciones en la Ley Periódica de Mendeleiev y el descubrimiento de
una nueva familia de elementos que se había mantenido oculta a la búsqueda de
los químicos vendría a demostrar el carácter temporal de esta ley que debía ser
sometida a reformulación en las décadas próximas. Los gases nobles aparecieron
en escena gracias a los trabajos del físico John William Strutt Rayleigh (1842
1919), y el químico Willliam Ramsay (18521916) cuando descubren que un gas
inerte de masa atómica 40 constituye el 0,93% de la atmósfera. En 1894 se
produce el anuncio del nuevo elemento que no encaja en los grupos de la Tabla
Periódica de la época y que recibe el nombre de Argón (del griego: argos,
inactivo). Cuatro años después los trabajos de Ramsay acusan la existencia de
otros tres gases inertes: neón, criptón y xenón.
El mérito de relacionar, en un cuerpo teórico coherente, las tres magnitudes que
caracterizan termodinámicamente un proceso químico: la variación de energía
libre, la variación de entalpía y la variación de entropía corresponde a Josiah
Gibbs (1839 – 1910). A partir de sus trabajos publicados en la década de los
setenta la Termodinámica se convierte en una disciplina de capacidad predictiva
para evaluar la tendencia de una reacción a verificarse en una dirección dada.
En otras palabras, la reversibilidad del fenómeno químico a partir de entonces
comienza a tratarse en términos cuantitativos.
Gibbs es reclamado como matemático por sus aportaciones al análisis vectorial,
físico por su interpretación estadística de los fenómenos termodinámicos y
químico por considerarse fundador de la Termodinámica Química. Nació y murió en
su Connecticut y publicó en lo que hoy llamaríamos una revista de poca
visibilidad. Por esta razón, sus trabajos sólo fueron conocidos en la Europa,
centro de las Ciencias en la época, una década más tarde.
226
Los primeros elementos de una teoría que explicara los
fenómenos electrolíticos van a ser desarrollados en 1884 por
el físicoquímico sueco Svante August Arrhenius (1859 –
1927). Esta teoría marca el inicio de una nueva rama del
saber químico: la Electroquímica. Sin embargo, las bases de
esta teoría fueron defendidas en su tesis doctoral y mereció
la mínima calificación por parte del Tribunal al que
correspondió evaluarla. Un ulterior desarrollo de estas ideas
le valió para que la Historia lo reconozca como uno de los
pioneros de la Electroquímica. La Academia Nobel le confirió
el premio de Química en 1903. En otro orden de cosas,
Arrhenius fue uno de los primeros en desarrollar la polémica
hipótesis conocida como Panspermia. Según esta teoría, la
vida fue introducida en nuestro planeta desde lejanos
confines del universo en forma de microorganismos
transportados en meteoritos.
Una sorprendente relación entre materiales de atractivas propiedades físico –
mecánicas, explosivos y medicamentos fue encontrada en el siglo XIX por
investigadores que iniciaron una revolución en la ciencia de los materiales y
por otra inauguraron una nueva época de la industria de los explosivos, aliada
de la construcción y lamentablemente de la guerra.
La invención de la primera materia plástica del mundo se debió al joven
estadounidense John Hyatt (1837 –1920) quien sin ninguna preparación en Química
logra en 1865 producir mediante el tratamiento con calor y presión de una
mezcla de nitrocelulosa (sustancia explosiva), alcanfor y alcohol, un nuevo
material llamado celuloide. Nacían los objetos plásticos y traían, junto a las
propiedades atractivas de estas sustancias, un imperdonable defecto: la vida
oculta de la nitrocelulosa le hacía ser inflamable e incluso podían estallar.
Mejorar las propiedades de estos materiales parecía una tarea del orden del día,
pues entre otros objetivos de la época se imponía la obtención de nuevos
materiales para grabar imágenes y sonidos.
La investigación de los explosivos nacía aliada a fines bélicos con la
utilización del algodón pólvora inventado por el químico alemán Schonbein (1799
– 1868) en 1846. En 1847 el italiano Ascanio Sobrero (1812 1888) descubre la
nitroglicerina sustancia que combina propiedades terapéuticas y explosivas. La
nitroglicerina era sorprendente pues no había que encenderla para que explotara
sino que estallaba sólo por percusión. Respecto a su descubrimiento Sobrero
sentenció: "cuando pienso en todas las víctimas de las explosiones de la
227
nitroglicerina, y el estrago terrible que ha sido causado, que con toda
probabilidad continuará ocurriendo en el futuro, me siento casi avergonzado de
admitir haber sido su descubridor."
Nobel consagró su vida al estudio de los explosivos y fue el
inventor de toda una nueva generación de explosivos nitrados
orgánicos. Tales explosivos resultaron responsables de la
muerte de muchos en los campos de batalla y permitieron al
constructor abrir pasos, túneles y yacimientos. Una parte del
inmenso capital amasado por sus invenciones fue legado para
la instauración de los célebres premios Nóbel. En su herencia
deja constancia "es mi deseo expreso que en la concesión de
los premios ganadores ninguna consideración tenga la
nacionalidad de los candidatos...”
Resonancias en la Biología
En este siglo continúan manifestándose, aunque aún débilmente, los trabajos en
que la Física y la Biología convergen o en que la física aporta instrumentos y
visiones para comprender el mundo de los seres vivos. Serían impensables los
trabajos fundacionales de Schleiden y Schwann, Pasteur, Koch o de Fleming sin
los adelantos en el campo de la óptica, concretamente en el área de la
microscopía. Dedicaremos por consiguiente apenas unos párrafos a describir los
logros más sobresalientes de la Biología relacionados con los progresos de los
ámbitos de la Física.
El aislamiento del bacilo del carbunco por parte del médico alemán Robert Koch
(18431910) en 1876 constituyó un hito histórico, ya que por primera vez pudo
demostrarse sin duda cuál era el agente causante de una enfermedad infecciosa.
228
Quedó claro que las enfermedades infecciosas no estaban causadas por sustancias
misteriosas, sino por microorganismos específicos, en este caso bacterias. Koch,
galardonado con el premio Nobel, aisló varias bacterias patógenas, incluida la
de la tuberculosis, y descubrió los vectores animales de transmisión de una
serie de enfermedades importantes. Se inaugura una nueva ciencia: la
bacteriología al tiempo que la práctica médica inicia una verdadera revolución.
En el laboratorio donde se gestó el descubrimiento del bacilo de la
tuberculosis, Paul Ehrlich (1854 – 1915) contrajo la enfermedad y se curó
mediante la terapia desarrollada precisamente por Koch. Ehrlich inició sus
trabajos en el campo de la quimioterapia determinando la selectividad de las
sustancias colorantes por células y tejidos específicos para luego evaluar sus
posibles propiedades terapéuticas sobre microbios patógenos.
Cuando en 1865, Pasteur expone su teoría de los germénes como agentes causales
de las enfermedades infecciosas, el médico británico Joseph Lister (1827 1912)
se desempeñaba como cirujano de la Enfermería Real de Glasgow, y conocía que el
45 50% de las amputaciones que practicaba terminaban en la muerte como
resultado de la sepsis de las heridas. La visión de Pasteur le hizo considerar
que los microbios en el aire eran la causa de la putrefacción en las heridas.
Para 1869, Lister había inventado un spray de ácido carbólico (hoy llamado
fenol) cuya disolución actuaba como desinfectante. A pesar de cierta oposición
inicial, sus demostraciones públicas convencieron a la comunidad de cirujanos de
la importancia de aplicar sus métodos. Hacia 1878, Koch demostraba la utilidad
de tratar con vapor los instrumentos quirúrgicos. En 1891, abrió las puertas en
Londres, el primer Instituto de Medicina Preventiva.
La actividad científica del científico francés Louis Pasteur
(1822 – 1895) quien recibió la calificación de mediocre en su
Tesis de Grado, cubre más de tres décadas de la segunda mitad
del siglo y es gestora de nuevos ámbitos del conocimiento
científico. En sus investigaciones sobre el carbunco descubre
el poder antibiótico de algunas bacterias saprofíticas sobre
el bacilo, lo que constituye el primer antecedente de la era
de los antibióticos, y llega a desarrollar en 1881 una vacuna
eficaz para prevenir la enfermedad. Pronto se inscribiría en
el orden del día histórico las investigaciones sobre los
antibióticos.
Los problemas socioeconómicos de un contexto, el desarrollo
de la época y el talento de Pasteur constituyeron fuerzas
motrices para desatar un complejo proceso que representa la
etapa fundacional de una nueva ciencia: la microbiología.
229
La teoría edificada en 1838 1839 por el botánico Matthias Jakob Schleiden
(1804 – 1881) y el fisiólogo Theodor Schwann (1810 – 1882) que reconoce la
célula como unidad de estructura y función de los organismos vivos constituyó un
estímulo para el asalto a la composición química de las sustancias contenidas en
las estructuras celulares. Schwann es considerado fundador de la histología
moderna y pionero en aplicar la teoría celular a la evolución, mientras que su
colega Schleiden es reconocido como el padre de la embriología. Sus trabajos
contribuyeron a unificar la botánica y la zoología bajo una teoría común. Sin
embargo, el nuevo método propuesto por Scheleiden para estudiar la estructura de
las plantas a través del microscopio fue desestimado por sus contemporáneos
empeñados aún en la clasificación tradicional.
Décadas más tarde se iniciarían los esfuerzos para descifrar la base molecular
de los misterios de la vida en la estructura celular. En 1868, el químico suizo
Johann Friedrich Miescher (18441895) descubre en el núcleo de las células de
los glóbulos blancos, una sustancia de naturaleza ácida, rica en fósforo y
nitrógeno, compuesta por moléculas muy grandes, a la que nombra nucleína. En
1889 el patólogo alemán Richard Altmann (1852 –1900), discípulo de Miescher,
lograba separar por vez primera las proteínas de la “nucleína”, llamando a la
otra sustancia ácido nucleico. Se iniciaban con Miescher las investigaciones
sobre la base molecular de la herencia, en un lugar cercano a dónde el monje
checo Gregor Mendel (1822 – 1884) había formulado sus famosas leyes empíricas
sobre los factores hereditarios. Se ha afirmado que Miescher en correspondencia
fechada en 1892, comenta que la nucleína era una molécula muy compleja, cuya
isomería podía proporcionar un número suficiente de moléculas, portadoras de
innumerables características hereditarias. En una analogía que hoy causa asombro
apunta que esta multiplicidad estructural podía compararse con la variedad de un
idioma que encuentra como expresión la combinación de una veintena de
letras. Semejante símil no entró en el repertorio de ideas de las ciencias hasta
que más de medio siglo después el premio Nobel de Física, Erwin Schrödinger
(18871961) introdujera el concepto de código genético.
Medio siglo después de la publicación de la teoría celular
el eminente científico español Santiago Ramón y Cajal (1852
1934) descubre, durante su período de ejercicio catedrático
en la Universidad de Barcelona, la estructura de las células
nerviosas y anticipa los mecanismos de la transmisión de
los impulsos nerviosos. En 1906 comparte el Premio Nobel de
Medicina con el citólogo italiano Camillo Golgi (1844
1926).
230
La vida de Cajal se relaciona con Cuba de manera trágica.
Enrolado en el servicio médico militar viene a la isla en
una expedición en 18741875, cuando se libraba la primera
gesta de independencia conocida por la "Guerra de los Diez
Años". En los campos de la Cuba Insurrecta enferma de
malaria, disentería y finalmente de la tuberculosis que lo
hiciera padecer toda su vida.
Cuando en 1866 sale de imprenta el Boletín de la Sociedad de Ciencias Naturales
de Brno con el artículo “Experimentos con plantas híbridas”, firmado por el
monje checo Gregor Mendel (1822 – 1884), quedaban establecidas las primeras
leyes que explican el mecanismo por el cual las características de los
progenitores se transmiten a sus descendientes. Sus experimentos constituyen un
ejemplo de la traslación a las ciencias biológicas del paradigma de las
investigaciones cuantitativas de las ciencias físicas. De la aplicación de la
estadística a los resultados experimentales obtenidos en el cruzamiento de
plantas, Mendel deduce que cada uno de los caracteres del organismo está
determinado por un par de “factores”, que son aportados uno por cada progenitor.
Estas “unidades hereditarias” no se mezclan, sino se transmiten con toda la
información sólo que uno de los factores resulta dominante sobre el otro. Pero
el acto fundacional de la Genética no fue “registrado” por la Comunidad
Científica hasta principios del siglo XX.
Con el teñido de las células por los colorantes derivados de la anilina
sintetizados en el verano de 1856 por el químico británico William Perkin (1838
– 1907), el médico alemán Walter Flemming (1843 – 1905) pudo observar al
microscopio la existencia en el núcleo de estructuras en forma cambiantes, que
absorbían fuertemente el colorante, a las cuales nombró cromatina. Lo más
trascendente de su hallazgo fue revelar en 1884 que durante la mitosis celular
tales estructuras adoptan forma de cintas y se dividen longitudinalmente en dos
mitades idénticas. Se ofrecía el primer resultado experimental que acusaba la
existencia de estructuras en el núcleo que se segregaban en pares a las células
hijas durante la división celular. Especialmente útil habría sido para Fleming
haber contado con los resultados de Mendel y relacionar sus factores con las
mitades de las estructuras en cintas pero esta posibilidad no fue dada entonces
por la historia. Tocaba a las puertas del conocimiento humano la teoría
cromosómica de la herencia.
En tanto Cajal se encuentra estudiando la fisiología de las neuronas, el
científico ruso Ivan Pavlov (1849 1936) descubre los reflejos condicionados y
desarrolla nuevos métodos que suponen una revolución en las investigaciones
231
fisiológicas durante el período de 1891 1900. Conduciendo los experimentos
con el uso extensivo de fístulas que permitieron observar directamente el
funcionamiento de los órganos bajo condiciones relativamente normales, Pavlov
demostró que el sistema nervioso juega un rol dominante en el proceso digestivo
y este descubrimiento es la base de la moderna fisiología de la digestión.
Mereció por este descubrimiento en 1904 el Premio Nobel de Medicina y
Fisiología.
En la naciente tradición de la biofísica destaca la obra del
físico alemán Herman von Helmholtz (1821 1894). Helmholtz
representa el investigador incansable, capaz de estudiar
cuantitativamente el fenómeno del calor animal, y las
fuerzas eléctricas asociadas al movimiento muscular. Su
penetración en la fisiología de la visión se tradujo en la
más importante obra que se conoce sobre este campo
"Physiological Optics", y en la invención del oftalmoscopio,
instrumento de inestimable valor en medicina.
En su vida personal conoce la muerte de su primera esposa y
de su único hijo varón. Helmholtz fallece a los 73 años,
cuando se mantenía como profesor de Física de la Universidad
de Berlín y ocupaba el cargo de director del Instituto
Físico Técnico de Charlottenburgo, cerca de Berlín. Es uno
de los primeros biofísicos de la Historia.
Al correr las cortinas del siglo XIX el avance de las Ciencias Físicas podía
calificarse de colosal.
El desarrollo del instrumental matemático permitió la formalización de la
Termodinámica Estadística y la Teoría Electromagnética, y va a cimentar el
despegue en la próxima centuria de la Informatización y de la Mecánica Cuántica.
La Física siguió promoviendo el desarrollo de otras ciencias. Las zonas de
interpenetración continuaron ensanchándose y ya a fines de siglo la Física –
Química exhibía notables adelantos como corpus de conocimientos, se consolidaba
como área de trabajo de personalidades e instituciones y fomentaba numerosos
progresos en el orden práctico. El paradigma atómico en el ámbito químico
sienta las bases teóricas que iluminan la aparición de los primeros productos
sintéticos y de una nueva industria que persigue superar las cualidades de los
productos naturales. El dominio de la electricidad empujó el descubrimiento de
más elementos químicos en unas décadas que en todo la práctica humana anterior.
Los avances en la espectroscopia y en óptica permitieron una nueva mirada hacia
232
el cosmos y descubrieron la composición de estrellas, galaxias y nebulosas,
demostrando la unidad material del universo.
En la incursión hacia el mundo microscópico la Física fue una aliada estratégica
de la Biología aportando instrumentos y visiones para comprender los procesos de
los seres vivos. El asalto a la composición y estructura de importantes
biomoléculas hacia fines del siglo pronosticaba la conquista de los misterios de
la vida como tarea integradora de las ciencias del siglo XX.
En su relación con la práctica y la innovación tecnológica, la Termodinámica
ofreció los fundamentos de los sistemas llamados máquinas térmicas y de los
mecanismos de refrigeración; pero lo más trascendente del siglo serían los
avances en la Teoría Electromagnética que trajo una nueva concepción del cuadro
físico del mundo y posibilitó una lluvia de inventos eléctricos que
transfiguraron la comunicación y la existencia humana.
Del lado de la técnica el siglo iba a decir adiós con una explosión de
invenciones jamás conocida por una generación de la especie humana: se había
logrado la impresión fotoquímica de la imagen y abierto paso a una nueva técnica
arte, la fotografía; el registro de la voz humana y de la música en un disco
permitía oír a un Caruso sin haber asistido a sus conciertos; la producción y
transmisión de la energía eléctrica hasta hogares y fábricas había puesto al
servicio del hombre una nueva fuerza motriz, y una iluminación artificial que
transformaba la vida nocturna de las grandes urbes nacientes; la revolución en
el transporte marítimo y terrestre daría una velocidad de movimiento al hombre
que abreviaría las distancias y creara una nueva dimensión del tiempo... Pero
las fotos pronto iban a ganar celebridad por grabar los horrores de la Guerra de
Secesión de los Estados Unidos, carruajes y navíos pronto serían artillados y
puestos al servicio de la tecnología bélica; nuevos códigos dentro de los
sistemas de comunicación pretenderían hacer indescifrables los mensajes que los
nuevos servicios de las comunicaciones brindaban a los estados mayores, y una
demencial carrera bajo la sombra del espectro de la guerra acompañaba al hombre
como reflejo de poderosos intereses económicos que se encubrían en otras razones
aparentemente más nobles. Una irracional distribución de las riquezas del
planeta acumulaba bienes hacia un polo a costa del despojo de los otros...
233
Justamente dos siglos después de la publicación de los
Principia de Newton, en 1887 surge la necesidad de revisar la
validez universal de la Mecánica Clásica. La primera
hipótesis correctora aparece en boca del brillante físico
holandés, profesor de la Universidad de Leiden, Hendrik
Antoon Lorentz (18531928) y del físico irlandés George
Francis FitzGerald (1851 – 1901) postulando que cuando un
objeto se mueve a velocidades próximas a la velocidad de la
luz se produce una contracción de su longitud. Para móviles
terrestres animados de velocidades muy pequeñas en
comparación con la velocidad de la luz esta hipótesis carece
de de significación pero para fenómenos astronómicos las
correcciones relativistas adquieren importancia. La evolución
de las ideas de Lorentz, ya a principios del siglo XX, le
permite deducir la transformación de las coordenadas del
espacio y del tiempo «transformación lorentziana».
Corresponde al físico holandés el mérito histórico de iniciar
el proceso de reevaluación de los límites de aplicación de la
Mecánica Clásica, tarea a la cual consagra su actividad el
genio alemán Albert Einstein.
BIBLIOGRAFÍA
Alba Andrade Fernando (1997): El desarrollo de la Tecnología. La aportación de
la Física. Fondo de Cultura económica. México.
http://omega.ilce.edu.mx:3000/sites/ciencia/volumen1/ciencia2/23/htm/desarro.htm
Auer Georg (2006): European Automotive Hall of Fame. Automotive news Europe.
Karl Benz. A genius whose threewheeler is seen as the first car.
http://www.autonews.com/files/euroauto/inductees/benz.htm
Rudolf Diesel. Renaissance man set the automobile industry on fire.
http://www.autonews.com/files/euroauto/inductees/diesel.htm
Nicolaus A. Otto The foundation of modern engine.
http://www.autonews.com/files/euroauto/inductees/otto2002.htm
Ausejo E., Hormigón M (2002): Historia de las Ciencias y las Técnicas.
Cronología. Universidad de Zaragoza. http://www.campus
oei.org/salactsi/historia.htm
234
Bennet Clark (2005): Julius Robert von Mayer. Founding Fathers of Relativity.
University of South Dakota.
http://www.usd.edu/phys/courses/phys300/gallery/clark/vonmayer.html
Bertomeu, José R. (2001): Historia de la Química. Universidad de Valencia.
http://www.uv.es/~bertomeu/
Bowden Mary Ellen (2005): Chemical Achievers: The human Face of the Chemical
Science. Chemical Heritage Foundation.
Archibald Scott Couper and August Kekulé von Stradonitz
http://www.chemheritage.org/classroom/chemach/chemsynthesis/couperkekule.html
The Path to the Periodic Table
Amadeo Avogadro
http://www.chemheritage.org/classroom/chemach/periodic/avogadro.html
Stanislao Cannizaro
http://www.chemheritage.org/classroom/chemach/periodic/cannizzaro.html
John Dalton
http://www.chemheritage.org/classroom/chemach/periodic/dalton.html
Theory and production of gases
Joseph L. GayLussac
http://www.chemheritage.org/classroom/chemach/gases/gaylussac.html
Alfred Nobel
http://www.chemheritage.org/classroom/chemach/gases/nobel.html
Bradshaw Gary (2002): Airplanes Inventors. Otto Lilienthal. The Wright House.
University of Maryland.
http://www.wam.umd.edu/~stwright/WrBr/inventors/Lilienthal.html
Braun Eliezer (1992): Electromagnetismo de la Ciencia a la Tecnología. Fondo de
Cultura Económica. México.
VI. Campo eléctrico y campo magnético. VII El electroimán, motores y
generadores de electricidad. VIII. El telégrafo. IX Desarrollo de las máquinas
235
eléctricas. X La iluminación eléctrica. XI El transformador. XIV Maxwell, la
síntesis del electromagnetismo…XV Hertz . Ondas electromagnéticas.
Bulbulian S. (1996): 1 El descubrimiento de la radiactividad. La Radiactividad.
Fondo de Cultura Económica. México.
http://omega.ilce.edu.mx:3000/sites/ciencia/volumen1/ciencia2/42/htm/radiacti.ht
m
Campbell L, Garnett W. (1882): The life of James Clerk Maxwell. Mac Millan and
Co. London. 1997 Sonnet Software, Inc.
http://www.hrshowcase.com/maxwell/directory.html
Carmona G. et al (1995): Michael Faraday: un genio de la Física
experimental. Fondo de la Cultura Económica. México.
http://omega.ilce.edu.mx:3000/sites/ciencia/volumen3/ciencia3/136/htm/faraday.ht
m
California Energy Commission (2002): A Gallery of Energy Pioneers.
http://www.energyquest.ca.gov/scientists/
John Frederic Daniell
http://www.energyquest.ca.gov/scientists/daniell.html
Edwin Laurentine Drake
http://www.energyquest.ca.gov/scientists/drake.html
Davidson Michael W. (2003): Pioneers in Optics. Timeline in Optics. Florida
State University.
http://micro.magnet.fsu.edu/optics/timeline/people/index.html
Ernest Abbe
micro.magnet.fsu.edu/optics/timeline/people/abbe.html
Giovanni Baptiste Amici
micro.magnet.fsu.edu/optics/timeline/people/amici.html
Jean Bernard Leon Foucault
micro.magnet.fsu.edu/optics/timeline/people/foucault.html
John Herschel
micro.magnet.fsu.edu/optics/timeline/people/jherschel.html
236
William Henry Fox Talbot
micro.magnet.fsu.edu/optics/timeline/people/talbot.html
Díaz Pazos Patricio (2002): Biografías. A Horcajadas en el Tiempo.
Thomas Young. http://www.astrocosmo.cl/biografi/bt_young.htm
William Herschel http://www.astrocosmo.cl/biografi/bw_herschel.htm
William Thomson (Lord Kelvin) http://www.astrocosmo.cl/biografi/bw_thomson.htm
Carl Friedrich Gauss.http://www.astrocosmo.cl/biografi/bc_gauss.htm
Hans Christian Oersted.http://www.astrocosmo.cl/biografi/bh_oersted.htm
Hendrik Antoon Lorentz
http://www.astrocosmo.cl/biografi/bh_lorentz.htm
Durstling Hans (1997): Abraham Gesner: A father of petroleum. Part I and Part
II. The Eclectic Lapidary. Volume I number 6. 5/01/97, y Volume I number, 7,
6/01/97.
http://www.bovagems.com/eclectic/HTML/19970501_0597ABEGEN.html
http://www.bovagems.com/eclectic/HTML/19970601_0697DURST.html
De la Selva, Teresa (1993): De la Alquimia a la Química. Fondo de Cultura
Económica. México.
http://omega.ilce.edu.mx:3000/sites/ciencia/volumen3/ciencia3/118/htm/alquimia.h
tm
Departamento Física Matemática (2000): James Prescott Joule. Biografías.
Pontificia Universidad Católica Madre y Maestra.
http://rsta.pucmm.edu.do/tutoriales/fisica/biografias/Joule.htm
Edison Exploratorium (2006): The Pioneers. Honoring the Scientists and Engineers
who Advanced Electrical and Related Technology.
William Stanley.
http://www.edisonexploratorium.org/bio/WilliamStanley.htm
Joseph Henry
http://www.edisonexploratorium.org/bio/JosephHenry.htm
Nikola Tesla
http://www.edisonexploratorium.org/bio/NikolaTesla.htm
237
Egan Greg (2006): Jules Henri Guiffard. The pioneers: an anthology.
http://www.ctie.monash.edu.au/hargrave/giffard.html
Enciclopedia Encarta (2006): 3 El Siglo XIX. "Aviación." Microsoft®
Encarta® 2006 [DVD].
Microsoft Corporation, 2005.
Enciclopedia Encarta (2006): 3 La Física después de
Newton. "Física." Microsoft® Encarta® 2006 [DVD]. Microsoft Corporation, 2005.
EucheMS (2005): 100 Distinguished European Chemists. European Association for
Chemical and Molecular Sciences.
http://www.euchems.org/Distinguished/19thCentury/index.asp
GayLussac Louis Joseph (1778 1850)
http://www.euchems.org/Distinguished/19thCentury/gaylussac.asp
Ramsay, William (18521916)
http://www.euchems.org/Distinguished/19thCentury/ramsay.asp
Figurovski N. A. (1989): 6. El surgimiento de la atomística química. 70 – 73. 8.
El desarrollo ulterior de la atomística química. 80 – 89. Historia de la
Química. Editorial Pueblo y Educación. La Habana.
Flores Valdés J., Menchaca Rocha A. (1995): Capítulo II. La Física y la Química
del siglo XIX. La Gran Ilusión IV. La fusión fría. Fondo de la Cultura
Económica. México.
omega.ilce.edu.mx:3000/sites/ciencia/volumen3/ciencia3/110/htm/lagran4.htm
Fröman N (1996): Marie and Pierre Curie and the Discovery of Polonium and
Radium. Nobel eMuseum. http://www.nobel.se/physics/articles/curie/
García L.C. (1997): De la máquina de vapor al cero absoluto. Capítulo I Bosquejo
histórico. Fondo de Cultura Económica. México.
http://omega.ilce.edu.mx:3000/sites/ciencia/volumen1/ciencia2/05/htm/maqvapor.ht
m
Gray Carol (2003): John Stringfellow (1799 – 1873). Flying Machines.
http://www.flyingmachines.org/strng.html
Golovanov Y. (1990): Semblanzas de grandes hombres de ciencia. Editorial
Progreso. Moscú.
Bútlerov (18281886) p3033
238
Lobachevski (17921856) p 194198
Mendeléiev (1834 1907) p 215219
Pávlov (1849 1936) p 245248.
Grigorian A. T., Polar L.S. (1962): Las ideas básicas de la Física. Ediciones
Pueblos Unidos S.A. Montevideo.
Katz Eugenii (2005): Famous Electrochemists. Department of Chemistry. The Hebrew
University of Jerusalem Givat Ram. Jerusalem.
William Sturgeon (1783 1850)
http://chem.ch.huji.ac.il/~eugeniik/history/sturgeon.html
Lucien H. Gaulard (1850 1888)
http://chem.ch.huji.ac.il/~eugeniik/history/gaulard.html
Kudriavtsev P.S. (1962): Las ideas básicas de la Física: ensayos sobre su
desarrollo. Ediciones Pueblos Unidos. Montevideo.
El desarrollo de las ideas de la termodinámica y de la atomística.
El desarrollo de la teoría del campo electromagnético.
Kuhn, T.S. (1982): La estructura de las revoluciones científicas. Fondo de
Cultura Económica. México.
Lasker Foundation (2006): Genetics Timeline. A Dictionary of Scientists, Oxford
University Press.
More about Johann Friedrich Miescher.
http://www.laskerfoundation.org/rprimers/gnn/timeline/1869a.html
More about Walther Fleming.
Contributions to the Knowledge of the Cell and Its Vital Processes, Part II, by
Walther Flemming.
http://www.laskerfoundation.org/news/gnn/timeline/1882a.html
Leggat Robert (2000): A History of Photography. The beginnings of Photography.
http://www.rleggat.com/photohistory/
NCAR (2005): Solar Physicists. High Altitude Observatory. National Center of
Atmospheric Research (NCAR)
Joseph von Fraunhofer.
239
http://www.hao.ucar.edu/Public/education/bios/fraunhofer.html
Johann W. Ritter http://www.hao.ucar.edu/Public/education/bios/jwritter.html
William Hyde Wollaston
http://www.hao.ucar.edu/Public/education/bios/wollaston.html
Nobel eMuseum (2004): From Nobel Lectures, Chemistry 19011921. The Official
Web Site of Nobel Foundation.
http://www.nobel.se/chemistry/index.html.
Jacobus Henricus van't Hoff
http://nobelprize.org/chemistry/laureates/1901/van'thoffbio.html
Svante August Arrhenius
http://nobelprize.org/chemistry/laureates/1903/arrheniusbio.html
William Ramsay
http://nobelprize.org/chemistry/laureates/1904/ramsaybio.html
Nobel e Museum (2004): From Nobel Lectures, Physiology or Medicine 1901
1921. The Official Web Site of Nobel
Foundation.. http://nobelprize.org/medicine/index.html
Santiago Ramón y Cajal
http://nobelprize.org/medicine/laureates/1906/cajalbio.htm
Ivan Pavlov
http://nobelprize.org/medicine/laureates/1904/pavlovbio.htm
Robert Koch (18431910)
http://nobelprize.org/medicine/laureates/1906/kochbio.htm
Nobel eMuseum (2004): From Nobel Lectures, Physics 19011921. The Official Web
Site of Nobel Foundation. Elsevier Publishing Company, Amsterdam, 1965.
http://nobelprize.org/physics/index.html
Guglielmo Marconi
nobelprize.org/physics/laureates/1909/marconibio.html
Karl F. Braun
nobelprize.org/physics/laureates/1909/braunbio.html
240
Jean Baptiste Perrin
nobelprize.org/physics/laureates/1926/perrinbio.html
John William Strutt Rayleigh
nobelprize.org/physics/laureates/1904/rayleighbio.html
Wilhelm Roentgen
nobelprize.org/physics/laureates/1901/rontgenbio.html
Joseph John Thomson
nobelprize.org/physics/laureates/1906/thomsonbio.html
Nobel Alfred Bernhard (1895): Alfred Nobel's Will. París, 27 de noviembre de
1895.
http://nobelprize.org/nobel/alfrednobel/biographical/will/willfull.html
Nuñez J. (2000): La ciencia y la tecnología como procesos sociales. Lo que la
educación científica no debe olvidar. La Habana. http://www.campus
oei.org/salactsi/nunez00.htm#9
Office of Radiation, Chemical & Biological Safety (2002): Figures in radiation
history. Michigan State University. Pierre and Madame Curie.
http://www.orcbs.msu.edu/radiation/radhistory/pierremariecurie.html
O'Connor J. J., Robertson E. F. (2000): School of Mathematics and Statistics.
University of St Andrew. Scotland.
Dominique F. J. Arago
http://wwwgroups.dcs.standrews.ac.uk/~history/Mathematicians/Arago.html
John Couch Adams
http://wwwgroups.dcs.standrews.ac.uk/~history/Mathematicians/Adams.html
Ludwig Boltzmann.
http://wwwgroups.dcs.standrews.ac.uk/~history/Mathematicians/Boltzmann.html
Charles Babbage
http://wwwgroups.dcs.stand.ac.uk/~history/Mathematicians/Babbage.html
André Marie Ampere.
http://wwwhistory.mcs.standrews.ac.uk/history/Mathematicians/Ampere.html
241
Benoit Paul Emile Clapeyron
http://wwwhistory.mcs.standrews.ac.uk/Mathematicians/Clapeyron.html
Christian Johan Doppler
http://wwwhistory.mcs.standrews.ac.uk/ history/Mathematicians/Doppler.html
George Francis FitzGerald
http://wwwhistory.mcs.standrews.ac.uk/ history/Mathematicians/FitzGerald.html
UrbainJeanJoseph Le Verrier
http://wwwhistory.mcs.standrews.ac.uk/ history/Mathematicians/Le_Verrier.html
Pasachoff Naomí (1996): Marie Curie and the science of radioactivity. Oxford
University Press. The Center for History of Physics: A division of The American
Institute of Physics (AIP).
http://www.aip.org/history/curie/contents.htm
Paredes H. (2001): Historia de Georg Cantor. Teoría de Conjuntos. Aula Virtual
de Matemática. http://sipan.inictel.gob.pe/internet/av/cantor.htm
Perich Campana Danny (2001): Carl Gauss. Historia de la Matemática. Sector
matemática; Municipalidad de Punta Arenas. Chile.
http://www.sectormatematica.cl/biografias/gauss.htm
Pees Samuel T. (2004): Benjamín Silliman Jr. Oil History.
http://www.oilhistory.com/pages/drake/players.html
Rhee Yon Seung (2003): Pioneer Profiles. About BioTech. Access Excellence. The
National Health Museum. Washington. D.C.
Gregor Mendel
http://www.accessexcellence.org/RC/AB/BC/Gregor_Mendel.html
Louis Pasteur
http://www.accessexcellence.org/RC/AB/BC/Louis_Pasteur.html
Roberge Pierre R. (2000): Who’s Who in Electrochemistry. http://www.corrosion
doctors.org/
Jöns Jacob Berzelius
http://www.corrosiondoctors.org/Biographies/BerzeliusBio.htm
Robert Bunsen (1811 1899)
242
http://www.corrosiondoctors.org/Biographies/BunsenBio.htm
Davy, Sir Humphry, Baronet.
http://www.corrosiondoctors.org/Biographies/DavyBio.htm
Heinrich Rudolf Hertz (18571894)
http://www.corrosiondoctors.org/Biographies/HertzBio.htm
Ribnikov K (1987): 7.1 Sobre el carácter del desarrollo de las matemáticas en
el siglo XIX. Historia de las Matemáticas. Editorial MIR. Moscú.
Smith Williams Henry (1904): Modern Development of the Physical Sciences. A
History of Science. Volume III.
Chapter VI: Modern Theories of Heat and Light.
http://www.worldwideschool.org/library/books/sci/history/AHistoryofScienceVolume
III/chap42.html
Chapter VII: The Modern Development of Electricity and Magnetism
http://www.worldwideschool.org/library/books/sci/history/AHistoryofScienceVolume
III/chap46.html
Chapter VIII: The Conservation of Energy
http://www.worldwideschool.org/library/books/sci/history/AHistoryofScienceVolume
III/chap52.html
Universidad Católica de Chile (2004): La teoría celular. XIII Medicina de la 1ª
Mitad del Siglo XIX. Apuntes de Historia de la Medicina. Escuela de Medicina.
Pontificia. Universidad Católica de Chile.
http://escuela.med.puc.cl/publ/HistoriaMedicina/SigloXIXTeoriaCelular.html
Verdugo Pamela (1997): Evariste Galois. Los matemáticos y su
Historia. Universidad de Santiago de Chile.
http://www.mat.usach.cl/histmat/html/galo.html
243
LA ERA ATÓMICA Y EL DESARROLLO DE LA FÍSICA EN EL SIGLO XX
Rolando Delgado Castillo y Francisco Arturo Ruiz Martínez.
Universidad de Cienfuegos.
Contexto mundial y algunos hitos en el ámbito de las Matemáticas
El desarrollo de la Mecánica Cuántica
Las ideas sobre la variabilidad del espacio y el tiempo
La desintegración radiactiva y la teoría del átomo nuclear.
El empleo de la energía nuclear y la posición de la comunidad científica
Algunas tecnologías derivadas de las teorías físicas y su aplicación.
Los avances en los programas de exploración del Cosmos.
El nacimiento de la Electrónica y de la Informatización.
Bibliografía
Contexto mundial y algunos hitos en el ámbito de las Matemáticas
El siglo XX traería al escenario mundial dos grandes guerras que paradójicamente
darían un impulso al desarrollo del conocimiento científico en aquellas áreas en
que se advertían necesidades internas y principalmente con fines relacionados
con la tecnología militar. Este desarrollo dio lugar, incluso, al holocausto
nuclear de la década de los años cuarenta.
244
una explosión en el ritmo de la producción de los conocimientos científicos que
alcanzó un crecimiento exponencial. Las relaciones Ciencia – Sociedad se
hicieron más complicadas.
Un proceso de fortalecimiento de los nexos en la comunidad científica, que se
habían iniciado con las Sociedades fundadas en el siglo XVIII, se advierte
desde los comienzos del siglo, sufriendo en los períodos de duración de ambas
guerras un inevitable debilitamiento. En este contexto se destacan los Congresos
realizados en Bruselas, con el apoyo financiero del químico industrial belga
Ernest Solvay (18381922), que congregaron a los más brillantes físicos de la
época.
El siglo XX traería también una organización de la ciencia en Instituciones que
debían concentrar sus esfuerzos bien en estudios fundamentales como en aquellos
245
de orden práctico. Los políticos se darían cuenta, desde la Primera Guerra
Mundial, de la importancia de sufragar los gastos de aquellas investigaciones
relacionadas con la tecnología militar.
El Laboratorio Cavendish en Cambridge, fundado en el siglo XIX, hizo época no
sólo por la relevancia de sus investigaciones fundamentales para la
determinación de la estructura atómica, sino por la excelencia mostrada por sus
directores científicos, Joseph John Thomson (1856 – 1940) y Ernest Rutherford
(1872 – 1937), que lograron con su liderazgo la reproducción de los valores de
la producción científica (siete investigadores del Laboratorio alcanzaron el
Premio Nóbel de Física).
En las primeras décadas del siglo el Laboratorio "Kaiser Guillermo" de Berlín se
erigió en modelo de institución investigativa y en el período de la Primera
Guerra Mundial contó con la asistencia de los más célebres científicos alemanes
vinculados a proyectos de desarrollo de nuevas armas. Fritz Haber, notable
químico alemán jugó el triste papel de introductor del arma química en los
campos de batalla.
En la década del 40, se crea en Nuevo México, el Laboratorio Nacional de los
Álamos, verdadera empresa científica multinacional, con el objetivo de dar
cumplimiento al llamado Proyecto Manhattan para la fabricación de la bomba
atómica. La movilización de hombres de ciencias de todas las banderas tuvo el
propósito de neutralizar cualquier tentativa de la Alemania hitleriana de
emplear el chantaje nuclear. El propio Einstein, con su enorme prestigio y
autoridad moral, inicia el movimiento enviando una misiva al presidente de los
Estados Unidos. Cinco años después, enterado de los éxitos ya obtenidos en los
ensayos de la bomba atómica, vuelve a usar la pluma está vez para reclamar
prudencia en el empleo de este engendro de la Física Nuclear. El resto de la
Historia es bien conocido.
246
Hiroshima, un equipo del Laboratorio de Metalurgia
de la Universidad de Chicago proclamó su oposición
al lanzamiento de la bomba.La mayoría de la
comunidad científica abrazó la causa del uso
pacífico de la energía atómica.
El 9 de agosto de 1945 la humanidad se aterrorizaba con la hecatombe nuclear en
Hiroshima, días después se repetía la escena esta vez en Nagasaki. Se
inauguraba la época del arma nuclear con un saldo inmediato en Hiroshima de unos
140 mil muertos de una población estimada en 350 mil habitantes, y una
multiplicación a largo plazo de las víctimas como resultado de las
manifestaciones cancerígenas y las mutaciones genéticas inducidas por la
radiación nuclear.
247
por las dos grandes superpotencias del siglo (E.U. y la URSS), el 10% en el
orden Francia, China y Gran Bretaña. Cinco pruebas se reparten entre dos países
asiáticos envueltos en un litigio histórico: Paquistán y la India. Una bomba
atómica fue lanzada en el océano Índico por el régimen sudafricano del apartheid
en 1979, para emplear el chantaje en sus relaciones con los vecinos africanos.
Desde 1992, logrado un Tratado Internacional de no proliferación del arma
nuclear, se han silenciado notablemente "los ensayos nucleares". Pero India y
Paquistán desoyendo el clamor universal, en 1998 realizaron un par de pruebas
por parte en demostración mutua de fuerza. Al grupo de ocho países responsables
de esta demencial carrera se ha sumado recientemente Corea del Norte.
La rivalidad dominante este – oeste del siglo se reflejó también entre las
instituciones científicas hasta bien avanzado el siglo. A la competencia y el
intercambio que alentó, en lo fundamental, el desarrollo de las investigaciones
en las primeras décadas entre las Escuelas de Copenhague, Berlín, París, y
Londres, le sustituyó un cerrado silencio. El intercambio fue tapiado y
supuestas filtraciones al bando opuesto adquirieron la dramática connotación de
espionaje político. Los logros publicables que obtenían los laboratorios
nucleares de Dubna, en la ex Unión Soviética, Darmstad en Alemania, y
Berkeley de los Estados Unidos eran sometidos a encendidas polémicas sobre
prioridad, como es el caso del descubrimiento (acaso sería mejor decir "la
fabricación" en los aceleradores lineales) de los elementos transférmicos que
ocupan una posición en la tabla periódica posterior al elemento número 100.
El proceso de descolonización en África y Asia experimentó una aceleración en el
período de la posguerra. Pero el cuadro del desarrollo socioeconómico de los
países a lo largo del siglo se mantuvo tan desigual y asimétrico como irracional
resultaría la distribución de riquezas heredada del pasado colonial. La brecha
entre ricos y pobres continuó ampliándose y se reflejó necesariamente en el
estado de la ciencia y la técnica. Los países "en vías de desarrollo" debieron
248
sufrir otro fenómeno: la fuga de cerebros. El capital humano, tal vez el mayor
capital que atesora un país, se ve tentado en los países en desarrollo por las
oportunidades que ofrecen las Mecas contemporáneas de las ciencias y al triste
fenómeno de la emigración selectiva asisten sin posible defensa ante el mercado
de la inteligencia, los países pobres.
El estudio de las heteroestructuras semiconductoras,
que tuvieron una gran repercusión como uno de los
soportes de la electrónica moderna encontró en el
físico bieloruso Zhores I. Alferov, premio Nobel de
Física del 2000, uno de sus más destacados
investigadores.
249
Ya a finales de la década de los años ochenta, con el derrumbe del sistema
socialista en el este europeo, se establecieron las bases de un mundo unipolar,
caracterizado por un proceso de globalización, que si en principio pudiera
considerarse en bien del intercambio científico, potencialmente representa un
desafío para la supervivencia del mosaico de culturas de las naciones emergentes
y de sus identidades nacionales.
En el ámbito de las Matemáticas el siglo se inicia con el Congreso Internacional
de París que concentró a las más relevantes figuras del momento y tuvo la
significación de contar con las predicciones de David Hilbert (1862 1943),
notable matemático de la célebre Universidad de Gotinga forja académica de Gauss
y Riemann y uno de las instituciones dónde se generó la actual interpretación de
la Mecánica Cuántica, sobre los problemas más candentes que deberían ser
resueltos por el esfuerzo de la comunidad de matemáticos. En efecto, a lo largo
del siglo estos problemas serían abordados, pero lo que no pudo Hilbert
pronosticar fue que las más significativas aportaciones en las Matemáticas
guardarían relación con el mundo de la informatización y la inteligencia
artificial. Así aparecen una nueva rama de la Geometría, esta vez la Geometría
de los fractales, una nueva Lógica, la llamada Lógica Difusa, un Álgebra de
nuevo tipo, conocida como el Álgebra de Neumann, y una teoría que había sido
relegada por la complejidad inherente a su abordaje, la Teoría de los Sistemas
Caóticos.
En el año 1946 se construye en Estados Unidos el primer ordenador electrónico
digital de uso práctico (enicak), sin pieza mecánica alguna. Desde entonces
estos artefactos han tenido un vertiginoso desarrollo, alcanzando su cima en la
inteligencia artificial.
La teoría de los juegos aparece a fines de los años 20, impulsada principalmente
por John von Neumann (19031957), matemático estadounidense nacido en Hungría.
La teoría de juegos se aplicó a los negocios y las guerras y Neumann extiende
sus conceptos para desarrollar nuevos operadores y sistemas conocidos como
anillos de operadores que reciben el nombre de Álgebra de Neumann que resultan
muy utiles en la Mecánica Cuántica.
250
Cuando hoy se agitan las banderas de la xenofobia
conviene recordar el inmenso aporte de los
inmigrantes y sus descendientes al desarrollo de las
sociedades más ricas del mundo actual. La lista se
haría demasiado larga y abarca todos los campos de
las ciencias. Sirva de ejemplo Lotfi Zadeh, autor de
la lógica difusa, una de las teorías que sustentan
los avances en el campo de la inteligencia
artificial. Nació en 1921 en Irán, se educó en
Arzeibaijan y finalmente se radicó en Berkeley,
donde en la Universidad de California desarrolló su
nueva lógica.
La Lógica Difusa fue introducida en 1965 por Lotfi Zadeh (1921 ), profesor de
la universidad de Berkeley. La gran diferencia con la teoría de conjuntos
clásica, enunciada por el alemán George Cantor a finales del siglo XIX, es que
251
un elemento puede pertenecer parcialmente a un conjunto; en contradicción con la
concepción tradicional que solo brinda dos posibilidades: "se pertenece o no se
pertenece". La Lógica Difusa constituye una de las técnicas que sustentan la
inteligencia artificial y se viene aplicando en Medicina y Biología, Ecología,
Economía y Controles Automáticos.
Las Matemáticas invaden en el siglo XX todas las esferas de la sociedad, de la
técnica y la ciencia, y sus más significativas aportaciones se relacionan con
las nuevas áreas de la informatización y la inteligencia artificial. La
modelación matemática reina en los procesos de ingeniería, de control
automático, de la robótica, se introduce en los procesos biológicos y hasta
algunos lo han evocado, a nuestro juicio con excesivo entusiasmo, en la solución
de complejos problemas sociales.
La Revolución en el campo de la Física se abrió paso en el siglo XX a través de
la superación de profundas crisis en el campo de las ideas, que exigieron lo que
se ha dado en llamar un cambio de paradigma. La construcción en paralelo de las
teorías que pretendían explicar el universo de las micropartículas y ofrecer una
252
nueva visión del mundo macroscópico, en lugar de encontrar un punto convergente
se distanciaban desde sus propios enfoques de partida.
Las páginas que siguen hacen un vertiginoso recorrido por los principales
momentos en la evolución de estas ideas que traen nuevas nociones para las
coordenadas esenciales de la existencia humana y cósmica: el tiempo y el
espacio, al tiempo que se esfuerzan por explicar y dominar la estructura interna
del átomo y de las propias partículas subatómicas. Por este camino, inundado por
complejas teorías se abren paso colosales realizaciones prácticas que implican
el gobierno de aquella energía fuente de todo el movimiento del sistema solar:
la energía nuclear.
En el campo de las Ciencias Físicas una trascendental revolución se producía en:
1.Las ideas sobre la cuantificación de la luz y la sustancia que
permitieron el desarrollo de la llamada Mecánica Cuántica.
2.Las ideas sobre la variabilidad del tiempo y del espacio, desarrolladas
inicialmente casi en solitario por A. Einstein al crear su Teoría de la
Relatividad.
3.Las ideas sobre la desintegración radiactiva y el desarrollo de la
teoría del átomo nuclear.
El desarrollo de la Mecánica Cuántica
El primer período en el desenvolvimiento meteórico de la Física Cuántica abarca
desde el propio año inicial del siglo hasta 1913. Si tuviera que bautizarse esta
etapa recurriendo a los protagonistas fundacionales, como el paradigma mecánico
se reconoce como la época de NewtonGalileo, o la concepción electromagnética
del mundo se asocia al par FaradayMaxwell, habría que llamar a este momento
histórico como el de PlanckEinsteinRutherfordBohr. Y al así hacerlo
tendríamos en cuenta que ellos lideraron la búsqueda y solución de los problemas
esenciales que condujeron a la teoría cuántica del átomo de Bohr:
La distribución de la energía en el espectro de emisión del cuerpo negro
absoluto.
253
Max Planck (18581947) fue un pionero de las ideas
de la cuantificación de la energía en los procesos
de emisión de la radiación. La ecuación E = hυ lo
inmortaliza a través de la constante universal h que
recibe su nombre, constante de Planck. Su enorme
prestigio hace que lo elijan en 1930 presidente de
la Sociedad Científica alemana más importante, la
Sociedad Kaiser Guillermo para el progreso de la
ciencia. Sus críticas abiertas al régimen nazi le
forzaron a abandonar la Sociedad a la cual regresa
como presidente al terminar la Segunda Guerra
Mundial. Hoy esta sociedad lleva su nombre, Sociedad
Max Planck.
•La elaboración de un modelo atómico constituido por partículas positivas
y negativas.
•La determinación de las leyes que rigen en los espectros de rayas y de
bandas.
El surgimiento de las ideas de la cuantificación de la luz nace con el inicio
del siglo XX. Los trabajos de Max Planck (1858 – 1947) al explicar el
comportamiento de la radiación por temperatura del radiador ideal, considera la
existencia de paquetes de energía que depende de la frecuencia de la radiación.
Por primera vez la Física se encontró con las representaciones cuánticas que
modificarían la faz de esta Ciencia.
La ecuación que resume esta concepción teórica fue comprobada experimentalmente
por Arthur Holly Compton (1892 – 1962) en 1912. La explicación del efecto
fotoeléctrico externo establece las bases de la Teoría Fotónica de la Luz.
Finalmente, Niels Bohr (1885 1962) en 1913, abre la etapa de la cuantificación
de la energía para las partículas al proponer un modelo inicial del átomo
basado en el postulado de cuantificación del momento angular y la energía de los
electrones en sus órbitas para los átomos hidrogenoides. La noción de los
254
estados estacionarios del electrón rompía con la electrodinámica clásica y
apuntaba hacia una nueva manera de entender el mundo de las micropartículas.
Niels Bohr es el autor del sistema planetario de la
estructura electrónica de los átomos. Su imagen de
la envoltura electrónica deriva de la aplicación
del principio de cuantificación a las órbitas
posibles de los electrones. Durante la segunda
guerra mundial emigró con su familia a EEUU y
participó en el proyecto de los Álamos para la
construcción de la bomba atómica. Fue un enérgico
defensor de poner en manos del control
internacional el armamento atómico y al concluir
la guerra regresó a la universidad de su natal
Copenhague, dónde se consagró al desarrollo del uso
pacífico de la energía atómica.
Un segundo período nacido con la posguerra, nos trae las ideas duales para las
partículas que tienen su origen en los trabajos teóricos de Louis De Broglie
(1892 – 1987). Hasta entonces todos los fenómenos relacionados con el electrón
se explicaban sólo desde el punto de vista corpuscular.
De Broglie busca obstinadamente una idea generalizada, en la cual los puntos de
vista corpuscular y ondulatorio estuviesen íntimamente integrados. A partir de
su hipótesis deduce de una forma sorprendentemente sencilla la condición de
cuantificación de las órbitas electrónicas de Bohr.
En los años cruciales para el desarrollo de la Mecánica Cuántica del 1921 al 27,
en Zurich, Erwin Schrodinger (1887 – 1961) llevó a cabo las investigaciones
255
fundamentales que culminaron en su famosa ecuación de onda. La ecuación de onda
de Schrodinger permite, a través del instrumental matemático con que opera,
obtener valores discontinuos para la energía, que cuantifican el movimiento de
las partículas no relativistas; y al mismo tiempo plantea el problema del
sentido físico de la función de onda. Estas investigaciones basadas en la
objetividad de las ondas existentes y en su comportamiento causal fueron
aplaudidas desde Berlín por Planck y Einstein que por entonces ejercían la
docencia en la Universidad berlinesa.
256
afortunadamente no tuvo éxito.
El Congreso de Solvay de 1927 dejó como saldo para la Historia el rico debate
alentado principalmente por Bohr y Einstein sobre los principios de la nueva
Mecánica Cuántica. A partir de este Congreso la Comunidad de los físicos
teóricos reconoció como válida la interpretación de la Escuela de Copenhague
(liderada por Bohr). Einstein aceptó la coherencia alcanzada por la teoría
cuántica pero siempre creyó en la posibilidad de crear una teoría más completa.
En el caso del micromundo, no existe la posibilidad de descripción determinista
y es necesario el reconocimiento de la existencia de leyes objetivas con un
carácter probabilístico.
El trabajo fundamental que fija el sentido de probabilidad de la función de onda
pertenece a Max Born (1882 1970) quien, al examinar esta cuestión en 1926
llegó a la conclusión de que si el sistema consta de un punto, la función de
onda expresa la probabilidad de encontrar la partícula en el punto del espacio
tridimensional; ahora bien si se trata de un sistema de n partículas la función
de onda cambia de un punto a otro del espacio de representación con 3n
dimensiones. Born fue uno de los pocos físicos que edificaron la estructura
filosófica de la Mecánica Cuántica. Su principal contribución fue la
interpretación probabilística de las ondas de Schrodinger, una interpretación
que eleva la probabilidad a categoría primaria de la Mecánica Cuántica.
257
La teoría de Dirac auguraba la existencia de
antipartículas para casi todas las partículas
elementales, lo que se confirmó en lo sucesivo. En
1955 fueron descubiertos los antiprotones y luego
otras antipartículas, en fin fue descubierto el
antimundo. Los pronósticos de Dirac iban más lejos
y aseguraban que durante su encuentro ocurriría el
aniquilamiento mutuo de partículas y antipartículas
con la correspondiente liberación de energía. El
proceso de aniquilación fue una confirmación más de
la ecuación de Einstein que interrelaciona masa y
energía.
La resolución de las ecuaciones obtenidas por Dirac indicaba que debía existir
una partícula con la misma masa del electrón pero con carga positiva. Era la
predicción del antimundo, por primera vez apareció el concepto de antipartícula,
nació así teóricamente el positrón. Cuatro años más tarde, el físico
norteamericano Carl D. Anderson (1905 – 1991) logró observar en la cámara de
Wilson la traza de una partícula extraordinaria que poseía la masa del electrón
pero era desviada por el campo magnético en sentido contrario. Se había hallado
experimentalmente el gemelo del electrón predicho por Dirac.
El impetuoso avance de la Física Atómica permitió una mayor profundización en
los niveles de la naturaleza e hizo posible el surgimiento de la Teoría de los
Quarks. La explicación de la estabilidad del núcleo atómico, que confinaba en
regiones muy reducida a los protones de carga positiva, exigió el postulado de
nuevas partículas nucleares.
El físico japonés Hideki Yukawa (1908 – 1981) fue el primero en emitir la
hipótesis de que las partículas que garantizan la estabilidad de los núcleos
pueden poseer una masa mucho mayor que la del electrón. Estas partículas luego
fueron llamadas mesones, y la comprobación experimental de su existencia debió
esperar 11 años cuando se investigaban los rayos cósmicos. Fue entonces que se
encontraron partículas con una masa 273 veces la masa del electrón y otras con
207 masas del electrón. A estas partículas se les llamaron mesones π o piones y
mesones µ o muones. El pión resultó ser el mesón propuesto por Yukawa.
258
El progreso de la Teoría Dual de la Luz se fortalece con la llamada estadística
de los bosones propuesta en los trabajos de A. Einstein, en 1924, y de Satyendra
Nath Bose (1894 – 1974), de los cuales el fotón es un caso particular, y al
incorporar, según las concepciones actuales, los fotones al sistema de
partículas básicas consideradas por la Teoría de los Quarks.
El camino que tomaron las investigaciones en el campo
de las micropartículas demostraba la inagotabilidad
de la materia. En 1961, el físico norteamericano
Murray GellMann (1929 ) diseñó una especie de tabla
periódica que agrupaba a las partículas subatómicas
en familias de ocho. Este esquema fue confirmado por
descubrimientos posteriores. Tres años después Gell
Mann propuso la existencia de los quarks, partículas
constituyentes de las partículas "elementales". Según
la profundización alcanzada en los niveles del
micromundo, hay bariones (de masa mayor o igual a los
protones); mesones (de masa inferior a los protones y
mayor que los electrones) y luego hay quarks. Por
razones estructurales se clasificaron los quarks en
seis grupos teóricos. A fines de la década de los
sesenta, en el laboratorio de aceleración de
micropartículas de la Universidad de Stanford el
equipo integrado por el físico canadiense Richard E.
Taylor (1929 ) y los físicos estadounidenses Henry
W. Kendall (19261999) y Jerome I. Friedman (1930 ),
descubrieron los quarks y por este descubrimiento,
compartieron el Premio Nobel de Física en 1990. En
los noventa se probó la existencia del último de los
seis grupos.
En unos cincuenta años, se consolidó la Teoría Atómica, con el desarrollo de
modelos, tanto para el átomo de hidrógeno, con cálculos exactos, como para los
átomos multielectrónicos, con cálculos aproximados, pero muy eficientes, y
edificado la Teoría del Núcleo que dio lugar a la utilización de la energía
nuclear en las distintas ramas de la economía, aunque lamentablemente también en
el terreno bélico.
259
partículas. En la segunda mitad del siglo aparecen como continuadores
sobresalientes de las investigaciones en la superconductividad y la superfluidez
los rusos, premios Nobel de Física del 2003, Alexei A. Abrikosov (1928 ),
declarado científico distinguido del Laboratorio Nacional de Argonne,
naturalizado en los Estados Unidos, y el nonagenario Vitali L.Ginzburg
(1916 ), jefe del Grupo de Teoría del Instituto de Física P.N. Lebedev de
Moscú.
La Mecánica Cuántica y sus múltiples aplicaciones en otras ramas concretas de
las Ciencias, han traído importante derivaciones epistemológicas y filosóficas.
Entre ellas destaca el debate sobre la cognoscibilidad del mundo, dado por
diferentes interpretaciones del Principio de Indeterminación. En realidad este
principio debe entenderse que define un límite de validez para la aplicación de
los conceptos que el hombre ha aplicado a una determinada esfera de fenómenos
naturales, y acusa el riesgo de una generalización no fundamentada.
Los avances en esta rama de las ciencias han tenido importantes aplicaciones
prácticas, en particular sobresalen las aportaciones en la rama de las
comunicaciones, la codificación de información, los diversos tratamientos con la
utilización de los láseres, las aplicaciones en la medicina de técnicas basadas
en el láser y en la resonancia magnética nuclear, los átomos marcadores para la
datación de hallazgos arqueológicos, y el desarrollo de la rama de la energética
nuclear.
El siglo XX conoció de la construcción en paralelo de las teorías que pretendían
explicar el universo de las micropartículas y ofrecer una nueva visión del mundo
macroscópico. Estos esfuerzos en lugar de encontrar un punto convergente se
distanciaban desde sus propios enfoques de partida.
260
científicos del proyecto inicial de satélites de la URSS.
Las ideas sobre la variabilidad del espacio y el tiempo y la Teoría de
la Relatividad
Las páginas que siguen hacen un vertiginoso recorrido por los principales
momentos en la evolución de las ideas que traen nuevas nociones para las
coordenadas esenciales de la existencia humana y cósmica: el tiempo y el
espacio. En este otro extremo de la cuerda, el cuadro físico del mundo
experimentaba una profunda reestructuración, en lo fundamental, por los trabajos
del genio alemán Albert Einstein.
De cualquier modo compartimos el criterio expresado por Steven Weinberg (Premio
Nóbel de Física en 1979) en una retrospectiva sobre el trabajo de Kuhn:
Einstein, en 1905, ya había demostrado al proponer la Teoría de la Relatividad
Especial, que la Mecánica de Newton no tenía validez universal; demostró que si
los cuerpos se mueven con velocidades comparables a la de la luz, entonces la
Mecánica de Newton no puede describir los fenómenos correspondientes. La Teoría
de la Relatividad es una generalización de la teoría newtoniana, que amplía su
dominio de aplicación. Si en la Teoría de la Relatividad se consideran fenómenos
en los cuales la velocidad de los cuerpos es mucho menor que la de la luz, como
261
son la mayoría de los fenómenos cotidianos, entonces se recupera la mecánica de
Newton. Es decir, la teoría newtoniana es un caso particular de la relativista,
para velocidades muy pequeñas.
Tanto la llamada Teoría Especial para el caso de los sistemas inerciales que
fue, en lo fundamental enunciada en 1905, como su ulterior extensión, la llamada
Teoría General de la Relatividad que consideraba el caso de los sistemas no
inerciales, les permitieron a Einstein desarrollar su Teoría sobre la
Gravitación Universal a partir de la propiedades del espacio – tiempo en la
cercanías de las grandes aglomeraciones de masa.
Es necesario destacar que la Teoría General de la Relatividad pertenece no solo
a la Historia de la Ciencia sino a la Física contemporánea. Constituye una
síntesis, desde postulados relativistas, de la teoría newtoniana de la
atracción gravitatoria, de la teoría del espaciotiempo tetradimensional curvo
y, finalmente, de la generalización del principio de relatividad de movimientos
uniformes respecto a movimientos acelerados.
262
período que abarca de 1905 al 1916 la atención de la comunidad de físicos se
centra en el desarrollo de la Teoría Cuántica del átomo.
Sin embargo, después de su formulación y sobre todo luego de la confirmación
experimental por Eddington (1882 1944) del entonces llamado efecto Einstein
acerca de la pequeñísima desviación de los rayos de luz de las estrellas al
pasar cerca de la superficie del sol, una nueva promoción de físicos se sintió
inclinada a participar en nuevas búsquedas, emitir audaces hipótesis, y someter
las nuevas ideas a confirmación astronómica. Desde entonces se han repetido los
intentos de estructurar una teoría única del campo, y elaborar la Teoría
Cuántica de la Gravitación.
La cosmología relativista entró en una nueva fase en 1922,
cuando el físico y geofísico ruso A.A. Fridman (1888 –
1925) publicó dos obras clásicas que se oponían al modelo
estacionario propuesto por Einstein, y abrían paso a las
ideas sobre un universo en expansión. Sólo siete años
después de los trabajos de Fridman, en 1929, el astrónomo
norteamericano E. Hubble (1889 – 1953), que trabajaba en el
reflector más grande de aquellos tiempos en el observatorio
de Mount Wilson, llegó a la conclusión, a partir del
desplazamiento hacia el rojo de las rayas espectrales de
todos los sistemas estelares distanciados, de que todas las
estrellas se alejan de nuestra galaxia.
En el propio año de 1916 en que se publica la teoría general de la relatividad,
poco antes de su muerte, el matemático alemán Karl Schwarzschild (18731916),
predijo la existencia de los agujeros negros. Sobre la base de la relatividad
einsteniana, postuló "el radio de Schwarzschild", magnitud cósmica relacionada
con el hipotético círculo, que se generaría durante la explosión de una
supernova, tan compacto que nada ni siquiera la luz podría escapar de su intenso
campo gravitatorio. A estos objetos se les conoció más tarde como agujeros
negros. Fue necesario esperar a fines del siglo XX para que el radiotelescopio
263
Hubble instalado en una sonda espacial confirmara la existencia de un agujero
negro en el centro de una enorme galaxia llamada M87.
Los progresos del período de investigaciones aceleradas en plena guerra habían
legado un instrumental avanzado para escudriñar ahora la infinitud del universo.
En 1960, desde el Observatorio de Monte Palomar en California, el astrónomo
estadounidense Allan Rex Sandage (1926 ) consigue la primera imagen
espectrográfica de un objeto estelar caracterizado por dos fenómenos
enigmáticos: sus líneas espectrales de emisión resultan inidentificables al
tiempo que emiten enormes cantidades de energía.
264
ondas de radio.
En este debate sobre la cosmovisión del universo, el descubrimiento en 1965 de
una misteriosa radiación de fondo cósmica correspondiente a las microondas de 3
En 1979 el físico estadounidense Alan Guth (1947 ), desarrolló una nueva teoría
acerca de la expansión del Universo, continuadora de la hipótesis inflacionaria
desarrollada 30 años atrás por Gamow, que ha servido de base para la
interpretación contemporánea de los primeros momentos del Universo. Guth combina
las ideas cuánticas con la teoría del campo unificado para demostrar la
posibilidad de que toda la materia del Universo podría haber sido creada por
fluctuaciones cuánticas en un espacio ‘vacío’ y que una región de aquel estado
caótico original podía haberse hinchado rápidamente para permitir que se formara
una región observable del Universo.
265
El físico teórico Stephen Hawking (1942 ) es la figura
líder de la moderna cosmología. Los sentidos del hombre
se resienten con las concepciones emergentes de la teoría
de la gran explosión. Una edad del universo estimada en
13,7 ± 0,2 mil millones de años, un modelo que advierte
En el campo del micromundo, el impacto de las aportaciones de A. Einstein, ha
sido enorme y merece destacarse que todo progreso de la Mecánica Cuántica ha
tomado en cuenta el carácter relativista de las micropartículas introduciéndose
magnitudes para la descripción de los fenómenos del universo subatómico que no
tienen su similar en el mundo clásico como por ejemplo son el momento de espín,
las cargas bariónica y leptónica, y la hipercarga, entre otros. Por otro lado al
aprovechar el carácter relativo del espacio y del tiempo se han podido construir
aceleradores de partículas con el objetivo de estudiar las propiedades más
íntimas de la materia.
Hacia 1948, veinte años después de los trabajos fundacionales de Dirac en la
versión cuánticorelativista de la formulación de Maxwell, la electrodinámica
cuántica se consideraba una teoría completada, en lo esencial, por los físicos
estadounidenses Richard Feynman (1918 1988), y Julian Schwinger (1918 1994) y
por el físico japonés Sinitiro Tomonaga (1906 – 1979). En 1965 compartirían el
premio Nobel de Física.
En 1967 el físico de Harvard, Steven Weinberg (1933 ) dio un gran paso adelante
hacia la realización de una «teoría del campo unificado». Ésta comprendería las
cuatro fuerzas aparentemente distintas de la naturaleza: gravedad,
electromagnetismo y las fuerzas nucleares débil y fuerte. La fuerza nuclear
266
débil se manifiesta al expulsar partículas del núcleo en la desintegración
radiactiva y la fuerza fuerte une las partículas nucleares. El modelo de
Weinberg describe el electromagnetismo y la fuerza nuclear débil como distintas
manifestaciones del mismo fenómeno.
A finales de los años setenta, una teoría del campo sobre la fuerza nuclear
fuerte, Cromodinámica Cuántica, se integró con la teoría electrodébil de
Weinberg y Salam para formar el modelo estándar. De las cuatro fuerzas, la única
que queda fuera de esta teoría unificada es la gravedad. El científico holandés
Gerardus’t Hooft (1946 ) y su colega Martinus J Veltman (1931 ) merecieron el
premio Nóbel de Física de 1999 por sus relevantes aportaciones en el desarrollo
de las matemáticas necesarias para explicar el modelo estándar.
Abdus Salam nació en Jhang, un pequeño pueblo paquistaní en
1926. Graduado en Cambridge, mereció el Premio Nobel de
Física en 1979. El dinero recibido de sus premios
internacionales ha sido dedicado totalmente para
posibilitar que jóvenes talentos en Física de su país y de
otros países subdesarrollados visiten el Centro
Internacional de de Física Teórica fundado por Salam en
Trieste.
Abdus Salam fue un devoto musulmán cuya religión no ocupó
un compartimiento separado de su vida; fue inseparable de
su trabajo y su vida familiar.
En el terreno epistemológico la Teoría de General de la Relatividad permitió una
concepción más profunda sobre las nociones acerca del espacio y el tiempo y su
relación con el movimiento al desechar o refutar las viejas ideas sobre el
carácter absoluto o de receptáculos de estas entidades y analizar su
variabilidad en dependencia del estado de movimiento de los sistemas. Además
hizo posible comprender las relaciones entre la masa y la energía como
magnitudes que expresan medidas cuantitativas de las propiedades inerciales y
gravitatorias de las micropartículas por una parte y de las propiedades del
movimiento de tales partículas por otra.
267
Otra importante derivación epistemológica de esta teoría radica en hacer
evidente, tal vez por primera vez en el campo de la Ciencias Físicas, la
importancia del llamado Principio de Correspondencia, considerado por muchos
como el segundo criterio de la verdad sobre una determinada teoría científica,
al establecer que toda nueva teoría, además de demostrar su valía en el campo de
la práctica social, debe comprender o englobar a la teoría anterior sobre el
mismo campo o dominio de aplicación, como un caso particular o límite. Tal era
el caso entre la Teoría de la Relatividad y la Mecánica de Newton, de forma que
la primera abarcaba a la segunda para el caso de bajas velocidades en
comparación con la rapidez de propagación de la luz en el vacío.
Pero el gran mérito de la obstinada búsqueda de Eisntein, radica en indicar el
camino para que mas de medio siglo después una nueva generación de físicos
fundara una teoría que, estremeciendo preceptos establecidos, se esforzara por
cumplir sus sueños de encontrar un principio universal para explicar las
propiedades y fuerzas observadas en dos mundos "antagónicos" el microcosmos y el
universo de los objetos ordinarios.
Al cierre del siglo el sueño de Einstein de encontrar un principio integrador de
los mundos gravitatorios, electromagnéticos (y más tarde nucleares) parecía
comenzar a cristalizar con la emergente teoría de las cuerdas. La teoría de las
supercuerdas reconoce una estructura interna para las partículas fundamentales
del universo que han identificado los físicos –electrones, neutrinos, quarks, y
otras, las letras de toda la materia. De acuerdo con esta teoría si nosotros
examinamos estas partículas con una mayor precisión, una precisión de muchos
ordenes de magnitud mayor que la alcanzable con la capacidad tecnológica actual
encontraríamos que cada partícula no es puntual sino consiste de un diminuto
anillo. Como una banda de goma infinitamente delgada cada partícula contiene un
filamento vibrante que los físicos han llamado cuerda. El electrón es una cuerda
vibrante de un modo, el quark es una cuerda vibrante de otro modo, y así
sucesivamente.
268
que los estadounidenses de origen hispano, africano e
indígena tan solo comprenden el 6 por ciento de la fuerza
laboral del país en los campos de la ingeniería y las
ciencias. No obstante las ricas sociedades del norte
continuan actuando como un agujero negro para la luz, el
capital humano, de las naciones del sur...
La misma idea se aplica a las fuerzas de la naturaleza. Las partículas de la
fuerza son también asociadas con los modos particulares de vibración de la
cuerda y de ahí que cada cosa, todo material y todas las fuerzas se unifican
bajo la misma rubrica de oscilaciones microscópicas de las cuerdas, las notas
que las cuerdas pueden tocar.
Si el debut del siglo XX abrió un nuevo capítulo en el desarrollo de la Física
que supuso la superación de una crisis de sus nociones sobre el mundo de las
micropartículas y el advenimiento de un nuevo paradigma, con el cierre del siglo
se anunciaba el descubrimiento de un principio integrador que explicaba el mundo
cósmico, electromagnético y nuclear. No era precisamente la Teoría del "Todo"
pero representa una nueva conquista del inagotable conocimiento científico.
269
Brian Greene (1963 ), profesor del Departamento de Física
de la Universidad de Columbia, es uno de los fundadores de
la Teoría de las Supercuerdas, también llamada teoría del
"Todo" por su supuesta capacidad para explicar
completamente los atributos de las partículas fundamentales
del Universo e integrar en un único cuadro, apasionada
ambición de Einstein, las fuerzas físicas conocidas hasta
hoy por el hombre. Greene se ha esforzado en "traducir" las
complejas nociones que emergen de considerar un mundo de n
dimensiones que no atrapan nuestros sentidos, a símiles
comprensibles.
Ha defendido también la hipótesis que esta teoría no puede considerarse que
agote los enigmas de la naturaleza y detenga el desarrollo del conocimiento
científico.
La desintegración radiactiva y la teoría del átomo nuclear.
Casi desde estos primeros momentos comenzaron las tentativas por describir un
modelo atómico. J.J. Thomson concibe inicialmente la carga positiva distribuida
uniformemente por todo el átomo mientras los electrones en número que compensaba
esta carga se encuentran en el interior de esta nube positiva. Un año más tarde,
supone a los electrones en movimiento de tipo oscilatorio alrededor de ciertas
posiciones de equilibrio dentro de la carga positiva distribuida en una esfera.
Luego de otros intentos para describir un modelo atómico que explicara el
espectro de rayas y de bandas y el fenómeno de la radioactividad, aparece en
1911 la publicación del físico neozelandés Ernest Rutherford (1872 – 1937) "La
dispersión por parte de la materia, de las partículas alfa y beta, y la
estructura del átomo" en la que propone el modelo nuclear del átomo. Según
Rutherford la carga positiva y prácticamente la masa del átomo se confinan en
una porción muy reducida, 104 veces menor que las dimensiones del átomo,
mientras los electrones quedan alojados en una envoltura extranuclear difusa. La
270
carga positiva nuclear es igual a Ze, siendo e, la carga del electrón y Z
aproximadamente la mitad del peso atómico.
Rutherford fue más allá y en diciembre de 1913 expone la hipótesis de que la
carga nuclear es una constante fundamental que determina las propiedades
químicas del átomo. Esta conjetura fue plenamente confirmada por su discípulo H.
Moseley (1887 – 1915), quien demuestra experimentalmente la existencia en el
átomo de una magnitud fundamental que se incrementa en una unidad al pasar al
elemento siguiente en la Tabla Periódica. Esto puede explicarse si se admite
que el número de orden del elemento en el sistema periódico, el número atómico,
es igual a la carga nuclear.
Durante este primer período la atención de la mayor parte de la vanguardia de
los físicos teóricos se concentraba en extender los razonamientos cuánticos
iniciados por Planck; mientras, la construcción de un modelo para el núcleo
271
atómico era un problema relativamente relegado y frente al cual se levantaban
enormes obstáculos teóricos y prácticos. Rutherford sugirió desde sus primeras
investigaciones que muy probablemente el núcleo estaría constituido por las
partículas alfa emitidas durante la desintegración radioactiva. Ya para entonces
el propio Rutherford había cuidadosamente comprobado que las partículas alfa
correspondían a núcleos del Helio, es decir, partículas de carga +2 y masa 4.
Otra línea de pensamiento conducía a suponer que los electrones (partículas
beta) emitidos durante la desintegración radioactiva eran lanzados desde el
mismo núcleo.
Con la Primera Guerra Mundial se levantaron obstáculos para el progreso de los
estudios fundamentales recién iniciados, quedarían interrumpidos los
intercambios científicos, detenidas las publicaciones, el campo de acción de las
investigaciones desplazado a la práctica de la tecnología militar.
Pero en Berlín una pareja de investigadores, Lise Meitner (1879 – 1968) y Otto
Hahn (1878 – 1968), una física y un químico, venían investigando sobre el
aislamiento y la identificación de radioelementos y de productos de la
desintegración radioactiva. Ante el alistamiento de Hahn en el ejército para
llevar a cabo estudios vinculados con la naciente guerra química, Meitner
continúa las investigaciones y descubre en 1918 el protactinio.
272
Egresado de una de las Universidades más antiguas de América,
la Universidad Mayor de San Marcos, el científico peruano
Santiago Antúnez de Mayolo (19091967), merece un
reconocimiento mayor de su obra. Existen las referencias de que
Antúnez, ocho años antes del descubrimiento de Chadwick,
predijo la existencia del neutrón en el III Congreso Científico
Hispanoamericano celebrado en Lima en 1924. El apoyo oficial
necesario para que el profesor peruano presentara sus
resultados en Europa y alcanzaran "visibilidad" no llegó a
tiempo y es preciso reivindicar, al menos en el ámbito
hispanoamericano, su mérito histórico.
Perú le rinde tributo al fundar la Universidad Nacional
"Santiago Antúnez de Mayolo" en su Departamento natal de
Huaraz.
En 1919, Rutherford, que encabeza a partir de este año el laboratorio Cavendish
en Cambridge, al estudiar el bombardeo con partículas alfa sobre átomos de
nitrógeno, descubre la emisión de una nueva partícula, positiva, y evidentemente
responsable de la carga nuclear del átomo, los protones. La existencia en el
núcleo de partículas positivas y de los electrones emitidos como radiaciones
beta, llevó a este relevante investigador a concebir una partícula que
constituyese una formación neutral, un doblete comprendido como una unión
estrecha de un protón y un electrón, el neutrón. Durante más de 10 años
Rutherford y su principal asistente James Chadwick (1891 – 1974) intentaron en
vano demostrar experimentalmente la existencia del neutrón.
Las señales alentadoras vendrían de París, del laboratorio de los Joliot. Jean
Frederick (1900 – 1958) e Irene Joliot Curie (1897 – 1956) reportaron en 1932
que al bombardear con partículas alfa, provenientes de una fuente de polonio,
átomos de berilio se producía una radiación de alto poder de penetración,
nombrada originalmente "la radiación del berilio", que ellos asociaron a
rayos γ. Pero Chadwick no compartió este supuesto y procedió a verificar que
estas partículas eran los escurridizos neutrones. Chadwick fue acreditado para
la Historia como el descubridor de los neutrones.
La nueva oportunidad que se les presentó dos años más tarde a los Joliot fue
esta vez convenientemente aprovechada. En 1928 Paúl Dirac (19021984) había
predicho la existencia de la antipartícula del electrón, el positrón, que cuatro
años después, experimentalmente descubre el físico norteamericano C. Anderson
(1905 – 1991). Ellos encontraron que al bombardear aluminio con partículas alfa,
la emisión de positrones continuaba después de retirar la fuente de plutonio, y
273
además el blanco continuaba emitiendo conforme a la ley exponencial de la
descomposición de radionúclidos. Se había descubierto la radioactividad
artificial.
Inmediatamente después del descubrimiento del neutrón, W.Heinseberg propone el
modelo del núcleo del protón – neutrón. Conforme con este modelo los isótopos
descubiertos por Soddy se distinguen sólo por el número de neutrones presentes
en el núcleo. Este modelo se verificó minuciosamente y obtuvo una aprobación
universal de la comunidad científica. Algunos cálculos preliminares estimaron la
densidad del núcleo en ~ 1012 kg/m3, lo cual es un valor enorme.
Por otra parte, la presencia de los protones, partículas cargadas positivamente,
274
En 1935 el físico japonés Hideki Yukawa dio una respuesta a este problema al
suponer que ese intercambio se realiza mediante una nueva partícula: el mesón.
En los dos años que siguieron se detectaron primero por Carl Anderson y luego
por el británico Cecil Powell (1903 – 1969) partículas con similares
características en los rayos cósmicos.
Conjuntamente con el descubrimiento de las diferentes partículas constitutivas
del núcleo fue surgiendo la necesaria pregunta de cuál era la estructura del
mismo, o sea, de qué manera pudieran estar dispuestos los nucleones y así
surgieron los primeros modelos del núcleo. Entre estos vale la pena citar el
modelo de la gota líquida y el modelo de las capas.
El modelo de la capas admite que el núcleo posee una estructura energética de
niveles semejante a la estructura de capas electrónicas del átomo. En este
sentido reproduce el esquema atómico para el núcleo. Este modelo explica
satisfactoriamente la existencia de los números "mágicos", que corresponden al
número total de nucleones de los núcleos más estables: 2, 8, 20, 50, 82 y 126.
También justifica adecuadamente el valor de los espines nucleares, las grandes
diferencias entre los períodos de semidesintegración de los núcleos alfa
radiactivos, la radiación gamma, etc. No obstante, los valores de los momentos
magnéticos muestran discrepancias con los valores experimentales.
Otros modelos nucleares más desarrollados han sido concebidos de manera que
tienen en cuenta elementos de los anteriores y en este sentido resulta su
275
síntesis. Es preciso aclarar que aún en la actualidad no existe un modelo
universal del núcleo capaz de explicar todas sus características.
Sin embargo numerosas interrogantes quedaban en pie, entre otras flotaba la
pregunta: ¿de dónde proceden los electrones resultantes de la desintegración
radiactiva beta? Para responder a esta pregunta el eminente físico teórico suizo
Wolfgang Pauli (1900 – 1978) supuso, en el propio 1932, que durante la
desintegración beta junto con los electrones se emite otra partícula que
acompaña la conversión del neutrón en un protón y un electrón y que porta la
energía correspondiente al defecto de masa observado según la ecuación
relativista de Einstein. Lo trascendente en la hipótesis de Pauli es que
semejante partícula, necesaria para que el proceso obedeciera la ley de
conservación y transformación de la energía, no presentaba carga ni masa en
reposo.
Esta vez fueron 24 años, la espera necesaria para que la partícula postulada por
Pauli y bautizada por Enrico Fermi (1901 1954) con el nombre de neutrino,
fuera observada mediante experimentos indirectos conducidos de modo irrefutable
por el físico norteamericano F. Reines (1918 ). Con este descubrimiento se
respaldaba la teoría desarrollada por Fermi sobre la desintegración beta y las
llamadas fuerzas de interacción débil entre las partículas nucleares.
Pero antes de esta espectacular verificación de la teoría, aún en la memorable y
triste década de los 30, el propio Fermi y su grupo de la Universidad de Roma,
inició el camino hacia la fisión nuclear, considerando por el contrario que se
dirigía hacia el descubrimiento de nuevos elementos más pesados.
La perseverancia y la imaginación premiaron al equipo liderado
por el científico japonés Masatoshi Koshiba que en 1987 pudo
identificar neutrinos, provenientes de la explosión de una
supernova. Para ello debió emplear un tanque gigantesco lleno
de agua, ubicado en la profundidad de una mina japonesa hasta
donde lograban llegar estas partículas de alto poder de
penetración. Los neutrinos al incidir sobre el agua
interactuaban y se liberaba un pequeño flash de luz, que podía
ser capturado por componentes del detector. Se confirmaban los
resultados acopiados durante tres décadas por el astrofísico
estadounidense Raymond Davis (19142006).
La academia sueca consideró la tarea conducida por estos
investigadores "más difícil que encontrar un grano particular
de arena en el desierto de Sahara" y les concedió el premio
Nobel de Física, compartido, en el 2000.
276
En 1934 Fermi y sus colaboradores, pensando en la mayor facilidad que debían
tener los neutrones para penetrar en los núcleos respecto a las partículas alfa,
bombardearon diferentes sustancias con neutrones. Apoyándose en los resultados
anteriores, usaban en calidad de fuente de neutrones una ampolla de vidrio que
contenía una mezcla de berilio y gas radón, el cual se conocía como emisor de
partículas alfa. Ellos investigaron 60 elementos, de los cuales 40 resultaron
radiactivos luego del bombardeo con neutrones.
En Berlín, un equipo de investigación compuesto por Otto Hahn (18791968), Fritz
Strassmann (1902 – 1980) y Lise Meitner (1878 1968), pretendió verificar los
estudios del grupo de Roma e inició el bombardeo de átomos de uranio con
neutrones, esperando poder descubrir nuevos elementos más pesados. En vez de
esto, a finales de 1938, Hahn y Strassmann (la Meitner había sido
clandestinamente sacada de Alemania ya que peligraba su integridad por su origen
judío) descubren no un elemento más pesado como resultado del bombardeo nuclear
del uranio sino un elemento más ligero, llamado bario.
Dos años después, en la Universidad de Berkeley, California, un grupo de jóvenes
científicos demostraron que algunos átomos de uranio, en vez de dividirse,
absorbían los neutrones y se convertían en las sustancias que había predicho
Fermi. Los investigadores de Berkeley, Edwin McMillan (1907 – 1991) y Philip
Hauge Abelson (1913 – 2004) realizaron experimentos en los que obtuvieron un
elemento que poseía un protón más que el uranio, de modo que su número atómico
era 93. Se le llamó Neptunio, por el planeta Neptuno, más allá de Urano. Luego,
Glenn Seaborg (1912 – 1999) dirigió un colectivo del propio Berkeley, que
demostró la conversión de los átomos de Neptunio en un elemento cuyo número
atómico era 94. Este elemento fue llamado Plutonio recordando al último planeta
de nuestro sistema solar. El primer isótopo descubierto fue el Plutonio 238. Un
segundo isótopo, el plutonio 239, resultó ser tres veces más fisionable que el
Uranio 235 (el material que finalmente se utilizó en la bomba de Hiroshima). En
teoría, 300 gramos podían generar una carga explosiva equivalente a 20.000
toneladas de TNT.
277
En el otoño de 1907 empezó una fructífera colaboración
entre Otto Hahn y Lise Meitner. Por entonces, Hahn
laboraba en el Instituto Fischer de Berlín y para
ingresar a Meitner, por su condición de mujer, tuvo que
solicitar una autorización especial. Luego continuaron
en el pequeño departamento de radiación del Instituto de
Química de la Sociedad Kaiser Guillermo inaugurado en
1912, hasta 1938. Entonces, por su origen judío, la
austriaca Meitner, se vio obligada a emigrar a Suecia.
El resto es conocido, Hahn descubre las condiciones en
que el núcleo de uranio se escinde; la propia Meitner
con su sobrino Otto Frisch, desde Estocolmo, se encargan
de apoyarlo en la interpretación física del fenómeno.
Pero Meitner, que acuño el término de "fisión nuclear",
es despojada de todo reconocimiento sobre el fabuloso
descubrimiento.
Nueve años después de inventada la pila atómica, y a seis años del holocausto de
Hiroshima y Nagasaki, científicos estadounidenses emplearon por primera vez la
tecnología nuclear para generar electricidad. En 1951, bajo la supervisión de la
Comisión de Energía Atómica se iniciaron las pruebas del funcionamiento de un
reactor nuclear experimental instalado en una central eléctrica construida por
los Laboratorios Nacionales Argonne en Idaho. El reactor experimental produjo
energía suficiente para poner en funcionamiento su propio sistema de puesta en
marcha; como llegaría a ser común en todas las plantas de energía atómica, el
calor del núcleo haría hervir agua y el vapor impulsaría una turbina.
278
En 1954, los soviéticos abrieron la primera planta nuclear civil en Obninsk. La
planta fue capaz de generar sólo 5 MW de energía eléctrica. La planta civil de
Calder Hall representó la inauguración del programa nuclear británico en 1956.
Pero la primera planta electronuclear comercial fue levantada en 1957 por la
compañía Westinghouse en Shippingport, Pensilvania. Pronto empezaron a funcionar
centrales nucleares en todo el mundo. Al finalizar la centuria las más de 400
centrales nucleares instaladas en 18 países generaban casi la quinta parte de la
producción mundial, que se había decuplicado en la segunda mitad del siglo
superando la astronómica cifra de 10 billones de kWh. Francia, líder mundial,
producía el 75% de su generación eléctrica en plantas nucleares.
Por lo menos cuatro accidentes principales han sido registrados en las plantas
nucleares. En todos se reporta como causa una combinación de errores humanos
(como factor principal) con fallas en el diseño de los equipos. La Organización
Internacional de la Energía Atómica (OIEA) ha implantado una escala para
categorizar la magnitud de los accidentes (conocida por sus siglas INES) en
siete niveles. La categoría máxima está representada por un accidente de
consecuencias comparables al ocurrido en la Central de Chernóbil.
279
Resulta sorprendente que en los diferentes informes sobre la catástrofe se
acepte la increíble versión de que se sumaran tantas negligencias para desatar
la tragedia. Primero, el equipo que operaba en la planta el día del accidente,
se propuso, con la intención de aumentar la seguridad del reactor, realizar un
experimento a un régimen de baja potencia, que exigía desconectar el sistema de
regulación de la potencia, el sistema de emergencia refrigerante del núcleo y
otros sistemas de protección. Segundo, los operadores quedaron responsabilizados
con la manipulación de las barras de control del reactor y de las 30 barras de
la aleación de acero al boro que debieron permanecer bajadas, según establecen
como mínimo las reglas de seguridad, sólo quedaron introducidas en el núcleo 8
de ellas. Casi cuatro horas después de iniciada "la experiencia", en la sala de
control se dio la señal de alarma de que el reactor experimentaba una subida de
potencia extremadamente rápida. Se ordenó bajar de inmediato las barras de
moderación pero cumplir el mandato exigió "liberarlas" pues el sistema de
descenso no funcionó, y entonces sobrevino la explosión que levantó por los
aires el techo de 100 t del reactor provocando un incendio en la planta y
lanzando una gigantesca emisión a la atmósfera de productos de fisión.
Las consecuencias del "accidente nuclear" han sido evaluadas de muy diferentes
maneras por distintas fuentes. Ha quedado reconocido que 31 personas murieron en
el momento del accidente, alrededor de 350.000 personas tuvieron que ser
evacuadas de los 155.000 km² afectados, permaneciendo extensas áreas
deshabitadas durante muchos años. La radiación se extendió a la mayor parte de
Europa, permaneciendo los índices de radiactividad en niveles peligrosos durante
varios días. Se estima que se liberó unas 500 veces la radiación de la bomba
atómica arrojada en Hiroshima en 1945.
El 26 de abril de 1986 a las 1:23 horas, explotó el reactor
número 4 de la central nuclear de Chernobil. La catástrofe
fue el resultado de la combinación de fallas técnicas, de
diseño de la planta y sobre todo de errores humanos.
Enormes cantidades de material radioactivo fueron lanzadas
a la atmósfera contaminando grandes extensiones de
Bielorrusia, la Federación Rusa y Ucrania. Las nubes
trasladaron el polvo radiactivo hacia vastas regiones del
norte europeo. Los modelos matemáticos anunciaron que un
incremento no menor al 20% en la tasa normal de cáncer
sufrirán los 135.000 habitantes de los alrededores que
recibieron una dosis alta de radiaciones.
En septiembre de 2005, el borrador del informe del Fórum de Chernobyl (en el que
participan entre otros el OIEA, la OMS y los gobiernos de Bielorrusia, Rusia y
280
Ucrania) se predicen 4000 muertes entre las 600.000 personas que recibieron las
mayores dosis de radiación. La versión completa del informe de la OMS, publicado
en 2006, incluye la predicción de otras 5000 víctimas en áreas
significativamente contaminadas de Bielorus, Rusia y Ucrania, con lo que se
alcanzarían las 9000 víctimas de cáncer. Esta cifra coincide con la estimación
admitida por la Agencia Cubana de Prensa (ACP) que fija entre ocho mil y 10 mil
las víctimas, mientras otras 500 mil podrán afectarse por diversos cánceres en
los próximos 10 años, muchos de ellos muy lejos del área del accidente.
Al informarse sobre la catástrofe varias naciones ofrecieron ayuda humanitaria
inmediata a los afectados, además de realizar promesas a largo plazo, que nunca
cumplieron. Solo Cuba ha mantenido desde 1990, sin ningún apoyo financiero de
institución internacional alguna, un programa de socorro para las víctimas de
este accidente nuclear. El sistema de salud de Cuba ha atendido a 18 153
pequeños de Ucrania y Bielorus con diversas enfermedades y ha acogido además a 3
427 adultos acompañantes. Más de 300 infantes con padecimientos hematológicos,
136 con tumores y 1 552 con afecciones dermatológicas, han recibido tratamiento.
Se han realizado 14 operaciones cardiovasculares y seis transplantes de médula
ósea. Un por ciento alto de los niños de Chernobyl atendidos en Cuba provienen
de orfanatos y escuelas para niños sin amparo filial.
En el peligroso polo del desarrollo de las armas nucleares también se vieron
envueltos eminentes físicos y radioquímicos. A fines de los años 30 el panorama
de la 2da Guerra Mundial se presentaba muy complicado. El odioso Reichstag
alemán había amenazado con estar desarrollando un arma de potencia desconocida
que rendiría a la humanidad a los pies del nazifascismo.
Durante las décadas del 20 al 40 el profesor sueco en
físicamédica Rolf M. Sievert (1896 – 1966) hizo las
más importantes contribuciones al campo de la física
clínica. En particular a la solución de los problemas
físicos relacionados con el empleo de la radiación en
la diagnosis y la terapia. Sievert desarrolló las
bases de como calcular la dosis absorbida para los
tumores, nuevos equipos para la irradiación de
pacientes, e instrumentos de medición de dosis, entre
ellos la mundialmente conocida cámara que lleva su
nombre.
A este científico se debe la determinación de los efectos biológicos de la
radiación ionizante, con particular énfasis en los efectos que las dosis
bajas de radiación ionizante recibida por los radiólogos en su trabajo
281
diario. Hasta su muerte en 1964, Sievert jugó un rol muy activo en la
cooperación internacional en el campo de protección y de la medición de las
dosis de radiación. En 1979, la Comisión General de Pesos y Medidas aprobó
que la unidad para una dosis de radiación ionizante equivalente llevara su
nombre (sievert, Sv).
En 1939 Einstein junto con otros físicos envió una carta al presidente
Roosevelt solicitando el desarrollo de un programa de investigación que
garantizara el liderazgo de los aliados en la construcción del arma
atómica. Científicos de diferentes generaciones y países concurrieron a la
convocatoria del Proyecto Manhattan, para producir el arma atómica antes de que
el eje nazifascista pudiera obtenerla. Al finalizar la guerra, el profundo
carácter humanista y la inteligente pupila de la mayoría de estos científicos
quedaron revelados por la firme oposición mostrada a la continuación de las
investigaciones en el arma nuclear.
Toda una red de establecimientos investigativos, en particular de universidades
estadounidenses, y de instalaciones especialmente diseñadas para este propósito
se compartieron las tareas del Proyecto Manhattan. Dentro de esta comunidad
científica multinacional se destacaba el colectivo estadounidense que creció
alrededor del Colegio de Química y del Laboratorio de Radiación de la
Universidad de California en Berkeley, y jugó un papel extraordinario en el
descubrimiento de radioisótopos y elementos transuránicos, su aplicación en
nuevos dominios de la ciencia y la técnica, y también en el desarrollo del arma
nuclear.
Durante este período, Seaborg era ya uno de los más brillantes radioquímicos de
la época, y según se comentó brevemente arriba, dirigió el colectivo que se
enfrascó con éxito en la obtención del material nuclear fisionable. En febrero
de 1941, continuó los estudios sobre la fusión nuclear iniciados por McMillan,
reclamado en ese momento para investigaciones relacionadas con la guerra, en el
282
nuevo ciclotrón del laboratorio de radiación y descubrió que el Plutonio239 es
fisionable con neutrones lentos producidos en el ciclotrón de 37 pulgadas. Esto
demostraba la utilidad del plutonio como componente explosivo en el arma nuclear
y lo más importante abría paso al uso del uranio como combustible nuclear para
reactores generadores de la energía necesitada por el mundo.
Casi veinte años más tarde Seaborg intervino de forma relevante en la redacción
del Tratado para la Prohibición de Pruebas Nucleares de 1963, cuyo fin era
prohibir los ensayos nucleares en el espacio, la atmósfera o bajo las aguas.
Pero apenas a dos meses antes del lanzamiento de la bomba atómica en Hiroshima
el secretario de la guerra de EU recibió un documento firmado por científicos de
las investigaciones conducidas en el Laboratorio de Metalurgia de la Universidad
de Chicago, que pasó a la historia como "Franck Report". Entre los firmantes se
encontraba Seaborg, y lo encabeza el jefe de la división de Química, el físico y
químico alemán, naturalizado en los EU, James Franck (1882 1964).
El copioso documento intenta frenar el lanzamiento de la bomba atómica de forma
unilateral por los EU. Su sumario parece redactado más que por científicos por
políticos profundos y sensatos que comprendieron, amén de la tragedia que le
tocaría vivir a las víctimas de semejante engendro destructivo, el espectro de
la guerra fría y el clima de recelos mutuos que se entronizarían en las
relaciones internacionales a partir de este momento. Leamos a continuación los
convincentes argumentos sintetizados en los últimos párrafos del reporte:
"Nosotros creemos que estas consideraciones hacen el uso de las bombas nucleares
inadmisible si antes no se anuncia el terrible poder destructivo de esta arma,
283
que con menos de una tonelada, es capaz de arrasar un área urbana de más de 10
millas cuadradas y cuyos efectos a largo plazo no conoce la humanidad.
desarrollada por Bohr.
El profesor Franck fue uno de los primeros que se manifestó
abiertamente contra las leyes raciales en Alemania y renunció
a su cátedra en la Universidad de Gotinga en 1933 como una
protesta contra el régimen nazi. Más tarde en 1945 se unió a
un grupo de científicos del Proyecto Manhattan para preparar
el renombrado Franck Report dirigido al Departamento de la
Guerra, urgiendo a que EU no lanzara la bomba atómica contra
Japón, y denunciando la peligrosa carrera armamentista que se
desataría a partir de este momento.
Nosotros urgimos que el uso de las bombas nucleares en esta guerra sea
considerada como un problema de la política nacional estratégica mas que una
decisión evaluada desde posiciones militares y que esta política sea dirigida al
alcance de un acuerdo que permita un control internacional efectivo de los
medios de la guerra nuclear".
Esta exhortación aunque no alcanza su objetivo principal, ya que en junio de
este mismo año la humanidad se despierta aterrorizada ante el holocausto de
284
Hiroshima, queda como un monumento testimonial del rechazo de los científicos al
uso de la ciencia para la destrucción e intimidación en los asuntos políticos.
En plena guerra fría, el propio año del fallecimiento de Einstein, se publica el
llamamiento a los científicos que pasa la historia como el Manifiesto de Russel
– Einstein. No pudo ser más oportuno este aldabonazo para unir las voluntades de
científicos de diferentes credos y orientaciones políticas en la lucha por la
paz pero diversas circunstancias no hicieron posible el encuentro propuesto
hasta 1957, en que el filántropo estadounidense Cyrus Eaton ofreció la villa de
Pugwash en Nova Scotia, Canadá, como sede del evento que pasó a la historia como
Primera Conferencia del Pugwash. A partir de entonces se inauguró un movimiento
a favor de la solución pacífica de los litigios entre naciones que ha tenido una
creciente capacidad de convocatoria entre la comunidad científica con el
propósito de examinar los problemas más candentes que aquejan a la especie
humana.
285
de los firmantes junto a Max Born, Percy Bridgman,
Leopold Infeld, Frederic JoliotCurie, Herman
Muller, Cecil Powell, Hideki Yukawa y Linus
Pauling.
El ultimo párrafo del manifiesto reza:
"Nosotros apelamos como seres humanos a seres humanos. Recuerden su humanidad
y olviden el resto. Si puedes hacer esto, el camino quedara abierto para un
nuevo paraíso; si no puedes quedará ante ti el riesgo de la muerte
universal".
Entre los que mostraron un temprano alistamiento en la causa a favor de la paz y
el desarme se encuentra el físico nuclear polaco Joseph Rotblat (1908 2005)
que apoyó sin reservas este Manifiesto firmado por Einstein dos días antes de su
muerte y por otros nueve científicos relevantes en el campo de la Física
Nuclear.
Rotblat que había trabajado en el laboratorio de Chadwick en Liverpool en el
desarrollo de experimentos básicos para evaluar la factibilidad de fabricar una
bomba atómica, se ve enrolado en la delegación británica que asiste en 1941,
luego de la entrada de los Estados Unidos en la guerra y la decisión del
gobierno de iniciar el Proyecto Manhatann, al Laboratorio de los Álamos, Nuevo
México. Se contó entre el grupo de científicos que tan pronto comprendieron que
la amenaza fascista había desaparecido, abandonaron inmediatamente el proyecto.
En 1950 Rotblat se traslada al Colegio Medico del Hospital de San Bartolomé de
la Universidad de Londres, donde su carrera profesional fue orientada a la
aplicación de la Física Nuclear a la Medicina, desarrollando trabajos pioneros
en radiología, radioterapia con acelerador lineal, y radiobiología.
Pero la principal contribución de Rotblat al desarrollo de la paz mundial fue la
organización de aquel movimiento que naciera del Manifiesto de Russel – Einstein
en la pequeña villa de Pugwash. A partir de este momento casi una vez al año se
reúnen más de 100 participantes de unos 40 países, principalmente de USA, Rusia
y Gran Bretaña con el propósito de evaluar las vías para lograr un mayor
entendimiento y viabilizar acuerdos internacionales en materia de regulaciones y
prohibiciones de desarrollar nuevas generaciones de armamentos nucleares.
Rotblat es durante largos periodos secretario general del movimiento (1957
1973), su presidente desde 1988 – 1997 y en 1995 resulta galardonado con el
Premio Nobel de la Paz.
Otra gran figura en el activismo a favor de la paz y la comprensión entre los
pueblos es el físico –químico estadounidense Linus Pauling (1901 1994). Su
286
esposa Ava Helen Miller se interesó primero que Pauling por los temas de los
derechos humanos, la paz y la prohibición de los ensayos nucleares llegando a
ser miembro de la Liga Internacional de Mujeres por la Paz y la Libertad. Pero
pronto Linus que era ya un profundo conocedor de la estructura de las moléculas,
y de su transmisión a través de la herencia, despertó una honda preocupación por
los efectos potenciales malignos de las emisiones nucleares sobre las
estructuras de las moléculas humanas.
287
Muy a pesar de la actividad de los hombres de ciencias por frenar la carrera de
las armas y detener los nuevos desarrollos del arma atómica, la lógica de la
espiral armamentista había alcanzado al arma nuclear.
magnitud que medio siglo después continúan las prometedoras investigaciones en
este campo.
288
fascista. En Estados Unidos se unió al proyecto Manhattan y en Los Álamos se
mostró como un defensor entusiasta de la continuación del programa de
fabricación de nuevas armas nucleares. Esta vez la conquista se enfilaba a
liberar la colosal energía asociada a la fusión nuclear. El 1 de noviembre de
1952 explotaba la primera bomba de hidrógeno (nombrada Mike) con la fuerza
equivalente a 500 bombas como la que había destruido a Hiroshima. Desde
California, Teller pudo registrar el impacto sísmico que produjo y exclamó
alegremente: "Es un chico". Un "chico" que podía cegar la vida de millones de
seres...
Como ya apreciamos en el caso de dos personalidades como Szilard y Rotblat, una
trascendente orientación de los físicos nucleares se dirigió hacia la solución
de problemas en el campo de la biología. Un notable impacto en los estudios de
los procesos biológicos tuvo el descubrimiento del isótopo radioactivo del
carbono –14. Pero no solo la biología resultó beneficiada con este hallazgo, la
técnica de datación con el carbono –14 provocó una revolución en los ámbitos de
la arqueología, y la geología.
Los autores de este descubrimiento fueron dos jóvenes científicos que en la
década del 30 formaron parte de un impresionante staff de físicos y químicos
agrupados en torno al joven director del Laboratorio de Radiación de la
Universidad de Berkeley, inventor del ciclotrón, Ernest O. Lawrence (19011958).
Martín D. Kamen (19132002) y Samuel Ruben (19131943) vieron sus planes
inmediatos postergados por su enrolamiento en investigaciones para los servicios
de la guerra y, a partir de estos momentos, sufrieron una verdadera tragedia.
El paralelismo en las vidas de Ruben y Kamen supera el marco profesional. Ambos
nacieron en 1913. Kamen había nacido en Toronto de padres inmigrantes, la madre
de la región del Báltico, el padre de Bielorrusia. Los padres de Ruben eran
polacos. En 1936, Kamen había defendido su grado de doctor en la temática de la
interacción protonesneutrones en la Universidad de Chicago. Ruben, dos años,
después recibió el doctorado por la Universidad de California, Berkeley, y el
tema central de su disertación estuvo vinculado con el empleo del fósforo
radioactivo como trazador para estudiar procesos biológicos.
289
La historia profesional de Samuel Ruben se entrelaza con
la de su compañero Martin D. Kamen. A partir de 1937 una
alianza productiva se establece entre estos dos jóvenes
investigadores de áreas complementarias en Berkeley. En
1940 anuncian el descubrimiento del isótopo del carbono –
14 que prometía, por su tiempo de vida medio, una nueva
época como trazador radioactivo. A la entrada de los E.U.
en la II Guerra Mundial, son reclamados por diferentes
laboratorios para estudios relacionadas con la guerra
y sus vidas profesionales se separan.
La razón de su posterior alianza se puede encontrar en los temas hacia dónde
dirigieron sus esfuerzos iniciales en la investigación. En 1937, Ed McMillan
traslada a esta pareja de jóvenes talentosos de dos áreas complementarias de
Berkeley, un encargo de comprobación experimental solicitado por el propio
Lawrence. A partir de entonces una tácita división del trabajo opera entre
ellos: la producción y caracterización de los isótopos producidos en el
ciclotrón sería una responsabilidad de Kamen, mientras su aplicación en la
investigación química debía ser tarea de Ruben.
En febrero de 1940, se anunciaba, en ocasión de la ceremonia de entrega oficial
del premio Nobel de Física (1939) a E.O. Lawrence el descubrimiento del carbono
14. La valoración del significado trascendental del hallazgo destacaba que por
medio del ciclotrón, se había obtenido una nueva forma radioactiva del carbono,
probablemente de masa 14 y tiempo de vida media del orden de magnitud de algunos
años. Sobre la base de su potencial utilidad es la más importante sustancia
radioactiva que haya sido creada. Tenían entonces ambos 27 años. Pronto
intervendría EU en la Guerra, y sería reclamada la participación de ellos en
estudios relacionados con la actividad bélica.
Ruben fue solicitado por el Comité Nacional de Defensa para un proyecto que se
proponía desarrollar métodos para la determinación de la concentración de gases
en el ambiente. Durante la manipulación de una ampolleta de vidrio defectuosa,
cargada con fosgeno, escapó el gas y Ruben debió inhalar una dosis mortal del
290
mismo. Un día después, en el otoño de 1943 murió en el Hospital en que fuera
internado.
En este año de la muerte de Ruben, fue enrolado Kamen en las investigaciones del
Laboratorio Nacional de Oak Ridge del Proyecto Manhattan. Pero poco después es
separado de este laboratorio cuando Kamen especula con sus colegas sobre la
existencia de un reactor nuclear en las dependencias de estas instalaciones y
esta información, sumamente sensible, llega a los agentes de seguridad del
proyecto. Este suceso es interpretado como una intromisión de Kamen y una
inclinación por datos de la seguridad y se decide no sólo su separación del
programa sino también someterlo a chequeo personal.
Un nuevo incidente se crea al reincorporarse a Berkeley. En el transcurso de una
velada musical organizada por su amigo el músico Isaac Stern, al cual acompaña
en la viola, conoce a dos oficiales rusos, uno de los cuales le pide a Kamen
averigüe sobre como puede un compañero aquejado de leucemia acceder a la nueva
terapia radioquímica.
Los agentes del FBI lo chequeaban y esta "relación" con oficiales rusos es de
nuevo interpretada como un motivo para levantar un expediente de investigación.
Kamen es despedido de su trabajo en Berkeley. El despido de Kamen fue seguido
por un año de negaciones a ofertas de trabajo tanto en puestos académicos como
de la industria. Es difícil imaginar las ideas perdidas tras la muerte de Ruben
y la suerte corrida por Kamen.
291
En la primavera de 1945 el premio Nobel de Física (1923) Arthur H. Compton (1892
1962) lo invita a trabajar en la Escuela de Medicina de la Universidad
Washington para conducir el programa del ciclotrón. Sin embargo la enseñanza de
la metodología del trazador radioactivo a los profesores y la preparación de
materiales radioactivos marcadores para sus investigaciones clínicas,
desplazaron el interés de la investigación desde la física nuclear hacia la
biofísica. Con la publicación en 1947 de su aclamado texto "Radioactive tracers
in Biology", Kamen concluyó su trabajo sobre el C14.
Al concluir la guerra, el profesor del Departamento de Química
de Berkeley, Willard Libby se traslada al Instituto de Estudios
Nucleares de la Universidad de Chicago y allí descubre en 1947
"el reloj radioactivo" del carbono14. Su técnica de datación
de lapsos grandes es una de las aplicaciones más sobresalientes
del isótopo de KamenRuben. Un organismo vivo mantiene un
intercambio permanente con el medio y por tanto la
concentración del C14 en su constitución se mantiene
constante, pero al morir, el C14 se desintegra a una velocidad
constante de acuerdo con su período de vida media de 5730 años.
La intensidad pues de la radiación emitida por el fósil será una medida de "su
edad". Una revolución en la arqueología, antropología y geología deviene de la
292
confiabilidad de esta técnica de datación.
Algunas tecnologías derivadas de las teorías físicas y su aplicación.
Resumir en breves líneas los extraordinarios progresos alcanzados en el siglo XX
en materia de tecnología derivadas de teorías físicas es tarea imposible.
Reducimos nuestro propósito a esbozar algunas técnicas de avanzada que emergen
de los resultados teóricos más brillantes nacidos y desarrollados en este siglo.
Cuando Roentgen descubre en 1895 los rayos de naturaleza entonces desconocida
pero desde ya comprobada su alta capacidad de penetración pronto se aplica para
obtener las primeras fotos de los huesos humanos. Su aplicación en Medicina
encuentra una rápida difusión y en determinadas circunstancias históricas brilla
en esta actividad la célebre Marie Curie. También con relativa rapidez se
inaugura una época en que los rayos –X resultan útiles para analizar las
sustancias cristalinas o los espectros de emisión de estas radiaciones por los
elementos químicos permiten su identificación. Las páginas que siguen abordaran
brevemente estos momentos.
Con el propósito de apoyar la candidatura para una plaza vacante en la Academia
de Ciencias del eminente físico Edouard Branly (18441940), que representaba los
valores del conservadurismo francés, la prensa reaccionaria francesa no dudó en
dañar la imagen de la insigne científica de origen polaco, Marie Curie. El daño
se hizo y la candidatura de Marie fue derrotada en 1910 por dos votos. Un año
después a su regreso del Congreso Solvay en Bruselas, debió enfrentar una nueva
ronda de odio esta vez "acusada" de sostener relaciones con el destacado físico
francés Paul Langevin (1872 – 1946). Poco después recibiría la información de la
Academia Nobel de haber recibido un segundo Premio, esta vez en la disciplina de
Química. De cualquier forma en los primeros meses de 1912, sufrió primero una
fuerte depresión nerviosa y luego debió someterse una operación de los riñones.
Sólo a fines de este año Marie retornó al laboratorio después de casi 14 meses
de ausencia. El escándalo había finalizado y la Academia de Ciencias estaba
dispuesta a darle la bienvenida a la mujer que había sido dos veces laureada con
un premio Nobel.
Pero pronto se pondría a prueba la estatura moral y el patriotismo verdadero
que, durante el periodo de la guerra, iba a demostrar Marie por su nación de
adopción. Por el otoño de 1914, cuando Alemania declaró la guerra a Francia, la
construcción del Instituto de Radio había terminado pero la Curie no había
trasladado aún su laboratorio para la nueva edificación. El trabajo del
Instituto de Radio podría haber esperado por la restauración de la paz pero la
Curie encontró formas de poner su conocimiento científico al servicio del país.
En el Instituto de Radio, la Curie entrenó alrededor de 150 mujeres en la
293
técnica de rayos – X que actuaron como asistentes en las unidades radiológicas
móviles que fueron llevadas a las líneas del frente. Previamente había
encabezado una campaña nacional para adaptar carros de aquellos tiempos como
unidades radiológicas móviles que dieran una asistencia inmediata para el
tratamiento de los heridos y fracturados en el campo de batalla. El uso de los
rayos –X durante la guerra salvó las vidas de muchos heridos y redujo los
sufrimientos de los que sufrieron fracturas de todo tipo.
El redescubrimiento de los rayos –X se produjo cuando el físico alemán Max von
Laue (1879 – 1960) determina experimentalmente la longitud de onda de los rayos
–X al estudiar los espectros de difracción que experimentan las sustancias
cristalinas. Otros pioneros en el estudio de la estructura de los cristales
mediante sus espectros de difracción de rayos –X fueron los físicos británicos,
padre e hijo, William Henry Bragg (18621942) y William Lawrence Bragg (1890
1971). El primero fue profesor de Física de universidades inglesas y en el
último tramo de su vida profesional ocupo la cátedra de Física de la Universidad
de Londres. Su hijo le siguió los pasos en la investigación y juntos
desarrollaron trascendentales estudios sobre la estructura cristalina de
294
importantes sustancias del mundo inorgánico demostrando la utilidad de la
técnica como herramienta de investigación para confirmar las teorías
cristalográficas. En reconocimiento a los logros cosechados compartieron padre e
hijo el premio Nobel de Física de 1915. Nunca antes ni después se ha repetido
este acontecimiento. William Lawrence fue sucesor en la Universidad de
Manchester del físico nuclear Ernest Rutherford y luego funda en Cambridge, en
1938 el laboratorio de Biología Molecular que se destacará en los próximos años
por los estudios fundamentales que desarrolla que cubren todo una época.
Otro grande de las primeras décadas en el desarrollo de la espectroscopia de
rayos –X fue el físico sueco, primer director del Instituto Nobel de Física
Experimental, Karl Manne Georg Siegbahn (18861978). Siegbahn no se dedicó a la
interpretación de los espectros de difracción sino al análisis de los rayos –X
emitidos por los elementos químicos al ser bombardeados por electrones rápidos.
En tales casos cada elemento ofrece un espectro de emisión característico. Los
espectrómetros construidos por el propio Siegbahn permitían medir y registrar
con alta precisión las longitudes de onda emitidas por cada elemento químico.
Sus trabajos revelaron información sobre prácticamente todos los elementos
químicos, desde el sodio hasta el uranio, lo que facilitó el análisis de
sustancias desconocidas y encontraron aplicación en campos tan diversos como la
física nuclear, la química, la astrofísica y la medicina.
En artículos publicados en la Revista Journal of Applied Physics de 1963 y 1964
el físico sudafricano, naturalizado en EU, Allan M. Cormack (1924 1998) expusó
los principios de una nueva técnica que aplicaba un barrido multidireccional de
rayos –X sobre el paciente para luego reconstruir las imágenes de sus órganos
con mayor resolución que las técnicas convencionales. Estos trabajos no llamaron
295
la atención de la comunidad de radiólogos hasta que en 1967 el ingeniero
electrónico británico Godfrey N. Hounsfield (19192004) sin conocerlos
desarrolló el escáner un equipo que bajo el mismo principio propuesto por
Cormack iba a representar una de las más importantes invenciones médicas del
siglo XX: la tomografía axial computerizada (TAC). Los escáneres se empezaron a
utilizar en la década de 1970 y en la actualidad se emplean en muchos países,
sobre todo para diagnosticar el cáncer. La tomografía permite un diagnóstico más
preciso al obtener imágenes tridimensionales con una resolución mucho mayor.
En 1979 Cormack y Hounsfield compartieron el Premio Nobel de Fisiología y
Medicina.
El estudio de las fuentes cósmicas de rayos –X se inició
en la segunda mitad del siglo XX. Como uno de los
fundadores de la Astronomía de Rayos –X se reconoce al
físico italiano Riccardo Giacconi (1931), premio Nobel
de Física 2002. En 1962 Giacconi y un equipo de
científicos de la NASA enviaron en un cohete un detector
de rayos –X con un objetivo diferente al descubrimiento
obtenido: el primer agujero negro se registraba en la
constelación Escorpión como un potente emisor de rayos
X. A partir de entonces diferentes laboratorios
espaciales de rayosX han descubierto explosiones de
supernovas, púlsares de rayosX, quásares
extragalácticos y otros acontecimientos cósmicos que
produzcan un extraordinario calentamiento de gases o
campos magnéticos intensos. En la década de 1990, un
satélite alemán equipado con un telescopio de rayos X
cuyo nombre perpetúa la memoria de Roentgen (ROSAT)
proporcionó una observación detallada de la radiación
cósmica de rayos X. La exploración del ROSAT descubrió
casi 60.000 fuentes de rayos X en todo el Universo.
Las ondas mecánicas con una frecuencia de vibración comprendida entre 15 y 20
kHz son registradas por el sistema del oído interno humano. Las ondas de
frecuencia superior inaudibles son llamadas ondas ultrasónicas. La génesis de
las ondas ultrasónicas esencialmente se asocia con el descubrimiento en 1880 del
efecto piezoeléctrico por los hermanos Pierre (1859 – 1906) y Jacques Curie que
proporcionó los medios de generar y de detectar las ondas de ultra alta
frecuencia.
296
Las primeras aplicaciones serias de dispositivos piezoeléctricos tuvieron lugar
durante la primera guerra mundial. En 1917 un equipo de investigación dirigido
por el físico francés Paul Langevin (1872 – 1946) comenzó a diseñar un detector
submarino ultrasónico. El transductor era un mosaico de cristales de cuarzo
delgados encolado entre dos platos de acero (el compósito tenía una frecuencia
resonante de aproximadamente 50 KHz), montado en un conveniente dispositivo para
la sumersión. Para el fin de la guerra, se había logrado el objetivo de emitir
un gorjeo submarino de alta frecuencia y medir la profundidad cronometrando el
eco del retorno. La importancia estratégica de su logro no fue pasada por alto
por las naciones industrializadas y desde entonces no ha cesado el desarrollo de
transductores del sonar, circuitos, sistemas, y materiales relacionados.
Cuatro decádas después de la invención del sonar, apareció un artículo de título
sugerente publicado en la Revista Science: “Tomando imágenes con el sonido”.
Corría el último mes de 1957 y lo firmaba un físico de la División de Metalurgia
del Laboratorio Nacional Argonne, William Nelson Beck (1923 – 1996). Como ocurre
con relativa frecuencia el objeto inicial de la investigación fue alterado
cuando Beck comprobó que podía recomponer imágenes de los órganos expuestos a
ondas ultrasónicas. Ajustando la sensibilidad del sistema de registro fue
posible diferenciar entre carne y hueso.
Con el paso del tiempo, los equipos analizadores de ultrasonido han tenido una
gran aceptación en las investigaciones médicas por tres razones fundamentales:
permite ver imágenes en tiempo real (en movimiento), es un método de diagnóstico
económico en comparación con otros, y por último las ondas ultrasónicas no
constituyen radiaciones ionizantes que penetren y dañen al tejido vivo. El
término de ecografía con que se reconoce la técnica de exploración clínica que
emplea el ultrasonido acusa el principio de su aplicación. El equipo debe emitir
ondas ultrasónicas cuyo eco (variable según la naturaleza del tejido reflector)
es registrado y finalmente transformado en imagen. Puesto que las ondas
ultrasónicas son mejor reflejadas por los órganos que contienen líquidos, estos
serán mejor “vistos” lo que hace especialmente útil la técnica de análisis
clínico en las áreas de obstetricia (placenta, feto, partes maternas); la
ginecología (útero y ovarios); gastroenterología (hígado, vesícula, vías
biliares) y urología (riñones, vejiga y próstata).
297
De Paul Langevin, físico francés de importantes
contribuciones a la física del estado sólido y a la
mecánica relativista, Einstein afirmó: “Es indudable que
si yo no hubiera publicado mi trabajo, él habría alcanzado
su meta, tarde o temprano, y lo habría hecho antes que
todos los demás”. Pero su grandeza desborda su valiosa
contribución a la Ciencia. Desarrolla una notable lucha por
la paz entre las naciones. En 1933, preside el Comité
Mundial contra la Guerra y el Fascismo. Con el asalto de
las hordas nazis a París es el primer relevante intelectual
francés internado en un calabozo.
La radiación coherente intensa y direccional producida por el dispositivo
llamado láser en una amplia región del espectro electromagnético desde el
infrarrojo hasta los rayos – X, es el resultado de un proceso de amplificación
de la radiación mediante emisión estimulada de un medio que puede ser un gas, un
líquido o un sólido. La radiación láser ha encontrado aplicaciones en el campo
de la técnica, la medicina y las investigaciones científicas.
En 1917 Einstein introduce el concepto de emisión estimulada y sólo décadas más
tarde, en 1954, los físicos soviéticos Nikolai G. Basov (1922 2001) y Alexander
M. Projorov (1916 2002) del Instituto Lebedev de Física de Moscú y, de modo
independiente, el físico estadounidense Charles H. Townes (1915 ), por entonces
profesor de la Universidad de Columbia, utilizan el proceso de emisión
estimulada para la fabricación de los primeros amplificadores de microondas
(Máser). Por sus estudios en el campo de la electrónica cuántica que anticiparon
la técnica de amplificación de las microondas por emisión estimulada de la
radiación, Basov, Projorov y Townes compartieron el Premio Nobel de Física en
1964. Pronto se encontraron numerosas aplicaciones para estos dispositivos
capaces de enviar microondas de elevada intensidad en cualquier dirección y un
resultado inmediato fue el perfeccionamiento de la tecnología de los
radares. Los máseres encontraron aplicación por la gran estabilidad de las
frecuencias generadas, como reguladores de tiempo en relojes atómicos.
No pasan cuatro años sin que Projorov e —independientemente— Arthur L. Schawlow
(1921 1999) y Townes extiendan los principios de la amplificación por
estimulación de la radiación a la luz visible (Láser).En 1958, la pareja de
estadounidenses describió a grandes rasgos los principios de funcionamiento del
láser en su solicitud de patente. Obtuvieron la patente, pero posteriormente fue
impugnada por el ingeniero estadounidense Gordon Gould. En 1977, el Tribunal de
298
Patentes de Estados Unidos confirmó una de las reivindicaciones de Gould en
relación con los principios de funcionamiento del láser.
Los plazos siguen acortándose y esta vez en 1960 el físico estadounidense
Theodore H. Maiman (1927 ) construye el primer láser utilizando un rubí como
medio amplificador del láser. Un año después el físico de origen iraní Alí
Javan fabrica un láser utilizando una mezcla gaseosa de helio y neón. El láser
de helioneón resalta por su elevada estabilidad de frecuencia, pureza de color
y mínima dispersión del haz.
A lo largo de la década de los sesenta se investigan con éxito diferentes medios
de estimulación. En 1962 se fabrican los primeros láseres de semiconductores en
varios laboratorios del mundo. Este tipo de laser está integrados por una unión
entre capas de semiconductores con diferentes propiedades que confina la cavidad
del láser mediante dos límites reflectantes. Se logra así una estructura de
láser compacta. En la actualidad, entre los usos más comunes de los láseres de
semiconductores se encuentran los reproductores de discos compactos y las
impresoras láser.
299
cuales estudiar transformaciones nucleares. Poco después Ernest O. Lawrence
(19011958) inventa un acelerador de micropartículas, el ciclotrón, que abría
nuevas horizontes a las investigaciones de los procesos de fusión nuclear
pronosticados por Fermi. Lawrence, profesor titular de la Universidad de
Berkeley a los 29 años, fundó el Laboratorio de Radiación que en alianza
productiva con el Colegio de Química dirigido por el veterano Gilbert Newton
Lewis (1875 –1946) posibilitó el descubrimiento de los elementos transuránicos y
de numerosos radioisótopos de gran utilidad como trazadores en investigaciones
biológicas y en aplicaciones médicas. En 1939 recibe el Premio Nobel de
Física.
El descubrimiento de los 22 elementos transuránicos con número atómico superior
a 92 (que caracteriza al uranio) fue posible gracias a los aceleradores de
partículas. Sólo tres de estos elementos fueron producidos en los reactores
nucleares por procesos de fusión mediante el bombardeo con neutrones rápidos, y
de desintegración radiactiva. Así cuando el uranio 238 es bombardeado con
neutrones se convierte en el uranio 239 que experimenta la beta desintegración
americio 241Am95 por bombardeo de neutrones y posterior desintegración beta del
plutonio241.
Los elementos transuránicos desde número atómico 96 y más alto son todos
fabricados mediante aceleración de un pequeño núcleo (tal como He, B, o C) en un
acelerador de partículas cargado para colisionar con un núcleo pesado marcado (a
menudo de un núcleo transuránico previamente producido).
300
A los descubrimientos del Laboratorio Nacional Lawrence se sumaron otros dos
laboratorios de relieve internacional que fundados en la segunda mitad del siglo
XX asumieron como direcciones fundamentales de la investigación la síntesis de
nuevos elementos pesados y superpesados, el estudio de sus propiedades físicas y
químicas así como la investigación de las propiedades de sus desintegraciones
radioactivas. Una sobresaliente actuación en estas complejas tareas ha
caracterizado la gestión del Laboratorio de las Reacciones Nucleares de Flerov
perteneciente al Instituto Conjunto para la Investigación Nuclear de Dubna, a
unos 160 km de Moscú y el Laboratorio de Investigación de Iones Pesados en
Darmstadt, Alemania.
Entre los 80 y los 90 el Laboratorio de Darmstadt, cosechó significativos éxitos
en el terreno de la síntesis de nuevos elementos pesados. El equipo encabezado
por el físico alemán Peter Ambruster participó en el descubrimiento de los
elementos Bohrio (Z=107, 1981), Hassio (Z=108, 1984), 109 Meitnerio (Z= 109,
1982); Darmstadtio (Z=110, 1994) y Roentgenio (Z=111, 1994).
301
Durante 30 años el académico soviético Georgy N.
Flerov (1913 – 1990) fue director del Laboratorio de
Reacciones Nucleares que fundó en 1956 en Dubna. Sus
colaboradores que llegaron a Dubna en plena juventud
reconocieron el clima de confianza y de libertad
fomentado por Flerov que posibilitó en una década el
liderazgo alcanzado por esta institución. En 1995 el
grupo internacional de trabajo adjudicó la prioridad
en la síntesis de los elementos 102105 al
laboratorio de Flerov. Además el laboratorio recibió
un reconocimiento por su destacada contribución al
descubrimiento de los elementos 106 108.
En 1997, en el Congreso de la Unión Internacional de Física Pura y Aplicada,
el elemento 105 fue llamado Dubnium. El sucesor de Flerov al frente del
laboratorio fue el profesorYuri Ts. Oganessian, uno de los descubridores más
fecundos de elementos transférmicos de fines del siglo XX. En 1998 se
anunciaba el descubrimiento del Ununquad (Z=114).
El camino iniciado por Kamen en la utilización de los isótopos radioactivos como
trazadores de procesos biológicos resultó clave en la identificación definitiva
del agente responsable de la transmisión hereditaria. La comunidad científica
hacia finales de los cuarenta no había sido convencida por las pruebas
experimentales presentadas por el colectivo del Instituto Rockefeller de
Investigación Médica encabezado por el inmunólogo estadounidense Oswald Theodore
Avery (18771955) que demostraban que era el ADN, y no otras posibles sustancias
como el ácido ribonucleico (ARN) o las proteínas, el que transmitía las
características hereditarias. Tuvieron que pasar ocho años más para que Alfred
D. Hershey (1908 – 1997) y Martha Chase (1928 – 2003) en 1952, utilizando
bacteriófagos marcados con los isótopos radioactivos S35 o P32 (el azufre como
elemento químico propio de las proteínas y el fósforo del ADN) demostraran de
manera irrefutable que el ADN viral llevaba la información genética responsable
de la síntesis de los compuestos proteicos que constituyen la cápside del virus.
Es decir, los genes son ADN. En 1969, Hershey compartió el premio Nobel con
Salvador E. Luria (1912 1991) y Max Delbrück (1906 1987) "por sus
descubrimientos en relación con el mecanismo de replicación y estructura
genética de los virus".
Una vez aceptado el significado genético del ADN, el paso obligado siguiente era
determinar la estructura que explicara las propiedades mágicas de la replicación
302
y la mutación. Los nombres de dos científicos británicos y un estadounidense se
enlazan en el trascendental descubrimiento de la estructura de doble hélice del
ácido desoxirribonucleico. Sin embargo son muchos los que reclaman un merecido
espacio a un nombre de mujer: la prematuramente desaparecida Rosalind Franklin
(1920 1958).
Un baluarte en la aplicación y desarrollo de estos métodos lo encontramos en el
Laboratorio Cavendish de Cambridge. En este laboratorio se concentraron recursos
materiales y capital humano que forjó una comunidad con un nivel de primera
línea. El físico británico Francis H. C. Cricks (1916 ) y el bioquímico
estadounidense James D. Watson (1928 ) coincidieron en los primeros años de los
cincuenta en el Cavendish. Contaban en el arsenal de antecedentes con el
principio de complementariedad de las bases nitrogenadas establecido
experimentalmente por el químico checo Erwin Chargaff (1905 2003), los modelos
de estructura helicoidal propuestos para las proteínas por Linus Pauling, y las
imágenes de los espectros de difracción de rayos X obtenidos por Maurice Wilkins
(1916 ), y sobre todo por la química – física Rosalind Franklin (1920 – 1958).
303
de conservarse a sí mismo (replicación) y la de cambiar (mutación). En 1962
Crick, Watson y Wilkins compartieron el premio Nobel de Fisiología y Medicina.
La evolución de los acontecimientos luego de sus publicaciones ratifica la
importancia de la teoría para alumbrar la práctica. Se tornaba más claro y firme
el despegue de la ingeniería genética.
Un nuevo salto se produciría durante la década de los ochenta cuando el químico
suizo Kurt Wuthrich (1938 ), premio Nóbel de Química del 2002, desarrolló la
idea sobre cómo extender la técnica de Resonancia Magnética Nuclear al estudio
de las proteínas. En muchos aspectos el método de RMN complementa la
cristalografía de rayos X, pero presenta la ventaja de estudiar la molécula
gigante de la proteína en solución, es decir en un medio que se asemeja a cómo
ella se encuentra y cómo funciona en el organismo viviente. Ahora la técnica de
RMN puede también usarse para los estudios estructurales y dinámicos de otros
biopolímeros tales como los ácidos nucleicos que dirigen el dominio de la
información hereditaria. En esta década de los ochenta, se producen equipos de
RMN que ofrecen imágenes de los tejidos internos del organismo, convirtiéndose
en una técnica muy útil para el diagnóstico de enfermedades especialmente para
el examen de la cabeza, cuello y cerebro.
304
En la década del 30, el físico e ingeniero electrónico alemán Ernst A. Ruska
(1906 – 1988), premio Nóbel de Física en 1986, elaboró los principios de
funcionamiento y diseñó el primer microscopio electrónico. Al comienzo del 45,
cerca de 35 instituciones científicas fueron equipadas con este equipo. Los
modernos microscopios electrónicos capaces de ampliar la imagen del objeto unos
dos millones de veces se fundamentan en las propuestas técnicas de Ruska. Una
nueva generación de microscopios fue propuesta hacia la década de los sesenta,
cuando el físico suizo Heinrich Rohrer (1933 ), quien compartió el premio Nóbel
de Física en 1986 con Ruska, desarrollara la técnica de microscopía
electrónica de barrido por efecto túnel en el laboratorio IBM de Zurich. Con
esta técnica se detectan imágenes con resolución atómica. Las posibilidades
brindadas por la microscopía electrónica fueron aprovechadas para la obtención
de imágenes tridimensionales de virus, proteínas y enzimas. En este propósito
sobresale la obra de Aaron Klug (1926 ), biólogo molecular, lituano de
nacimiento, surafricano por crianza, y británico según adopción, que mereció el
Nóbel de Química en 1991.
La espectrometría de masas es en la actualidad una de las más potentes técnicas
analíticas con que cuenta el químico. El inicio de su aplicación data del
registro de los espectros de masas de moléculas sencillas de bajo peso molecular
obtenidas por J.J. Thomson en 1912. Los primeros prototipos de espectrógrafos,
siguiendo los mismos principios básicos de los empleados hoy día fueron
principalmente desarrollados por Francis W. Aston (1877 – 1945), quien descubrió
un gran número de isótopos (elementos con igual carga nuclear pero que difieren
en los índices de masas) y fue laureado por estas aportaciones con el premio
Nóbel de Química de 1922.
El equipo para obtener tales espectros debía ser capaz de: a) producir iones
gaseosos a partir de las moléculas a investigar; b) separar estos iones de
acuerdo con la relación carga: masa; y c) medir la abundancia relativa de cada
ión. En la década del cuarenta ya se habían fabricado espectrógrafos para
analizar sustancias orgánicas de peso molecular medio; a finales de los
cincuenta se demostró el papel de los grupos funcionales sobre la fragmentación
directa ampliándose la capacidad de los equipos para determinar estructuras
orgánicas; y ya hacia los setenta el perfeccionamiento de los equipos alcanzaba
una sensibilidad que permitía trabajar con masas de muestras del orden de una
millonésima de gramo.
305
extiende en la actualidad al análisis de sustancias dopantes o drogas; el
control de los alimentos; y los ensayos ultrarrápidos para determinar los
niveles de contaminación ambiental.
Francis Aston fue invitado por J.J. Thomson a trabajar en el
Laboratorio de Cavendish durante la primera década del XX. Con
motivo de la primera Guerra Mundial se ve obligado a abandonar
sus investigaciones fundamentales y no es hasta 1919 que se
reincorpora al trabajo en Cambridge. En estos años desarrolla
la espectrometría de masas y con su aplicación descubre más de
200 isótopos de ocurrencia natural. Harold C. Urey (1893 1981)
descubre en 1934 con ayuda de esta técnica el deuterio (el
isótopo de masa doble del H). El deuterio es el elemento clave
en la fabricación de las armas de fusión nuclear (la llamada
bomba de hidrógeno).
Las técnicas de análisis de los componentes de la atmósfera y sus contaminantes
han resultados decisivos para la comprensión y toma de opiniones en relación con
los cambios climáticos globales promovidos por actividad irracional del hombre
en la superficie del planeta.
Hacia la mitad de la década de 1950 el biofísico británico James E. Lovelock
(1919 ) se ocupaba de diseñar una serie de detectores de ionización para su
empleo en los cromatógrafos de gases, cuando uno de ellos, el detector de
captura electrónica vino a revolucionar las técnicas de análisis de los gases en
la atmósfera y con ello condicionó el desarrollo de una conciencia ambiental.
Este detector fue patentado en 1957 y aún hoy se cuenta entre los más sensibles
métodos para el análisis de aquellas sustancias químicas que constituyen una
amenaza para el medio ambiente. Su empleo condujo al descubrimiento de la
306
distribución de los residuos de pesticidas en el ambiente natural que sirvió de
base para el libro de la bióloga Rachel Carson (1907 – 1964) "La Primavera
Silenciosa" que alertó a la conciencia pública sobre los peligros del uso
irracional de los pesticidas. Una década más tarde Lovelock se encargó de
demostrar, al menos con algunos ejemplos relevantes, que la propia biosfera se
ocupa de engendrar, reproducir y regular sus propias condiciones ambientales.
En 1971, Lovelock detectó ciertas sustancias que actúan como reguladoras del
equilibrio térmico y descubrió sus fuentes de emisión. Resulta que durante el
verano las algas costeras proliferan, incrementando sus emisiones del
dimetilsulfuro (DMS) y estas moléculas actúan como núcleos de condensación para
el vapor de agua, lo que eleva la concentración nubosa, oscurece por
consiguiente la superficie y provoca el descenso de las temperaturas. Por el
contrario el frío del invierno inhibe la multiplicación de las algas en los
océanos, reduce sus emisiones, con lo que disminuye la concentración de dimetil
sulfuro, se forman menos nubes y comienza una nueva escalada térmica.
El joven ingeniero japonés Koichi Tanaka (1959 ) reportó
en 1987 una técnica diferente para salvar la etapa crítica
en el análisis espectral de las biomoléculas. La propuesta
consistió en someter la muestra en estado sólido o viscoso
al bombardeo con rayos láser, lo que llamó deserción suave
por láser (SLD). Cuando la muestra absorbe la energía de
la pulsación láser "explota suavemente" en pequeños
fragmentos. Las moléculas se liberan unas de otras
quedando intactas como moléculas cargadas suspendidas que
son aceleradas por un campo eléctrico en una cámara de
vacío dónde el tiempo de vuelo (TOF, time of flight) es
medido. Con el empleo de la técnica de Tanaka los tests
para determinar diferentes enfermedades como la malaria y
los cánceres de próstata y mama, se verifican con total
fiabilidad en unos minutos...
307
Universidad de Oxford iniciaba la observación y estudio del ozono
atmosférico. Hoy sabemos que las tres mil millones de toneladas de ozono que se
acumulan en la estratosfera es en sentido estricto un manto difuso del
trioxígeno (molécula triatómica del oxígeno) que alcanza una concentración en
el intervalo de los 300 500 Dobson. La unidad Dobson, propuesta para
perpetuar la memoria de este pionero en la determinación del ozono atmosférico,
representa una molécula por cada 109 moléculas, es decir la concentración de
ozono es muy baja, entre 03, 0,5 ppm (partes por millón).
Por entonces sus investigaciones descubrieron que el perfil de la temperatura
por encima de la tropausa no era constante como sugería el propio nombre de
estratosfera sino que había una región donde la temperatura sustancialmente se
incrementaba. Dobson infirió correctamente que la causa del calentamiento de la
estratosfera estaba relacionada con la absorción de la radiación solar
ultravioleta por el ozono, y decidió construir un equipo para hacer mediciones
de las cantidades de ozono y su variabilidad. El primer espectrómetro estuvo
listo en el verano de 1924 y las mediciones regulares obtenidas a lo largo del
1925 establecieron las características principales de la variación estacional
del ozono, el máximo en la primavera y el mínimo hacia el otoño, y también
demostró la estrecha correlación entre la cantidad de ozono y las condiciones
meteorológicas en la alta troposfera y la baja estratosfera. A fines de 1929,
Dobson y sus colaboradores habían extendido una red de equipos que permitió
establecer las regularidades mas generales entre la variación de la cantidad de
ozono con la latitud y la estación.
308
que no pare monstruos, ni traiciona al dioscielo, sino evita
heladas y plagas, madura los frutos y asegura la caza...
Paralelamente con estos trabajos de medición del ozono en la atmósfera superior
el geofísico inglés Sydney Chapman (1888 1970) publicaba en 1930 en las
Memorias de la Sociedad Real Meteorológica británica, la teoría cuantitativa del
equilibrio y los cambios del ozono y el oxígeno atómico en la atmósfera superior
que implicaban la interacción del ozono con la radiación ultravioleta
proveniente del astro rey.
La idea de que la capa de ozono constituía un escudo protector de la llamada
radiación ultravioleta dura se difundía entre la comunidad científica que
estudiaba la atmósfera del planeta. La II Guerra Mundial detuvo estas
investigaciones pero poco después de su final se fundó la Comisión Internacional
de Ozono por la Unión Internacional de Geodesia y Geofísica. A fines de 1956, en
el Año Internacional de la Geodesia y Geofísica no menos de 44 nuevos
espectrómetros fueron distribuidos a través del mundo.
Cinco años después de formulada la teoría Gaya y a cuatro décadas de los nuevos
refrigerantes propuestos por Midgley, los científicos de la Universidad de
California, Irvine, F. Sherwood (1927 ) y el mexicano – estadounidense Mario
Molina (1943 ) determinaron, luego de un exhaustivo estudio, que los
clorofluorcarbonos empleados masivamente como propulsores en todo tipo de
"spray" y como refrigerantes, tienen potencial para destruir la capa de ozono. Y
en efecto, años después se confirmó el adelgazamiento de la capa de ozono en
diferentes latitudes del planeta.
La incidencia de este incremento de la radiación ultravioleta "dura" sobre las
distintas especies de los seres vivos puede ser muy diversa pero entre los
efectos más dramáticos se cuenta la afectación a largo plazo que sufrirá el
fitoplancton lo que trastornará la cadena alimentaria en mares y océanos con
efectos ecológicos impredecibles, y a mediano plazo la reducción de la población
marina disminuirá sensiblemente los rendimientos de la industria pesquera.
309
El mexicano – estadounidense, Mario J. Molina, confiesa en su
autobiografía que durante sus primeros años en Berkeley
sintió un profundo rechazo a la posibilidad de emplear los
láser de alta potencia para producir armas. Deseaba por
entonces dedicarse a una investigación que fuera útil a la
sociedad, y lo logró. El 28 de junio de 1974 publicó, junto a
su asesor F. Sherwood Rowland, en la Revista Nature un primer
informe alertando a la comunidad científica y a la opinión
pública de los peligros en que se encontraba la capa de ozono
estratosférica. En 1995, ambos compartían el Premio Nobel de
Química.
En 1976 el Programa de Naciones Unidas para el Medio Ambiente (PNUMA) llama a
una Conferencia Internacional para discutir una respuesta internacional al
problema del ozono. En 1985 se firma en Austria "La Convención de Viena para la
protección de la capa de ozono pero esta no se acompaña de un protocolo
vinculante. Dos años mas tarde en Canadá se firma "Protocolo de Montreal sobre
las sustancias que degradan la capa de ozono". Este protocolo, legalmente
vinculante, es aprobado por 24 países. Sucesivos encuentros han sido auspiciados
por la ONU para discutir y tomar medidas de acuerdo con los informes de los
expertos sobre el efecto de la degradación de la capa de ozono. Hacia fines de
siglo los datos demostraban que la concertación internacional había al menos
detenido el avance del enrarecimiento de la capa protectora.
En 1904 el físico químico sueco Svante Arrhenius (1859 – 1927) pronosticó que
las crecientes emisiones industriales de CO2 determinarían un cambio notable en
Una opinión discrepante con la optimista visión de Arrhenius aparece a fines de
los treinta. El eminente ingeniero termoenergético británico Guy Stewart
Callendar (1898 – 1964) publica en 1938 el artículo titulado "La producción
artificial del dióxido de carbono y su influencia sobre la temperatura". Este
trabajo y los que posteriormente dio a conocer demostraban la correlación
existente entre la elevación de las concentraciones del dióxido atmosférico
desde los tiempos preindustriales, y la información entonces acopiada por él
sobre la tendencia observada de la elevación de la temperatura. Las deducciones
de Callendar no encontraron resonancia en la comunidad científica de la época.
Prevalecía el criterio de que la inmensa masa de las tres cuartas partes del
310
planeta, el agua de océanos y mares, actuaría como sistema regulador por su
capacidad absorbente del CO2.
Sin embargo las investigaciones conducidas en la década de los cincuenta por el
geofísico estadounidense Roger Revelle (19091991) con la colaboración del
radioquímico de origen austríaco Hans Suess (1909 ) demostraron de manera
irrefutable que los niveles de dióxido de carbono en la atmósfera se habían
incrementado como resultado de la quema de los combustibles fósiles y de la tala
de los bosques, rechazando la idea prevaleciente sobre la actividad reguladora
de mares y océanos.
En 1977 el geofísico estadounidense Roger Revelle encabeza un
Panel de la Academia Nacional de Ciencias de los Estados Unidos
el cual encuentra que alrededor de un 40 % del dióxido de
carbono antropogénico permanece en la atmósfera, las dos
terceras partes provenientes de los combustibles fósiles y una
tercera de la tala de los bosques. Al inicio de los ochenta la
escalada en las predicciones se ensombrecen cuando Revelle
publica un artículo en la importante revista estadounidense
Scientific American en la que anuncia la posible elevación del
nivel del mar como resultado de la fusión de los glaciares que
debe acompañar a la elevación de la temperatura del planeta.
En 1988 el Programa Medioambiental de la ONU fundó un Panel Intergubernamental
sobre el Cambio Climático (IPCC) que debió valorar la información científica,
técnica y socioeconómica para la comprensión del cambio climático, sus impactos
potenciales y las opciones para la adaptación y mitigación de los daños. El IPCC
fue el primer esfuerzo internacional para dirigir los temas medioambientales.
En mayo de 1992, 154 países (incluidos los de la Unión Europea) firmaron el
Tratado de las Naciones Unidas para el Cambio Climático (ratificado en marzo de
1994). Los países signatarios se comprometieron a estabilizar, para el final de
siglo, los niveles de las emisiones de dióxido de carbono en los valores de
1990. A cinco años de este tratado, se firma en la ciudad japonesa de Kyoto el
Protocolo que anuncia el compromiso de las naciones poderosas a limitar sus
311
emisiones de los gases de invernadero hasta los niveles emitidos en 1990. Los
inicios del nuevo milenio eran testigos de la no ratificación del Protocolo de
Kyoto por precisamente dos grandes, que "ven amenazados su desarrollo si no se
prevén limitaciones en las cuotas de emisiones de los países en vías de
desarrollo", los Estados Unidos de América y la nueva Rusia. La comunidad
científica y toda la humanidad deben apoyar la ratificación de estos tratados y
su celoso cumplimiento.
La creciente preocupación de los círculos científicos por el manejo que hacen
los políticos de los problemas medioambientales llevó a la fundación de una
"Unión de los Científicos Preocupados" (UCS) que en carta abierta firmada por
más de 20 laureados con el premio Nóbel acusó al Gobierno de Estados Unidos de
estar manipulando el sistema científico asesor de esta nación para evitar los
consejos que puedan ser contrarios a sus intereses políticos. A escasos doce
meses de su fundación el listado de personalidades científicas que apoyan la
gestión de esta Unión se ha multiplicado y suman 48 los galardonados con el
Nobel que han expresado su adhesión a este movimiento de hombres de ciencia
comprometidos con los problemas de su tiempo. Los problemas que ahora se
plantean rebasan las fronteras originales de los Estados Unidos y tienen un
alcance internacional.
físico soviético Piotr Kapitsa en 1937 en el isótopo de 4He
a temperaturas extremadamente bajas. La casualidad acaso
quiso que un tercer especialista en la superfluidez,
galardonado en 2003, Anthony Leggett (1938 ) también se
integrara a este movimiento de científicos que promueven la
preocupación y la acción sobre los problemas ambientales.
La superconductividad ha atraído la atención de los investigadores pues si esta
propiedad exhibida por distintos materiales a temperaturas muy bajas fuera
observada a temperaturas viables produciría una verdadera revolución
tecnológica. El descubrimiento de este fenómeno data de 1911 cuando el profesor
312
de la Universidad de Leiden, Heike Kamerlingh Onnes (18531926), investigando
los efectos observados en gases y metales a temperaturas extremadamente bajas,
cercanas al 0 de la escala absoluta descubrió que el mercurio a temperaturas por
debajo de 4,2 K no presentaba resistencia al paso de la corriente eléctrica.
La comprensión de la superconductividad como un fenómeno cuántico no llegó hasta
los años 50, cuando los físicos estadounidenses John Bardeen (19081991), Leon
N. Cooper (1930 ) y John R. Schrieffer (1931 ) explicaron la superconducción
en los metales como resultado del desplazamiento electrónico en pares,
apantallados por la atmósfera de iones positivos, que no muestran resistencia
eléctrica.
En 1962, cuando aún era un estudiante en Cambridge, el físico británico Brian D.
Josephson (1940 ) descubrió el fenómeno de conducción que se manifiesta entre
dos superconductores mantenidos a temperaturas muy bajas, que están separados
entre sí por una capa muy fina de un aislante. Un flujo constante de corriente a
través del aislante se puede inducir mediante un campo magnético fijo. Este
efecto que representa un efecto de túnel a través de un aislante recibió el
nombre de efecto Josephson. Por este descubrimiento compartió el premio Nobel de
Física.
A finales de 1986, el físicoquímico alemán Johannes G. Bednorz (1950 ) y el
físico suizo Karl A Müller (1927 ), del Laboratorio de Investigaciones de IBM
en Zurich, anunciaban al mundo que un compuesto cerámico, el óxido de lantano,
bario y cobre, manifestaba la superconductividad a una temperatura más alta que
la exigida por los sistemas hasta entonces investigados, los metales y
aleaciones. Aún la barrera impuesta para la aparición de la superconductividad
era muy baja, 35 K, pero el descubrimiento de un nuevo tipo de superconductores
abría un campo de investigación. En 1987 se reveló la composición de un cuprato
de itrio y bario que mostraba una temperatura crítica de superconducción de 94
K. A medida que las temperaturas resulten superiores a 77 K (la temperatura del
nitrógeno líquido), y los óxidos resulten más baratos, las aplicaciones
potenciales de estos materiales resultaran económicamente más viables. Por este
trabajo merecieron Bednorz y Muller el Premio Nobel de Física de 1987.
En la década de los 50 el Instituto de Problemas Físicos de la
Academia de Ciencias de la URSS bajo la dirección de Piotr
Kapitsa, realizaba notables trabajos en la Física de bajas
temperaturas. En esta dirección fue investigado el
comportamiento de los superconductores del tipo I que repelen
los campos magnéticos, y Ginzburg y Landau desarrollaron la
teoría que predecía la existencia de un segundo tipo de
313
superconductores. Basándose en esta hipótesis, Abrikosov
explicó acertadamente las condiciones que deben cumplir
ciertos superconductores para admitir un campo
magnético. Estas propiedades se descubrieron, con
posterioridad, en los nuevos compuestos superconductores tipo
II, incluidos los compuestos cerámicos que son superconductores
a temperaturas más altas. Las aportaciones de Ginzburg y
Abrikosov fueron reconocidas por la Academia Sueca en el 2003
al conferirle el Nobel de Física.
Los avances en los programas de exploración del Cosmos.
Quizás ninguna otra empresa científica tenga una naturaleza interdisciplinaria
tan marcada como la conquista del cosmos. Pero nadie duda que los vuelos
espaciales exigieran el desarrollo de una ciencia y una ingeniería propia y que
en estos progresos desempeñara un importante papel la Física, al tiempo que sus
ideas se nutrieran de los resultados de esta soñada exploración.
El análisis del panorama político en que se desarrolla la conquista del cosmos
desborda los propósitos de nuestro breve examen pero es imposible omitir que, a
mediados del siglo, la lógica que presidía las relaciones entre las naciones más
poderosas del planeta, determinó que en lugar de una eficaz colaboración entre
las partes, la cosmonáutica naciera con un claro perfil de competencia que
dividió los esfuerzos, tapió el intercambio de experiencias, multiplicó los
gastos, y paralelamente alentó el desarrollo en espiral de programas y armas que
"neutralizaran" al enemigo.
La guerra fría entre los bloques calentó las relaciones entre las naciones y los
proyectos para la fabricación de cohetes portadores ambivalentes (empleados para
las lanzaderas de las naves espaciales y de proyectiles intercontinentales) y el
curso de programas tan irracionales como "la guerra de las galaxias", demandaron
de enormes recursos que compitieron con la necesaria asistencia a los países
subdesarrollados. Esta ayuda para el desarrollo hubiera seguramente saneado la
atmósfera internacional y evitado tal vez el surgimiento de los focos de tensión
que matizados por la frustración y el odio de pueblos y culturas hacia la
irracionalidad de la civilización occidental derivaron hacia la dolorosa
confrontación y las guerras "locales" del fin siglo.
Cuba pequeño país del Caribe, sumergida en esta confrontación, sufrió la
hostilidad del gobierno de los Estados Unidos desde el propio nacimiento de la
Revolución cubana y en el otro extremo de la cuerda apreció la solidaridad y
314
ayuda recibida de la nación soviética. Esto explica que varias generaciones de
cubanos aplaudieran los logros en materia de vuelos espaciales de la ciencia
soviética en tanto las realizaciones de la astronáutica estadounidense
encontraran en nuestro contexto una baja resonancia.
Apenas 5 días antes de la invasión de un ejército mercenario
por Playa Girón (Bahía de Cochinos), un 12 de abril de 1961 la
noticia recorría el mundo: una nave espacial soviética con un
cosmonauta a bordo había orbitado el planeta. En una hora y 48
minutos le había dado una vuelta a la Tierra pasando por
encima de América, luego de África para caer finalmente en la
Siberia. El joven piloto de franca sonrisa se llamaba Yuri y
en una breve declaración desde la Vostok 1 había reclamado:
"Pobladores del mundo, salvaguardemos esta belleza, no la
destruyamos". En julio de ese mismo año Gagarin visitó a Cuba,
y en la multitudinaria concentración popular del 26, Fidel le
impuso la Orden Playa Girón que lo convirtió en la primera
persona en recibir esta distinción de la nación cubana.
En la actualidad, es un criterio bastante aceptado el reconocer como antecedente
inmediato del desarrollo de los cohetes propulsores de las naves espaciales
tanto de la Unión Soviética como de los Estados Unidos, los logros alcanzados en
la Alemania nazi por el equipo encabezado por el científico alemán Werner von
Braun (1912 – 1977).
Nadie ignora hoy las dramáticas circunstancias históricas en que un equipo de
científicos y técnicos alemanes en una base de investigaciones radicada en
Peenemünde, diseñaron los cohetes V2 que eran fabricados y después lanzados
desde esta zona de la isla de Usedom, situada en el mar Báltico, en la
desembocadura del río Oder. En la fábrica de estos cohetes laboraron en trabajos
forzosos prisioneros de los fascistas y el blanco a que apuntaron estos cohetes
fueron territorios de Inglaterra. Los V2 representaban un proyectil propulsado
por combustible líquido con una longitud que superaba los 46 pies y un peso de
315
27 000 libras, que volaban a una velocidad superior a las 3 500 millas por hora,
llevando una cabeza explosiva a un blanco a 500 millas de distancia.
Tampoco se oculta que von Braun, ante el avance de las tropas aliadas, planeó
detalladamente la rendición de 500 científicos alemanes especialistas en
cohetes, y la entrega de los proyectos y vehículos de prueba a los
estadounidenses. No hay que olvidar que las tropas que venían desde el este eran
las soviéticas pero la entrega se hizo desde el frente occidental, según el
programa calculado por von Braun. En 1945 llegó a Estados Unidos como consejero
técnico del programa nacional de cohetes desarrollado en Nuevo México. Cinco
años después dirigía el programa de misiles Redstone en Alabama y ya en 1955
adoptaba la nacionalidad estadounidense.
Los primeros vuelos que demostraban la supremacía inicial de
los soviéticos llevaron en 1960 a von Braun a la dirección
de las operaciones de desarrollo técnico del centro de
vuelos espaciales George C. Marshall en Huntsville. Fue el
responsable de la construcción del vehículo de lanzamiento
Saturno V que se utilizó, junto con la nave espacial Apolo,
en el programa del alunizaje tripulado que devolvería a los
estadounidenses la confianza en el liderazgo mundial. La
imagen del alemán llegó a adquirir la relevancia del héroe y
su pasado sepultado por su probada lealtad y extraordinario
talento. Aún hoy se afirma que "los estudiosos están
reevaluando el rol de von Braun en las actividades
calificadas como "controversiales" en Peenemünde. Las
víctimas de los proyectiles V2 debían tener la palabra.
Las nuevas fuentes rusas aseguran que en la década del 30, justamente cuando
Koroliov daba sus primeros pasos como ingeniero jefe del programa de cohetes
rusos, fue víctima de la represión stalinista. Se afirma que por una falsa
delación sufre prisión durante años, hasta que en 1944 es puesto en libertad.
Poco después de la victoria de los aliados se le encomienda la tarea de viajar a
Alemania y recopilar todos los datos que le permita a la renaciente cohetería
soviética reproducir la tecnología de los cohetes alemanes. El tiempo demostró
que en esta empresa el equipo de Koroliov logra superarlos. A partir de 1954,
316
cumple con el sueño de su vida, trabajar en investigaciones que lanzaran el
hombre al cosmos. Todos los éxitos iniciales del programa espacial soviético:
Laika, Gagarin, Tereshkova, y Popov están indisolublemente ligados a un nombre:
Serguéi Koroliov.
La Exposición de Logros de la Ciencia y la Técnica Soviética mostraba por los
años sesenta, entre sus piezas más atrayentes, una esfera de aluminio de poco
más de medio metro de diámetro cuyo sistema de antenas acopladas hacia imaginar
que este diminuto objeto, el primer satélite artificial de la Historia, fue
capaz de mantener comunicación con la Tierra y enviar la información científica
deseada (temperatura y densidad de las capas superiores de la atmósfera e
intensidad y naturaleza de las radiaciones cósmicas) durante el tiempo que
estuvo orbitando al planeta. El Sputnik 1 fue lanzado el 4 de octubre de 1957 y
circunvoló la Tierra 57 días hasta ingresar en la atmósfera y arder por el calor
liberado producto de la fricción. La perra Laika ascendería a bordo del Sputnik
2, poco menos de un mes después, para iniciar las investigaciones biomédicas
acerca de la influencia de la ingravidez y exposición a las radiaciones sobre
los seres vivos. En mayo de 1958, el Sputnik 3, despegó del Cosmódromo de
Baikonur elevando más de una tonelada de carga total y continuó verificando los
sistemas soviéticos de puesta en órbita y correcciones a la misma, al tiempo que
prosiguió las investigaciones sobre el campo magnético, y las radiaciones
cósmicas.
Una página poco conocida de los vuelos cósmicos nos brinda la
oportunidad de reflejar la personalidad de Serguei Koroliov
constructor jefe del programa soviético de exploración
espacial. Se acercaba a su fin el vuelo del "Vosjod2" en el
que el cosmonauta Alexei A. Leónov (1934 ) el 18 de marzo de
1965 había dado el primer paseo espacial con un cable que lo
unía como cordón umbilical a la nave. En el curso de la hora y
media de la última vuelta debían ejecutarse por los autómatas
de a bordo las etapas finales de orientación, frenado y
descenso y de súbito se comprueba que los controles automáticos
no responden a la orden teledirigida de entrar en
funcionamiento. El cosmonauta de la nave, Pável Beliaev informa
a la sala de control de vuelo. El propio Koroliov responde
imperturbable: "dentro de 30 segundos tendrá la orden". Y
exactamente a los 30 segundos se vuelve a escuchar su voz:
"Conecte el mando manual. Oriéntese y haga funcionar
inmediatamente el dispositivo de frenado." Beliaev operó
correctamente las instrucciones de emergencia y los
317
dispositivos de control manual respondieron eficazmente. El
descenso de la cápsula del Vosjod 2 terminó felizmente.
Aún no había reingresado en la atmósfera destruyéndose la cápsula del Sputnik2,
cuando el primer satélite estadounidense el Explorer 1, iniciaba el 31 de enero
de 1958 el programa de la NASA. La nave cilíndrica de dimensiones más pequeñas
que sus homólogas soviéticas aportó datos excepcionales sobre las radiaciones
cósmicas que condujeron al descubrimiento de los cinturones de van Allen. En
marzo de este mismo año dos satélites artificiales el Vanguard 2 y el Explorer 3
continuaron el estudio de las radiaciones cósmicas, al tiempo que comprobaban la
eficiencia de los sistemas de despegue y de guiado desde la Tierra como fase de
preparación hacia los vuelos tripulados.
1968 marca el inicio del lanzamiento de las naves que iban comprobando las
diferentes fases del proyecto Apolo. Un año después, el hombre pisó la
superficie de su satélite en los pies de dos astronautas estadounidenses, Edwin
E. Aldrin (1930 ) y Neil A. Armstrong (1930 ). Michael Collins (1930 )
permaneció en la órbita lunar pilotando el módulo de control después de la
separación y apoyando las maniobras del módulo lunar. Armstrong al borde del Mar
de la Tranquilidad, declaró: "Éste es un pequeño paso para un hombre, pero un
gran salto para la humanidad". Millones de personas pudieron seguir en directo
318
la retransmisión vía satélite del acontecimiento. Armstrong y Aldrin clavaron en
el suelo lunar una bandera de Estados Unidos. El acto hizo reflexionar a no
pocos sobre el simbolismo que este acto de reconocido orgullo nacional, podía
entrañar. El programa científico de la estancia en suelo lunar fue exitosamente
cumplido. En los tres años siguientes, 6 naves estadounidenses con sus
tripulaciones de tres astronautas cada una, se dirigieron hacia el satélite
lunar. Sólo una, el Apolo 13, confrontó una avería que felizmente no terminó en
desastre, en abril de 1970. A partir del Apolo 15, las expediciones contaron con
un vehículo de ruedas eléctrico que permitió extender la zona de exploración de
los cosmonautas. Más de 70 horas en total permanecieron los astronautas en
labores de exploración de la superficie selenita.
El 20 de febrero de 1962, John H. Glenn (1921 ) se convirtió
en uno de los pioneros de la exploración del espacio al
inaugurar el programa Mercury de la Agencia Espacial
Estadounidense. Durante 4 horas, 55 minutos y 23 segundos el
Mercury Atlas 6 completó tres órbitas. Cinco años antes, Glenn
había pilotado el avión que realizara el primer vuelo
transcontinental supersónico. Después del vuelo espacial y los
honores recibidos se dedicó a la política hasta 1997. En
octubre de 1998, a los 77 años de edad regresó al espacio, a
bordo del trasbordador Discovery; marcando un record difícil
de superar y posibilitando a ejecución de investigaciones
sobre el efecto de la ingravidez en el envejecimiento. La
misión esta vez se extendió por 9 días en los cuales su nave
describió 134 órbitas terrestres.
El primer montaje de estaciones orbitales soviéticas comenzó en abril de 1971
cuando fue lanzada al espacio la Saliut 1, con un peso de 18 toneladas. En
junio, la nave Soyuz 11 se acopló a la estación Salyut 1 y su tripulación de
tres hombres entró en ella para realizar un vuelo que alcanzó el récord de 24
días. En ese tiempo llevaron a cabo numerosos experimentos biológicos y estudios
sobre recursos de la Tierra. Sin embargo, a su regreso a la Tierra ocurrió una
tragedia y los tres cosmonautas soviéticos — Georgi T. Dobrovolsky (1928–71),
Vladislav N. Volkov (1935–71), y Víctor I. Patsayev (1933–71) — perecieron a
causa de una fuga de aire en una válvula. Su muerte fue instantánea al no tener
puestos los trajes espaciales.
El accidente detuvo el programa espacial soviético pero luego el programa de las
Salyut continuó desarrollándose con éxito y ya la Salyut 6 (septiembre de 1977
julio de 1982) y la Salyut 7 fueron visitadas por numerosas tripulaciones
internacionales de países como Cuba, Francia e India, así como por la primera
319
mujer que realizó un paseo espacial: Svetlana Savitskaya (1948 ). La caminata
que duró casi 4 horas se produjo un 25 de julio de 1984. Este mismo año se
produjo uno de los acontecimientos más importantes del programa SayuzSaliut
cuando la tripulación integrada por Leonid Kizim (1941 ), Vladímir Soloviov
(1946 ) y el médico Oleg Atkov (1949 ) pasaron 237 días a bordo de
la Salyut 7antes de regresar a la Tierra; fue el vuelo más largo de la época.
El programa soviético perseguía el objetivo de perfeccionar la tecnología de las
estaciones orbitales con el diseño de una capaz de experimentar una progresiva
ampliación de sus módulos de acuerdo con las demandas del propio proyecto y que
garantizara las facilidades para una larga estadía de tripulantes. La primera
estación espacial en cumplir estos propósitos, la Mir (paz, en ruso), fue
lanzada en 1986. Constituida inicialmente por un único módulo central se
expandió hasta llegar a contar con siete módulos. Astronautas de Afganistán,
Alemania, Austria, Estados Unidos, Francia, Gran Bretaña, Japón, Kazajstán y
Siria trabajaron a bordo de la Mir al lado de sus colegas rusos. La estación
acogió a un total de 104 astronautas. Entre otras misiones relevantes merece
destacarse la permanencia en 1994 de más de un año (exactamente 438 días, récord
de permanencia en el espacio) del médico Valeri Polyakov (1942 ). Está misión
de Polyakov fue compartida durante más 5 meses con Yelena Kondakova (1957 ), la
primera mujer en pasar una larga estancia (168 días) en el espacio. Dos años
después la astronauta estadounidense Shannon Lucid (1943 ), con 53 años,
implantó una nueva marca de permanencia en el cosmos para una mujer cuando a
bordo de la MIR se mantuvo 188 días en la estación orbital soviética.
320
La falta de financiamiento hizo que los astronautas que ocupaban la Mir la
abandonaran en agosto de 1999; pero Rusia decidió prolongar la vida de la
estación espacial y, en abril de 2000, se lanzó la nave tripulada Soyuz PM30
con la misión de repararla. Esta última tripulación de la Mir regresó el 16 de
junio de 2000. Finalmente se decidió hacer descender la estación hacia las capas
densas de la atmósfera, donde se desintegraría en su mayor parte, y hundir sus
restos en el océano Pacífico. La caída controlada de la Mir tuvo lugar el 23 de
marzo de 2001, tal como estaba previsto. Para muchos constituyó un símbolo de la
caída de otros tantos valores de la nación soviética.
En 1993 la NASA firmó un acuerdo de colaboración con la Agencia Espacial Rusa.
La concertación comprendía también a Japón, Canadá y los miembros de la Agencia
Espacial Europea. El proyecto concibe la construcción de una estación espacial
internacional (ISS, en inglés) a un coste aproximado a unos 60.000 millones de
dólares. Se estima que para su montaje en una órbita terrestre serán necesarios
más de 40 vuelos espaciales. La ISS podrá acoger a una tripulación permanente de
siete astronautas para continuar el estudio del cosmos, las investigaciones
biomédicas y las modernizaciones de los sistemas de a bordo y de exploración
extravehicular. Para fines de siglo se había acoplado como resultado de esta
cooperación tres módulos de los 10 elementos que se preveían para la estación en
pleno funcionamiento. La estación fue inaugurada por una tripulación ruso
estadounidense el 2 de noviembre de 2000. Un año después, los socios del
proyecto aprobaron el inicio del negocio turístico en el cosmos con el viaje a
la Estación de un acaudalado estadounidense, quien permaneció seis días a bordo
de la ISS a principios de mayo.
321
El astronauta estadounidense Niels Armstrong a punto de
cumplir el objetivo supremo del Programa Apolo, al borde
del Mar de la Tranquilidad, declaró: "Éste es un pequeño
paso para un hombre, pero un gran salto para la humanidad".
Millones de personas pudieron seguir en directo la
retransmisión vía satélite del acontecimiento. Armstrong y
Aldrin clavaron en el suelo lunar una bandera de Estados
Unidos. El acto hizo reflexionar a no pocos sobre el
simbolismo que podía entrañar. El éxito del programa Apolo
fue un triunfo de la ciencia y la ingeniería
estadounidense.
En julio de 1997, un nuevo programa de la NASA se puso en ejecución llevando una
nave (la Mars Pathfinder) con un vehículo todo terreno a la superficie
marciana. Los datos obtenidos indican que la sonda se asentó en lo que fue un
entorno marciano húmedo. En general, esta misión proporcionó a los científicos
importantes informaciones sobre el presente y el pasado de Marte. Las dos sondas
que le siguieron terminaron en fracaso cuando intentaron entrar en la órbita de
Marte.
Venus, el otro planeta vecino al nuestro, es a veces llamada el planeta hermano
de la Tierra ya que los dos son muy similares en tamaño y en masa. Pero allí
terminan las similitudes. La densa atmósfera de Venus hace especialmente difícil
las observaciones telescópicas y la obtención de datos espectrales fiables desde
nuestro planeta. Por consiguiente los conocimientos que hemos construido sobre
el segundo planeta desde el Sol se basan en los datos enviados por las naves
enviadas hacia este destino. El programa de la URSS para penetrar en la densa
atmósfera de Venus, comenzó en agosto de 1970 con el lanzamiento de la nave
Venera 6 que en apenas media hora envió datos sobre la temperatura en su
superficie. Dos años más tarde el Venera 8, fue capaz de enviar datos sobre un
análisis de su suelo. En octubre de 1975, dos naves de la serie Venera se
posaron en la superficie del planeta y obtuvieron las primeras fotografías. La
presión de 90 atmósferas (similar a la que se encuentra a 900 metros de
profundidad en los océanos de la Tierra) y una temperatura en superficie de
460 ºC fue registrada por vez primera en 1978, también por naves soviéticas.
322
En 1978 el Teniente Coronel de las Fuerzas Aéreas
Cubanas, Arnaldo Tamayo Méndez, es seleccionado para
participar en la séptima tripulación internacional del
programa Intercosmos. El 18 de septiembre de 1980, la
nave Soyuz38 se elevaba rumbo al cosmos, llevando
consigo al primer latinoamericano que pudo observar
nuestro planeta desde tan arriba. La misión en el
laboratorio de la Salyut6 (saludo, en ruso)
desarrolló con éxito los más de 20 experimentos
científicos que se tenían previstos durante los 7 días
y 20 horas que duró el vuelo. De regreso a su país
Tamayo fue condecorado como Héroe Nacional de la
República de Cuba.
Su infancia en la oriental provincia de Guantánamo fue la de un niño que
limpia "botas" en la calle. Tamayo Méndez es hoy General de Brigada, y
diputado ante la Asamblea Nacional del Poder Popular de Cuba.
323
En marzo de1982, de nuevo dos naves Venera se posaron en Venus, y efectuaron los
primeros análisis sobre la composición química de la atmósfera y del suelo,
demostrando que la atmósfera de Venus está constituida principalmente por
dióxido del carbono, casi ningún vapor de agua, y gotas de ácido sulfúrico lo
que ocasiona un efecto invernadero tan intenso que explica las temperaturas
registradas superiores a los 450° C una superficie más caliente que la del
planeta Mercurio, el cual está más cerca del Sol. La más importante misión de
los Estados Unidos hacia Venus fue el lanzamiento en 1989 desde un trasbordador
espacial de la sonda Magallanes. Esta sonda remitió hacia la Tierra imágenes de
radar que procesadas por técnicas de computación dieron lugar a imágenes
tridimensionales espectaculares de la superficie del lucero del Alba.
Junto a los triunfos relevantes de la cosmonáutica también se han conocido los
dramáticos reveses. En el intervalo de tres meses, durante 1967 se conocieron
los dos primeros accidentes fatales en la historia de la conquista del cosmos.
En enero, tres astronautas estadounidenses murieron durante un ensayo en la
Tierra, víctimas del incendio desatado en el módulo de control de la
tripulación. En abril se probaba una nueva generación de naves soviéticas, la
Sayuz 1, diseñada para producir el acoplamiento orbital, y con un
compartimiento más amplio para llevar a tres cosmonautas, cuando ya de regreso
al ingresar en la atmósfera el sistema de frenado falló y la nave se estrelló
contra la superficie terrestre provocando la muerte instantánea del piloto.
El programa soviético se reinició dos años más tarde y luego en 1971, una misión
en nave Sayuz, tras 224 días de exitosa estancia en la primera estación orbital
Saliut, cuando regresaba a Tierra la nave se desintegró y sus tres tripulantes
perecieron.
La fiabilidad de los sistemas parecía haber aumentado y durante más de 15 años
no se reportaron accidentes que lamentar pero en enero de 1986, el transbordador
estrella de la NASA, el Challenger, tras 75 segundos de vuelo, se convirtió en
una bola de fuego y sus siete tripulantes dos mujeres y cinco hombres
murieron. Las conmovedoras escenas televisivas transmitieron al mundo la
magnitud de la tragedia. El accidente paralizó el programa de vuelos hasta que
se analizaron y volvieron a diseñar todos los sistemas. Una comisión
presidencial, en que participara el veterano astronauta Neil Armstrong, culpó
del accidente a la NASA y a sus sistemas de de control de la calidad.Sólo dos
años después hizo su aparición el nuevo transbordador, el Discovery.
324
En 1985 el ingeniero Roger Boisjoly comenzó a
trabajar en la mejora de los "anillos O" ("O
ring seals") del Challenger y se sintió
frustrado con el lento progreso y la poca
atención prestada por la gerencia de la
compañía al equipo creado para realizar las
tareas relacionadas con dichos sellos. En
reunión previa al dramático despegue expone los
datos que aconsejaban postergar el lanzamiento
de la nave y es ignorado por los ejecutivos
comprometidos con el programa de la NASA.
Imagen: http://onlineethics.org/spanish/boisjoly/RBintrospan.html
La humanidad conoció así de programas riesgosos de vuelos tripulados que
buscaron un efecto político a costos desproporcionados, supo de proyectos
trasnochados que pretendieron trasladar las conquistas espaciales al terreno de
“los escudos bélicos espaciales” y de las nuevas generaciones de misiles y
antimisiles con ojivas nucleares; esquemas todos que resultaban una ofensa a los
países históricamente condenados al subdesarrollo, y recibió por otro lado con
optimismo los planes racionales de colaboración entre las naciones desarrolladas
que promovieron la expansión de los conocimientos del hombre sobre su cuna
mayor: el infinito universo.
Uno de estos logros se ejemplifica con el programa de instalación en órbita del
telescopio espacial Hubble en 1990. Fruto de la cooperación de la Agencia
Espacial Europea y la NASA el telescopio alcanzaba una resolución 10 veces
superior a la mejor obtenida desde los telescopios terrestres y se diseñaba para
realizar observaciones en la región del espectro visible y ultravioleta con una
capacidad inimaginable 50 años atrás para escudriñar las regiones más remotas
325
del universo. Adicionalmente, la necesaria corrección de un error de fabricación
de su espejo principal y la modernización progresiva de sus dispositivos han
sido tareas resueltas por misiones de astronautas que aproximando sus naves al
telescopio han salido al espacio para desarrollar con éxito las tareas
encomendadas.
El nacimiento de la Electrónica y del universo de la Informatización.
Si el mundo de la electrónica comprende la ciencia y la tecnología relacionadas
con el movimiento de las partículas cargadas en un gas, en el vacío, o en un
semiconductor, entonces la invención de la válvula de oscilación o tubo de vacío
le dio a la tecnología inalámbrica su primer impulso y marcó el inicio de la
nueva ciencia de la electrónica. Correspondió este honor al físico británico
John Ambrose Fleming (18491945).
En 1899 Fleming se hizo consultante de la Compañía de Marconi. Por entonces la
telegrafía inalámbrica se encontraba en su infancia y Marconi estaba
experimentando constantes innovaciones para aumentar la distancia que podía
326
alcanzarse. Fleming quedó absorbido con esta cuestión y comprendió que el
principal problema provenía de la escasa sensibilidad del dispositivo detector
de las señales. En noviembre de 1904 Fleming patentó su válvula de oscilación
llamada así por la analogía observada con la válvula de un fluido que permite
solo el movimiento del flujo en una sola dirección. El diodo de tubo de vacío,
como mas comúnmente se conoció, estaba constituido por un filamento caliente que
emite electrones de acuerdo con el efecto Edison y una placa, el ánodo, que es
el colector de electrones. En este dispositivo la corriente circula sólo cuando
esta placa es positiva respecto al cátodo. Si se aplica un potencial alterno a
la placa, la corriente pasará por el tubo solamente durante la mitad positiva
del ciclo, actuando así como rectificador. La válvula de Fleming fue el primer
diodo que se utilizó en la radio como detector y rectificador.
El físico británico John Ambrose Fleming (18491945)
sintió un interés inicial por la Química y dio sus
primeros pasos en el laboratorio de Frankland, pero
luego quedó fascinado al conocer de los trabajos de
Maxwell y pasó a investigar en el campo de la
electricidad y el magnetismo en Cambridge donde
alcanzó el doctorado en ciencias. Unos años después
trabajó en los laboratorios de Edison en los Estados
Unidos y allí pudo conocer de primera mano el
descubrimiento conocido como Efecto Edison que
indicaba la emisión de electrones por un filamento
caliente en un bulbo de iluminación.
Pero el más importante hito de los primeros tiempos de la electrónica llegó en
1906 cuando el físico e inventor estadounidense Lee De Forest (1873 – 1961)
colocó un tercer electrodo, como una rejilla, en la válvula de Fleming, y así
inventó el tubo triodo al que llamó audión. Un pequeño cambio en el voltaje de
la rejilla provocaba un notable cambio en el voltaje de la placa. De modo que
fue el audión el primer amplificador. Todavía debieron pasar cinco años para
327
mejorar el vacío en el audión y añadir un revestimiento eficiente de oxido en el
cátodo para obtener un dispositivo confiable. Este fortaleció la corriente a
través del tubo, amplificando las débiles señales del telégrafo y también de la
radio.
Ambos debieron hacer invenciones trascendentes en la tecnología de los medios de
comunicación. De Forest en la década de los 20 encontró una forma de registrar
el sonido sobre la cinta de la película. Esto llevó directamente a la creación
de las imágenes animadas con movimiento y con sonido. Solicitó la patente en
1921 y le fue otorgada en 1924. Desde entonces intentó atraer la industria del
cine hacia su tecnología y sin embargo los cineastas no mostraron interés.
Irónicamente las primeras tentativas del cine hablado no usaron la patente de De
Forest pero años después aplicaron su método.
De Forest, pionero del mundo de la tecnología de la
radio, había estudiado en uno de los pocos centros
estadounidenses que por entonces ofrecía una
formación científica de primera clase, la
Universidad de Yale, donde obtuvo en 1899 el
doctorado en Ciencias Físicas, defendiendo la tesis
titulada "Reflexión de las ondas hertzianas desde
los terminales de alambres paralelos".Luego siguió
investigando sobre las ondas de radio, desarrolló y
perfeccionó el recibidor del telégrafo inalámbrico y
en 1906 inventó el tríodo una de las primeras
conquistas en la revolución inicial de la
328
Electrónica.
por el que Lee reclamaba su derecho de patente, es De Forest un ejemplo
de la encarnizada y con frecuencia desleal competencia que se desató
entre los pioneros de dos de las conquistas mas importantes en los
medios masivos de comunicación del siglo XX: la radio y la televisión.
Algo más de un lustro después de la patente de estudiante de ingeniería alemán
Paul G. Nipkow (1860 –1940), que adelantaba el primer sistema de televisión
electromecánico, en 1889 el ingeniero eléctrico Alan Archibald Campbell Swinton
(1863 – 1930) expone en la Sociedad Roentgen de Inglaterra un esquema que en
principio constituye el sistema de la tecnología televisiva actual. Otros 24
años hicieron falta para que la idea de Campbell se transformara en el primer
sistema mundial de fotografía electrónica.
Por estos años, el joven ruso Vladimir Kosma Zworykin (18891982) estudiaba
ingeniería eléctrica en el Instituto Imperial de Tecnología de San Petersburgo,
habiendo asistido a su mentor Boris Rosing en el desarrollo y la exhibición en
1910 de un sistema híbrido de televisión, primitivo pero exitoso, que combinaba
ingeniosamente el disco mecánico de Nipkow como cámara y como receptor el tubo
de rayos catódicos inventado por el físico alemán premio Nobel de Física (1909),
Karl Braun (1850 – 1918). Poco después de graduarse con honores en San
Petersburgo, Zworykin emigra a Paris donde pudo trabajar en Física Teórica y en
1919 se traslada a los Estados Unidos. Durante diez años trabaja en Pittsburgh
en los laboratorios de Westinghouse, obteniendo en 1923 su primera patente sobre
329
un nuevo sistema de televisión, que es desestimada por sus superiores que le
aconsejan abandonar un proyecto impracticable. Pero Zworykin no se desalienta y
en 1929 presenta en una convención de ingenieros de radio su sistema electrónico
al combinar su dos ingenios: el "iconoscopio", la primera cámara de tubo
electrónico, con su "cinescopio" un tubo de rayos catódicos más sofisticado como
receptor de la imagen. Uno de los problemas que supo resolver Zworykin para
hacer eficiente su iconoscopio fue desarrollar un método que permitiera el
depósito uniforme de más de un millón de elementos fotosensibles de plata
cubiertos con oxido de cesio en la placa de la cámara.
El joven ingeniero ruso Vladimir K. Zworykin había
desarrollado en el Instituto Imperial de San
Petersburgo un sistema híbrido de televisión,
primitivo pero exitoso, que combinaba
ingeniosamente el disco de Nipkow como cámara y
como receptor el tubo de rayos catódicos. Luego de
su graduación como ingeniero se sintió atraído por
la física teórica y realizó estudios con Langevin
en el Collegè de France sobre los rayos X pero no
alcanzaría su doctorado en Física hasta 1920 en
la Universidad de Pittsburgh, tratando su
disertación sobre el mejoramiento de las celdas
fotoeléctricas.
Cuando David Sarnoff (1891–1971), directivo de la RCA Victor, se interesó por el
proyecto, Zworykin aseguró que con una inversión de unos 100 mil dólares en el
plazo de 18 meses estarían resueltos los problemas pendientes para disponer de
una tecnología factible. Se equivocó en ambas predicciones, la empresa debió
invertir 50 millones y el sistema no estuvo listo hasta diez años después. El
ingreso de los Estados Unidos en la 2da Guerra Mundial detuvo la difusión de la
industria televisiva., aunque continuaron los estudios para perfeccionar sobre
330
todo la sensibilidad de los elementos. Durante los años de la guerra, un grupo
de científicos e ingenieros dirigidos por Zworykin desarrollaron una cámara 100
veces más sensible que el iconoscopio y al terminar la guerra, la RCA reinició
sus trabajos en este campo.
En 1946 se vendieron unos 7,000 equipos en los Estados Unidos. Para 1950, la
cifra de televisores superaba los 10 millones. Hoy, con la entrada del gigante
asiático en la producción seriada se estima que una cifra cercana a los mil
millones de equipos se fabrica usando esencialmente la misma tecnología
propuesta en el modelo de 1939 de Vladimir Zworykin. Al final de su vida,
lamentó el uso y abuso que hacían los medios televisivos de la trivialización y
la violencia en lugar de ponerse en función del enriquecimiento educativo y
cultural del público.
A principios de la década de los 40, el doctor en ciencias físicas, profesor de
la Universidad de Pensilvania, John William Mauchly (19071980) escribió un
memorando titulado: "Utilización de Tubos al Vacío de Alta Velocidad par
realizar Cálculos" Este memorando abrió las puertas para que Washington aprobara
el presupuesto para emprender la construcción de una computadora electrónica.
Entre 1943 y 1946, Mauchly, como consultante principal, y el ingeniero
eléctrico John Presper Eckert (1919 1995), como ingeniero jefe, ambos de la
Universidad de Pensilvania, dirigieron el programa patrocinado por la sección
de artillería del ejército estadounidense para los laboratorios de investigación
balística.
América Latina siente un sano orgullo con contar en la
historia de la televisión a uno de sus actores
principales. Se trata del inventor mexicano Guillermo
González Camarena (19171965). A los 15 años obtuvo la
licencia para trabajar como operador de radio en la
radioemisora de la Secretaría de Educación, al mismo
tiempo que experimentaba en su laboratorio, y dos años
después fabricó su propia cámara de televisión. Cuando
tenía 23 años le fue otorgada la patente por el
desarrollo de un Sistema Tricromático Secuencial de
Campos, que era posible adaptarlo al sistema de blanco
y negro.
Junto a su obsesión creativa, sentía una vocación especial por poner la
televisión al servicio de la educación y la cultura. Se interesaba
porque su sistema se utilizara para alfabetizar y proyectó lo que mas
tarde se conocería como sistema de telesecundaria. Hoy cuando se hace
331
uso y abuso de la TV comercial, y no pocas veces este medio de
comunicación masiva se emplea para la desinformación, Guillermo se
levanta como un símbolo.
Fruto de este proyecto fue la primera computadora electrónica, conformada por 30
unidades independientes que totalizaban una masa de 30 toneladas, y representaba
un sistema ensamblado de 18 000 tubos de vacío, 70 mil resistores, 10 mil
capacitores, 6 mil interruptores manuales, y otros componentes electrónicos con
sus diversos acoplamientos. La ENIAC (Electronic Numerical Integrator And
Computer) representó entonces la mayor colección de circuitos electrónicos
interconectados. Aunque se concluyó tarde para contribuir a los servicios
militares en la II Guerra Mundial, prestó asistencia durante el período de la
guerra fría en los cálculos relacionados con la fabricación de la bomba de
Hidrógeno.
En la década de los 50 el ingeniero eléctrico estadounidense Seymour Cray (1925
1996) trabajaba en el diseño y fabricación de las primeras supercomputadoras,
ingenios que los expertos clasificaban así, cuando eran capaces de efectuar 20
millones de operaciones matemáticas por segundo. El nombre de Cray se relaciona
en particular con la primera supercomputadora comercial, la UNIVAC 1103
fabricada en 1953 por la corporación Remington Rand. Su afán de diseñar
computadoras más potentes, con mayor velocidad de procesamiento lo lleva a
fundar ya en los setenta su propia compañía de investigación que continua
diseñando nuevas versiones de computadoras capaces de realizar hasta 1 200
millones de operaciones de cálculo por segundo.
332
Un duro golpe recibieron los inventores de estas
primeras versiones de computadora digital cuando
un tribunal en 1973 le revocó el derecho a la
patente de invención de la ENIAC por considerar
que en 1941, Mauchly tuvo la oportunidad de
conocer la tecnología de la llamada ABC
(Atanasoff Berry Computer) desarrollada en 1939
por el físico estadounidense de origen búlgaro,
John Vincent Atanasoff (19031995) y su asistente
Clifford E. Berry (1918 1963) , y aplicar sus
principios técnicos a la fabricación de la
computadora ENIAC. De cualquier manera los
trabajos de Mauchly y Eckert quedan como un
monumento en los primeros pasos de las
computadoras electrónicas. En ENIAC ya
aparecieron casi todos los componentes y
conceptos de las computadoras digitales de alta
velocidad actuales.
Gracias a estas poderosas máquinas los científicos e ingenieros pueden llevar a
cabo procedimientos matemáticos muy complejos que los ayudan a analizar una
vasta cantidad de datos y predecir que ocurrirá en procesos de disímil
naturaleza que alcanza hasta el pronóstico del clima. Cray muere víctima de un
accidente del tránsito sin haber conocido los éxitos comerciales. Estamos a dos
décadas del lanzamiento del primer microprocesador capaz de efectuar 60 mil
operaciones por segundo, para que este dispositivo apareciera en escena se
necesito la invención de los semiconductores.
Apenas concluida la Guerra, los Laboratorios Bell apostaron por la investigación
fundamental orientada a la sustitución de los tubos de vacío que no eran muy
seguros, principalmente porque ellos generaban una gran cantidad de calor, y sus
filamentos tenían una vida útil limitada. Para cumplir este propósito en 1945 un
grupo de físicos del estado sólido fue formado teniendo como uno de sus más
importantes objetivos específicos tratar de desarrollar un amplificador en el
estado sólido.
333
Arnold Sommerfeld, John Hasbrouck van Vleck (18991980), Nevill Francis Mott
(19051996), y otros científicos de todo el mundo.
La invención de los transistores es acaso una prueba
irrefutable de la fusión de la ciencia y la técnica
en este siglo para producir los mas revolucionarios
elementos electrónicos de la época. Sus principales
protagonistas fueron tres eminentes físicos
estadounidenses que merecieron, por primera vez en la
historia de la Academia Nobel, su galardón en Física
por la invención de un dispositivo de ingeniería y el
desarrollo de la ciencia que lo anunció. Shockley,
uno de estos brillantes físicos mostró, junto a su
reconocido talento, una visión reaccionaria y racista
de los problemas de la humanidad y su solución por la
vía de la depuración genética.
La posibilidad de obtener aparatos de gran importancia práctica sin filamentos
calentados fue inmediatamente reconocida. Sin embargo consideraciones teóricas
predecían también que el transistor no podría ser fiable y seguro sino eran
disponibles cristales simples de ultrapureza. Tres cortos años mediaron entre el
descubrimiento de la amplificación en un sólido, la invención del transistor y
334
su fabricación como producto comercial, un diminuto aparato electrónico capaz de
sustituir ventajosamente las funciones de los tubos de vacío apareció en 1952.
En 1956, Bardeen, Bradain y Shockley recibieron el premio Nobel de Física. Fue
la primera ocasión en que la Academia Nobel otorgó el galardón por la invención
de un dispositivo de ingeniería y el desarrollo de la ciencia que lo anunció.
Los transistores fueron usados por el público por primera vez en 1953, en la
forma de amplificadores para los aparatos contra la sordera. En 1954 se
desarrolló la radio de transistores y en febrero de 1956 el Laboratorio de
Computadoras Digitales de MIT empezó a desarrollar en colaboración con IBM una
computadora transistorizada.
Bardeen fue el primer científico que ganó dos premios Nobel en la misma
disciplina, su segundo galardón le fue conferido en 1972, también en forma
compartida con Leon N. Cooper y John R. Schrieffer, esta vez por sus
investigaciones en el campo de la superconductividad. El químico británico
Frederick Sanger (1918 ) por sus trabajos fundamentales para el despegue de la
ingeniería genética mereció igual distinción en 1958 y luego en 1980.
En 1957, junto con su discípulo postdoctoral Leon Cooper y su asistente
graduado John R. Schrieffer, Bardeen desarrolló la primera teoría
335
sobre cómo los metales a muy bajas temperaturas eran capaces de
conducir la corriente tan eficientemente. En la actualidad esta teoría
es conocida como la teoría BCS (Bardeen, Cooper, y Schrieffer). En 1972,
los tres investigadores recibieron el premio Nobel por este trabajo.
Bardeen se convertía así en el primer científico en recibir dos veces el
premio Nobel en la misma disciplina.
Con la grabación selectiva de la capa de óxido, se podía difundir impurezas en
el silicio para crear las juntas PN. Es entonces que el doctor en Ingeniería
Eléctrica por la Universidad Estatal de Ohio, John L. Moll (1921 ), desarrolla
el transistor de silicio de completa difusión, en el cual las impurezas son
difundidas en la pastilla mientras los elementos activos son protegidos por la
capa del óxido. Ya en esta década el silicio comienza a desplazar al germanio
como el material semiconductor que se expande a la producción de casi todos los
transistores modernos.
La ciencia y la tecnología de los semiconductores tomarían diversos senderos.
Otro trío de físicos se encuentran entre los científicos de la época que
hicieran aportaciones notables al desarrollo de la teoría de los
semiconductores: John Hasbrouck van Vleck (18991980), conocido como "el padre
del magnetismo moderno", su discípulo de Harvard, Philip Warren Anderson
(1923 ), y el británico Nevill Francis Mott (19051996). No solo impulsaron el
desarrollo inicial de la teoría de las transformaciones de los semiconductores,
que se conocen actualmente como transiciones de Mott, sino que abrieron una
nueva perspectiva en las investigaciones cuando a partir del descubrimiento en
1958 del fenómeno llamado "localización de Anderson" centran la atención no en
los semiconductores cristalinos utilizados convencionalmente, sino en el
comportamiento de materiales amorfos que han hecho posible el desarrollo de
dispositivos de memoria fabricados a partir del vidrio.
336
Aunque Jack Kilby archiva más de 60 patentes de
invención podría ser considerado el más fecundo
ingeniero eléctrico de todos los tiempos por una
sola invención: el circuito integrado monolítico o
microchip. Kilby había obtenido en 1958 una plaza de
investigador en la compañía Texas Instruments en
Dallas, y un año después había concebido y creado un
diminuto circuito monolítico integrado en una pieza
simple de material semiconductor del tamaño de una
anillo de dedo. En la primera presentación
profesional de su invento, en el Instituto de
Ingenieros de Radio (IRE) en 1959, sus colegas
ingenieros quedaron atónitos.
Una década después de la invención del microchip, Gilbert Hyatt (1938 ) dio un
paso trascendente cuando concibió en un circuito integrado todos los elementos
necesarios para operar un microprocesador. Hyatt solicitó la patente en 1970,
pero un año después, cuando esta solicitud seguía los trámites requeridos en la
oficina de patentes, Gary W. Boone a la cabeza de un equipo de la Texas
Instruments (TI) creó el primer microcontrolador comercialmente viable (TMS100).
En 1990 la US Patent Office concedió el derecho de autoría a Hyatt pero 5 años
mas tarde un tribunal declaró sin efecto este reconocimiento acreditando a Boone
y la TI los derechos de invención.
337
En el propio 1971, un colectivo de la Corporación Intel encabezados por el
doctor de la Universidad de Padua, Federico Faggin (1941 ), el PhD en
ingeniería eléctrica, Marcian Edward "Ted" Hoff, Jr. (1937 ) y el especialista
en software Stanley Mazor (1941 ), crearon la primera unidad central del
procesador (CDU) totalmente integrada en un chip, el microprocesador 4004 (4
bit) de la Intel fue el primero en el mercado. A 35 años de la aparición de la
ENIAC surgía el dispositivo que en 1/8 de pulgada de ancho y 1/6 pulgada de
largo presentaba la misma capacidad de procesamiento que el enorme sistema
constituido por 18 000 tubos de vacío. En 1974 apareció el Intel 8080 (8bit),
dieciséis veces más potente. Este fue el hardware de la primera
microcomputadora popular la Altair 8800. Los microcontroladores no sólo van a
permitir el lanzamiento de las computadoras personales, sino que encontraran
un amplio empleo en televisores, lavadoras, hornos microwave y otros equipos
electrónicos.
Cuando en 1957 trabajaba en la Corporación Sony el
físico japonés Leo Esaki (1925 ) descubrió el
efecto túnel en los semiconductores y desarrolló un
nuevo tipo de diodo, el diodo túnel con uniones
eléctricas de un espesor de diez milésimas de micra
a través del cual los electrones podían pasar. El
diodo Esaki se considera el primer dispositivo
electrónico cuántico. Sus trabajos en la década de
los sesenta con las superredes, cristales
sintéticos compuestos por capas extremadamente
finas de diferentes semiconductores no sólo
sirvieron para demostrar la validez de la teoría
cuántica sino que encontraron aplicación en los
ordenadores a altas velocidades.
A inicios de los 70, las compañías fabricantes de computadoras se encontraban
enfrascadas en perfeccionar grandes sistemas informáticos para su introducción
en la industria y en otras actividades macroecononómicas. Pasó inadvertida para
los grandes inversionistas la oportunidad que brindaron los microprocesadores en
la fabricación de pequeñas computadoras para el hogar. Un joven ingeniero
investigador, Ed Roberts (1942 ), propietario de una pequeña empresa de
calculadoras al borde de la quiebra, aceptó el desafío de endeudarse con el
objetivo de fabricar una pequeña computadora basada en los recientes desarrollos
del microprocesador de Intel, que logró comprar al increíble precio de 500
dólares. Roberts bautizó la computadora como Altair 8800 y la lanzó al mercado
en la portada del primer número de 1975 de la revista "Popular Electronics".
338
El crédito obtenido por Roberts suponía una recapitalización por concepto de la
venta de unas 800 máquinas al año. El fin de semana de la publicación de la
Revista estaba recibiendo 30 llamadas diarias interesándose por la computadora.
Un software básico para el control de una computadora, el sistema operativo con
una interfaz de línea de comandos fue diseñado en 1980 por el joven programador
estadounidense Tim Paterson (1956 ), que lo nombró como Quick and Dirty
Operating System, QDOS. Microsoft se lo compró en 50 000 dólares para cumplir
el encargo de la IBM que necesitaba un sistema operativo para la primera
computadora personal que lanzaría al mercado en 1981, la IBM PC, y lo llamó MS
DOS.
339
El lanzamiento de Windows en 1985 representó un boom
para Microsoft, fundada una década antes por Bill
Gates (1955 ) y Paul Allen (1953 ). El nuevo
sistema operativo ampliaba las posibilidades
ofrecidas por el MSDOS y ofrecía por primera vez
una interfaz gráfica de usuario (Graphical User
Interface, GUI). Este nuevo tipo de entorno permitía
al usuario elegir comandos, ver listas de archivos y
otras opciones utilizando las representaciones
visuales (iconos) y las listas de elementos del menú.
Nuevas versiones de Windows que mejoraban el
rendimiento y el apoyo visual a las operaciones de la
máquina se convirtieron rápidamente en los
sistemas operativos mas utilizados en el mundo.
En 1980 Timothy BernersLee (1950 ), egresado en Física de la Universidad de
Oxford, era consultante en el CERN (Consejo Europeo para la Investigación
Nuclear). La implementación del trabajo en red de esta multinacional institución
resultaba muy compleja porque los investigadores del sistema empleaban
diferentes técnicas, protocolos y equipos. BernersLee consagró entonces todo
su tiempo libre a la elaboración de un programa de almacenamiento de datos
llamado "EnquireWithinUponEverything," capaz de vincular cualquier punto en
el sistema. Este programa fue el fundamento conceptual de lo que llegó a ser la
WEB.
Nueve años más tarde BernersLee escribió "Information Management: A Proposal"
En vez de estandarizar el equipamiento o el software se crearon patrones para la
data y un sistema universal de dirección. De esta manera cualquier documento
en Internet podía ser recuperado y visto. En 1990, el CERN fue el mayor sitio
europeo de Internet. Dos años después la WEB se distribuyó y el software del
340
navegador se estrenó a lo largo de las instituciones del CERN y aún más allá.
Entonces existían 26 servidores fiables.
Los primeros exploradores de Internet fueron funcionales pero no simples para el
usuario. En 1993 Marc Andreessen (1971 ) un joven programador del Centro
Nacional para Aplicaciones de Supercomputadoras (NCSA), que aún estudiaba en la
Universidad de Illinois, creó un nuevo explorador de la WEB que ofrecía una
interfaz gráfica para explorar texto, imagen y sonido que sólo exigía apuntar y
hacer click en la opción gráfica deseada. Los usuarios no necesitaban conocer
nada de programación ni aún las direcciones de Internet. El explorador hacia
posible de una manera muy simple para el usuario añadir sus propios materiales a
la WEB. El explorador llamado NCSA Mosaic, se distribuyó gratuitamente a
través de las redes informáticas y, en 18 meses, consiguió una cifra estimada de
usuarios de 2 millones, lo que propició el crecimiento espectacular de la World
Wide Web.
Dos años después la WEB se distribuyó y el software del navegador se
estrenó a lo largo de las instituciones del CERN y aún más allá.
Entonces existían 26 servidores fiables.
Intel presentó la quinta generación de su línea de procesadores compatibles en
1993, que llevaría el nombre de Pentium. 21 años lo separaban del Intel 4004 que
inauguró la era de los microprocesadores. Los 2 300 transistores del Intel 4004
341
procesaban 108 kHz, contaban con 60 instrucciones y 8kb de espacio de
almacenamiento, ejecutando 60 000 operaciones por segundo. El Pentium incluyó
3.100.000 transistores (fabricado con el proceso BICMOS (BipolarCMOS) de 0,8
micrones), con velocidades iniciales de 60 y 66 MHz y capacidad de ejecución de
112 millones de instrucciones por segundo, verificación interna de paridad
para asegurar la ejecución correcta de las instrucciones, bus de datos de 64
bit para una comunicación más rápida con la memoria externa y, lo más
importante, permitía la ejecución de dos instrucciones simultáneamente.
El siglo XX concluía, según cálculos conservadores, con unos 150 millones los
ordenadores conectados a Internet. La cifra impresiona y da una medida de hacia
donde va el mundo en materia de globalización de la información.
Los conceptos de "superautopista de la información" que eduque sobre principios
sustentables e informe con objetividad sobre los problemas planetarios, se
combina con la de pulpo de la información comercial, creador de gustos
insípidos, inductor a patrones de consumos y espejismos de riqueza. Tal es el
desafío que deben aceptar los que creen en la virtud y el perfeccionamiento
humano. Se conoce ya de la intervención de Internet para diseminar rápidamente
la verdad y aplastar la mentira. Contribuyamos al ejercicio de esta función. No
olvidemos que ni la microlectrónica ni la informatización han llegado a las
mayorias del planeta que aspira sólo a la globalización del pan, la cultura y
la salud...
Así, en el siglo XX el planeta navegó entre las brumas o al filo de las guerras.
Los hombres de ciencia y su actividad de investigación no escaparon de estas
dramáticas realidades. Fueron marcados como científicos por la interrupción de
sus planes durante uno o dos intervalos productivos de sus vidas profesionales,
y lo que es más importante, como seres humanos conocieron y sufrieron los
horrores de la guerra. Embarcados en la espiral armamentista y en un estrecho
342
chovinismo algunos representantes como individuos e instituciones contribuyeron
al desarrollo de armas horribles. La empresa atómica llamó a las puertas en uno
de los momentos más oscuros de la historia de la humanidad y los físicos jugaron
un importante rol en esta tarea. Pero la mayoría, y algunos aún antes del
lanzamiento de la bomba atómica, comprendieron los desafíos impuestos a la
humanidad por la era nuclear y lucharon decididamente por detener el desarrollo
de tales armas.
En el ámbito gnoseológico, se abrió paso en el siglo XX una Revolución en la
Física que supuso la superación de profundas crisis en el campo de las ideas, y
el advenimiento de lo que se ha dado en llamar un cambio de paradigma.
En el progreso científico técnico, la fusión de la Física con la Técnica como
expresión concreta de las necesidades y posibilidades que se dieron en este
siglo resonó sobre el resto de las Ciencias y fue responsable del repertorio de
realizaciones materiales alcanzado en todas las esferas de la sociedad
contemporánea.
La irracionalidad del orden mundial establecido es la causa principal de que
coexistan al lado de los colosales avances impulsados por el desarrollo de las
ciencias el dramático panorama que exhibe aún el planeta.
Bibliografía:
Aboites Vicente (1991): III. Sistemas láser específicos. El Láser. Fondo de
Cultura Económica. Impreso en México.
http://omega.ilce.edu.mx:3000/sites/ciencia/volumen2/ciencia3/105/htm/sec_7.htm
http://lectura.ilce.edu.mx:3000/biblioteca/sites/ciencia/volumen2/ciencia3/105/h
tm/ellaser.htm
Avendaño Bárbara (2006): Un chico de papá Ioffe. Zores I. Alferov conversa con
Bohemia. Bohemia Digital. 18 de mayo, 2006. La Habana. Cuba.
http://www.bohemia.cubasi.cu/2006/05/18/nacionales/premionovel.html
Ausejo E., Hormigón M (2002): Siglo XX. Historia de las Ciencias y las
Técnicas. Cronología.Universidad de Zaragoza.
http://www.oei.es/salactsi/historia7.htm
343
Bashevaya Ludmila (2003): Flerov Laboratory of Nuclear Reactions (FLNR). Joint
Institute for Nuclear Research, 141980 Dubna, Moscow region, Russian Federation.
http://flerovlab.jinr.ru/flnr/index.html
Bernal John D. (1986): X Las Ciencias Físicas en el siglo XX. La Ciencia en
nuestro tiempo. Historia Social de la Ciencia. Tomo II. Editorial de Ciencias
Sociales. Ciudad de la Habana. Cuba.
Bethe. H. A. (1997): J. Robert Oppenheimer. Biographical Memoirs. National
Academy of Sciences. http://www.nap.edu/html/biomems/joppenheimer.html
Biblioteca Digital Universidad Nacional de San Marcos (2002): Santiago Antúnez
de Mayolo. Revista Editor. Año 2, no 4, 2002. Universidad Nacional de San Marcos
(UNMSM).
http://sisbib.unmsm.edu.pe/bibvirtual/publicaciones/editor/ano2_N4_marzo/santiag
o.htm
Bird Kai, Sherwin Martin J. (2005): Los mitos de Hiroshima. Angeles Times.
Publicado en Trabajadores Digital. La Habana. Cuba.
http://www.trabajadores.cubaweb.cu/SUPLEMENTOHISTORIA/historiauniversal/los
mitos.htm
Braun Eliezer (1997): Capítulo XII. Las siguientes etapas de la Historia. Una
faceta desconocida de Einstein.. Fondo de Cultura Económica. Impreso en México.
http://lectura.ilce.edu.mx:3000/sites/ciencia/volumen1/ciencia2/19/htm/faceta.ht
m
Braun Eliézer (1992): XX Desarrollo de la radio. Electromagnetismo: de la
Ciencia a la Tecnología.Fondo de Cultura Económica. Impreso en México.
http://omega.ilce.edu.mx:3000/sites/ciencia/volumen3/ciencia3/112/htm/sec_23.htm
Bosch Pedro y otros (1994): Pioneros de las Ciencias Nucleares. Fondo de Cultura
Económica. México.
http://omega.ilce.edu.mx:3000/sites/ciencia/volumen3/ciencia3/120/htm/pioneros.h
tm
Bulbulian S. (1996): El descubrimiento de la radiactividad. La
Radiactividad. Fondo de Cultura Económica. México.
http://omega.ilce.edu.mx:3000/sites/ciencia/volumen1/ciencia2/42/htm/radiacti.ht
m
344
Campbell John (2001): Rutherford A Brief Biography. Material basado en el
libro "Rutheford Scientist Supreme". Rutherford.org.nz.
http://www.rutherford.org.nz/biography.htm
Chodos Alan, Ouellette Jennifer (2006): February 1968: The Discovery of Pulsars
Announced. APS News Online. American Physical Society.
Comby Bruno (2006): James Lovelock: Author of the GAIA Theory. Professor James
Lovelock's Web Site. http://www.ecolo.org/lovelock/lovedeten.htm
Curiel Ballesteros A. (1999): Guillermo González Camarena (19171965). Jalisco
en el siglo 20: Perfiles. Guadalajara: Universidad de Guadalajara, 1999, pp.
247256.
http://www.jalisco.gob.mx/nuestroedo/muro/glzcamarena.html
De la Peña, L. (1995): Albert Einstein: Navegante Solitario. Fondo de Cultura
Económica. México.
http://omega.ilce.edu.mx:3000/sites/ciencia/volumen1/ciencia2/31/htm/albertei.ht
m
Dismukes Kim (2005): Biographical Data. Astronaut Biographies. Johnson Space
Center. NASA. http://www.jsc.nasa.gov/Bios/
John H. Glenn, http://www.jsc.nasa.gov/Bios/htmlbios/glennj.html
Rodolfo Neri Vela, http://www.jsc.nasa.gov/Bios/htmlbios/nerivelar.html
Franklin ChangDíaz, http://www.jsc.nasa.gov/Bios/htmlbios/chang.html
Duff Michael J (1998): The theory formerly know as string. Scientific
American.Feb , 1998. pag 12 17
Eklof Anders (2003): Rolf Sievert, the man and the unit. Karolinska Institute.
Medical Radiation Physics History. Stockholm. Sweden.
http://radfys.ki.se/sievert/Sievert.html
Enciclopedia Encarta (2006): 4. La Física Moderna 5. Avances de la Física
desde 1930. Física."Microsoft® Encarta® 2006 [DVD]. Microsoft Corporation, 2005.
Enciclopedia Encarta (2006): 2. Física del Espacio. Astronaútica ." Microsoft®
Encarta® 2006 [DVD]. Microsoft Corporation, 2005.
Einstein, Albert; Russell Bertrand (1955): The RussellEinstein Manifesto.
London
http://www.pugwash.org/about/manifesto.htm
345
Franck James et al (1945): The Franck Report . Memorandum on Political and
Social Problems of the Bomb by scientists at the Metallurgical Laboratory Univ.
of Chicago. J. Franck (Chairman), D. J. Hughes, J. J. Nickson, E. Rabinowitch,
G.T. Seaborg, J. C. Stearns, L. Szilard.
www.nuclearfiles.org/redocuments/ 1945/450611franckreport.html
Fitzgerald Richard (2001): Physics Nobel Prize Honors Roots of Information Age.
Physics Today Online. American Institute of Physics.
http://www.aip.org/pt/vol53/iss12/p17.html
Fleischer Lisa (2005): Juan M. Maldacena. Institute for Advanced Study School of
Natural Sciences.
http://www.sns.ias.edu/~malda/
Galai Mark (1977): S. Koroliov. Constructor jefe. Fragmentos del libro "Con el
Hombre a bordo", publicado en la Revista Sputnik, 10, 1977. Traducción: Mariza
Viniars.
http://www.russiahc.ru/spn/history/persons/korol.cfm
GarcíaColin L., Mazari M., Moshnsky M. et al (1997): Niels Bohr: científico,
filósofo, humanista.Fondo de Cultura Económica.
http://omega.ilce.edu.mx:3000/sites/ciencia/volumen1/ciencia2/14/htm/bohr.htm
Geoscience Australia (2005): Query Nuclear Explosions Database. Australian
Government. http://www.ga.gov.au/oracle/nukexp_form.jsp
Gest Howard (2004): Samuel Ruben’s contributions to research on photosynthesis
and bacterial metabolism with radioactive carbon. Photosynthesis Research 80:
77–83, 2004. Kluwer Academic Publishers. Printed in the Netherlands.
http://www.life.uiuc.edu/govindjee/Part3/9_Gest_On_Ruben.pdf
Giambiagi Juan J. (1997): La Física del siglo XX a vuelo de pájaro. Ciencia y
Sociedad. Revista CienciaHoy, Vol7, no.4. Conferencia dictada en la Academia
Nacional de Ciencias Exactas, Físicas y Naturales, Buenos
Aires.http://www.cienciahoy.org.ar/hoy40/fisica2.htm
Golovanov Y. (1990): Semblanzas de grandes hombres de ciencia. Editorial
Progreso. Moscú. Serguei Koroliov 143 – 149; Igor Kurchatov, p.155 160;
Pablo Langevin p. 190 194 (Cita de Einstein sobre Langevin en página 191);
Lev Landau, p. 207 – 215.
346
Greene Brian (2004): Personal Page Web. Columbia University Department of
Physics. http://phys.columbia.edu/faculty/greene.htm
Grigorian A. T., Polar L.S. (1962): Las ideas básicas de la Física. Ediciones
Pueblos Unidos S.A. Montevideo.
Griffin Scott (2006): Marc Andreessen. Internet Pioneers.
http://www.ibiblio.org/pioneers/andreesen.html
Groom Charles (1996): La línea del tiempo de la física de partículas.
Contemporary Physics Education Project.
http://particleadventure.org/particleadventure/spanish/history/mains.html
Hacyan S. (1994): Del Mundo Cuántico al Universo en Expansión. Fondo de Cultura
Económica. México.
http://omega.ilce.edu.mx:3000/sites/ciencia/volumen3/ciencia3/129/htm/delmundo.h
tm
Histoire de la Chimie (2005): Moseley Henry GwynJeffreys. Biographies. Galerie.
Resumen de los cursos ofrecidos por el profesor Georges Bram de la Facultad de
Ciencias de París Sud Orsay.
http://histoirechimie.free.fr/Lien/MOSELEY.htm
Holden, N. E. (1990): The delayed discovery of nuclear fission. Chemistry
International, Vol. 12, no.5, 177185.
Hunter David (1983): Tim Paterson.
http://www.1000bit.net/storia/perso/tim_paterson_e.asp
IEEE Virtual Museum (2006): Institute of Electrical and Electronics Engineers,
Inc.
Edwin H. Armstrong.
http://www.ieeevirtualmuseum.org/collection/people.php?id=1234606&lid=1
J. Presper Eckert
http://www.ieeevirtualmuseum.org/collection/people.php?id=1234636&lid=1
John W. Mauchly
http://www.ieeevirtualmuseum.org/collection/people.php?id=1234639&lid=1
Federico Faggin
http://www.ieeevirtualmuseum.org/collection/people.php?id=1234777&lid=1
347
Ted Hoff
http://www.ieeevirtualmuseum.org/collection/people.php?id=1234774&lid=1
Stanley Mazor
http://www.ieeevirtualmuseum.org/collection/people.php?id=1234773&lid=1
Intergovernmental Panel on Climate Change (1990): Policymakers Summary of the
Scientific Assessment of Climate Change. Report to IPCC from Working Group 1,
June 1990.
Kapitsa Piotr (1985): Lev Davidovich Landau. Experimento, teoría, intelecto.
Editorial MIR. Moscú.
Katz Eugenii (2003): Famous Electrochemists. Department of Chemistry. The
Hebrew University of Jerusalem Givat Ram. Jerusalem.
Sir John Ambrose Fleming.
http://chem.ch.huji.ac.il/~eugeniik/history/fleming.htm
Vladimir Kosma Zworykin
http://chem.ch.huji.ac.il/~eugeniik/history/zworykin.htm
Kuhn, T.S. (1982): La estructura de las revoluciones científicas. Fondo de
Cultura Económica. México.
Lemelson MIT Program (1999): Inventor of the week archive. Computing &
Telecommunications. Massachusetts Institute of Technology. MIT School of
Engineering.
Tim Berners – Lee. The World Wide Web.
http://web.mit.edu/invent/iow/bernerslee.html
Lee de Forest. Triode amplifier, http://web.mit.edu/invent/iow/deforest.html
Jack St. Clair Kilby. The Microchip, http://web.mit.edu/invent/iow/kilby.html
Menchaca Rocha A. (1996): El discreto encanto de las partículas elementales. V
Reimpresión. Fondo de la Cultura Económica. Mexico. D.F.
http://lectura.ilce.edu.mx:3000/biblioteca/sites/ciencia/volumen2/ciencia3/068/h
tm/discreto.htm
VII El positrón: Dirac y Anderson
VIII. El neutrino: Pauli, Fermi, Reines y Cowan.
348
XII. Unificación Electrodébil: Salam, Weinberg, Van deer Meer y Rubbia.
MSFC History Office (2003): Biography of Wernher Von Braun. Marshall Space
Flight Center. Huntsville, Alabama.
http://history.msfc.nasa.gov/vonbraun/bio.html
Nobel eMuseum (2002): The Nobel Prizes in
Physics. http://www.nobel.se/physics/index.html
Nobel eMuseum (2004): The Nobel Prize in Physics. From Nobel Lectures, Physics
19011921, Elsevier Publishing Company, Amsterdam, 1965.
Max von Laue, http://nobelprize.org/nobel_prizes/physics/laureates/1914/bragg
bio.html
William Henry Bragg
William Lawrence
Bragg, http://nobelprize.org/nobel_prizes/physics/laureates/1915/braggbio.html
Max Planck, http://nobelprize.org/nobel_prizes/physics/laureates/1918/planck
bio.html
Nobel eMuseum (2004): The Nobel Prize in Physics. From Nobel Lectures, Physics
19221941, Elsevier Publishing Company, Amsterdam, 1965.
Manne Georg Siegbahn
http://nobelprize.org/nobel_prizes/physics/laureates/1925/ siegbahn bio.html
Arthur Holly Compton
http://nobelprize.org/nobel_prizes/physics/laureates/1927/comptonbio.html
Erwin Schrodinger
http://nobelprize.org/nobel_prizes/physics/laureates/1933/schrodingerbio.html
Paul Dirac
http://nobelprize.org/nobel_prizes/physics/laureates/1933/diracbio.html
James Chadwick
http://nobelprize.org/nobel_prizes/physics/laureates/1935/chadwickbio.html
Ernest Orlando Lawrence.
http://nobelprize.org/physics/laureates/1939/lawrencebio.html
349
Nobel eMuseum (2004): The Nobel Prize in Physics. From Nobel Lectures, Physics
19421962, Elsevier Publishing Company, Amsterdam, 1965.
Cecil Powell, http://nobelprize.org/nobel_prizes/physics/laureates/1950/powell
bio.html
Igor E. Tamm, http://nobelprize.org/nobel_prizes/physics/laureates/1950/tamm
bio.html
John Bardeen, http://nobelprize.org/nobel_prizes/physics/laureates/1956/bardeen
bio.html
Walter H.
Brattain, http://nobelprize.org/nobel_prizes/physics/laureates/1956/bardeen
bio.html
Nobel eMuseum (2004): The Nobel Prize in Physics. From Nobel Lectures, Physics
19631970, Elsevier Publishing Company, Amsterdam, 1970.
Nikolai G.
Basov, http://nobelprize.org/nobel_prizes/physics/laureates/1964basovbio.html
Alexander M. Projorov
http://nobelprize.org/nobel_prizes/physics/laureates/1964/projorovbio.html
Charles H.
Townes, http://nobelprize.org/nobel_prizes/physics/laureates/1964/townes
bio.html
Murray Gell
Mann, http://nobelprize.org/nobel_prizes/physics/laureates/1969/gellmann
bio.html
Nobel eMuseum (2004): The Nobel Prize in Physics. From Nobel Lectures, Physics
19711980. Elsevier Publishing Company, Amsterdam, 1980.
Leo Esaki, http://nobelprize.org/nobel_prizes/physics/laureates/1973/esaki
bio.html
Brian Josephson
http://nobelprize.org/nobel_prizes/physics/laureates/1973/josephsoncv.html
John Hasbrouck van Vleck
http://nobelprize.org/nobel_prizes/physics/laureates/1977/vleckbio.html
Philip Warren Anderson
350
http://nobelprize.org/nobel_prizes/physics/laureates/1977/andersonbio.html
Nevill Francis Mott
http://nobelprize.org/nobel_prizes/physics/laureates/1977/mottbio.html
Robert Wilson
http://nobelprize.org/nobel_prizes/physics/laureates/1978/wilsonautobio.html
Arno Penzias
http://nobelprize.org/nobel_prizes/physics/laureates/1978/penziasautobio.html
Abdus Salam.
http://nobelprize.org/physics/laureates/1979/salambio.html
Steven Weinberg
http://nobelprize.org/physics/laureates/1979/weinbergbio.html
Nobel eMuseum (2004): The Nobel Prize in Physics. From Nobel Lectures.
Arthur L. Schawlow
http://nobelprize.org/physics/laureates/1981/schawlowautobio.html
Nicolaas Bloembergen
http://nobelprize.org/physics/laureates/1981/bloembergenautobio.html
Ernst A. Ruska
http://nobelprize.org/physics/laureates/1986/ruskaautobio.html
Heinrich Rohrer
http://nobelprize.org/physics/laureates/1986/rohrerautobio.html
Johannes G. Bednorz
http://nobelprize.org/physics/laureates/1987/bednorzautobio.html
Karl A. Müller
http://nobelprize.org/physics/laureates/1987/müllerautobio.html
Georges Charpak
http://nobelprize.org/physics/laureates/1992/charpakautobio.html
Henry W. Kendall
351
http://nobelprize.org/physics/laureates/1990/kendallautobio.html
Richard E. Taylor
http://nobelprize.org/physics/laureates/1990/taylorautobio.html
Jerome I. Friedman
http://nobelprize.org/physics/laureates/1990/friedmanautobio.html
David M. Lee
http://nobelprize.org/physics/laureates/1996/leeautobio.html
Douglas D. Osheroff
http://nobelprize.org/physics/laureates/1996/osheroffautobio.html
Hebert Kroemer
http://nobelprize.org/physics/laureates/2000/ kroemer autobio.html
Masatoshi Koshiba
http://nobelprize.org/physics/laureates/2002/koshibaautobio.html
Alexei A. Abrikosov
http://nobelprize.org/physics/laureates/2003/abrikosovautobio.html
Vitali L.Ginzburg
http://nobelprize.org/physics/laureates/2003/ginzburgautobio.html
Nobel eMuseum (2004): From Nobel Lectures, Chemistry. Elsevier Publishing
Company, Amsterdam.
Glenn Theodore Seaborg.
http://nobelprize.org/chemistry/laureates/1951/seaborgbio.html
Willard F. Libby.
http://nobelprize.org/chemistry/laureates/1960/libbybio.html
Dorothy Crowfoot Hodgkin
http://nobelprize.org/chemistry/laureates/1962/hodgkinbio.html
Richard Ernst
http://nobelprize.org/chemistry/laureates/1991/ernstautobio.html
Mario Molina
352
http://nobelprize.org/chemistry/laureates/1995/molinaautobio.html
Kurt Wuthrich
http://nobelprize.org/chemistry/laureates/2002/wuthrichautobio.html
John B. Fenn
http://nobelprize.org/chemistry/laureates/2002/fennautobio.html
Koichi Tanaka
http://nobelprize.org/chemistry/laureates/2002/tanakaautobio.html
Nobel eMuseum (2004): From Nobel Lectures, Physiology or Medicine . Elsevier
Publishing Company, Amsterdam, 1972.
Maurice Wilkins, http://nobelprize.org/medicine/laureates/1962/wilkinsbio.html
Alfred D. Hershey, http://nobelprize.org/medicine/laureates/1969/hershey
bio.html
NuclearFiles.Org (2006): Nuclear Files resources and history of the nuclear age.
Library. Project of the Nuclear Age Peace Foundation.
Frederic Joliot.
http://www.nuclearfiles.org/rebios/joliot.htm
Irene JoliotCurie
http://www.nuclearfiles.org/rebios/curie.htm
Julius R. Oppenheimer
http://www.nuclearfiles.org/menu/library/biographies/bio_oppenheimerjulius.htm
James Franck
http://www.nuclearfiles.org/menu/library/biographies/bio_franckjames.htm
Lise Meitner
http://www.nuclearfiles.org/menu/library/biographies/bio_meitnerlise.htm
Nuñez J. (2000): La ciencia y la tecnología como procesos sociales. Lo que la
educación científica no debe olvidar. La Habana. http://www.campus
oei.org/salactsi/nunez00.htm#9
O'Connor J. J., Robertson E. F. (2000): School of Mathematics and Statistics.
University of St Andrew. Scotland.
353
John George Kemeny
http://wwwgroups.dcs.stand.ac.uk/~history/Biographies/Kemeny.html
George Dantzig
http://wwwhistory.mcs.stand.ac.uk/Biographies/Dantzig_George.html
Werner Karl Heisenberg.
http://wwwgroups.dcs.stand.ac.uk/~history/Mathematicians/Heisenberg.html
Karl Schwarzschild
http://wwwhistory.mcs.standrews.ac.uk/history/Biographies/Schwarzschild.html
Mitchell Feigenbaum
http://wwwhistory.mcs.standrews.ac.uk/history/Biographies/Feigenbaum.html
Edwin P. Hubble
http://wwwhistory.mcs.standrews.ac.uk/history/Biographies/Hubble.html
Alexander A. Friedmann
http://wwwhistory.mcs.standrews.ac.uk/history/Biographies/Friedmann.html
Office of Radiation, Chemical & Biological Safety (2002): Figures in radiation
history. Michigan State University
http://www.orcbs.msu.edu/radiation/radhistory/
Online Ethics Center (2005): Roger Boisjoly y el Desastre del Challenger. Online
Ethics Center for Engineering and Science. La versión original en inglés fue
creada por Jagruti S. Patel y Phil. Traducción: Francy Acosta. Asesor: Ingeniero
Antonio Alba.
http://onlineethics.org/spanish/boisjoly/RBintrospan.html
Pasachoff Naomi (2006): Marie Curie and the Science of the Radioactivity. The
Center for History of Physics. The American Institute of Physics.
http://www.aip.org/history/curie/contents.htm
Peralta y Fabi Ricardo (1995): Del Espacio al Subsuelo. Fondo de Cultura
Económica. Impreso en México.
I. El Reto Espacial
http://omega.ilce.edu.mx:3000/sites/ciencia/volumen2/ciencia3/086/htm/sec_4.htm
354
VII. Hacia el Futuro
Pugwash On Line (2004): The origins of Pugwash. Conferences of Science and World
Affairs. http://www.pugwash.org/origins.htm
Ríos Jáuregui Annet (2005): Celebran 15 años de solidaridad humanitaria. Diario
Granma. 30 de marzo de 2005. La Habana.
http://www.granma.cubaweb.cu/2005/03/30/nacional/articulo08.html
Sample Ian (2005): Joseph Rotblat. Man of peace dies scientist who turned
back on Abomb project. Friday September 2, 2005, The Guardian.
UK.http://education.guardian.co.uk/higher/research/story/0,,1561452,00.html
Science Odyssey (1998): People and discoveries: Discoveries. Public Broadcasting
Service. Virginia. USA.
1945 ENIAC is built
http://www.pbs.org/wgbh/aso/databank/entries/dt45en.html
1947 The transistor is invented
http://www.pbs.org/wgbh/aso/databank/entries/dt47tr.html
1971 First commercial microprocessor is introduced
http://www.pbs.org/wgbh/aso/databank/entries/dt71mi.html
1975 Personal computer industry is launched
http://www.pbs.org/wgbh/aso/databank/entries/dt75co.html
1992 The Internet gives rise to the World Wide Web
http://www.pbs.org/wgbh/aso/databank/entries/dt92ww.html
Erwin Schrödinger 1887 –
1961. http://www.pbs.org/wgbh/aso/databank/entries/bpschr.html
Idem (2005): People & Events.
Enrico Fermi, (1901 1954). The American experience. Race for the superbomb.
http://www.pbs.org/wgbh/amex/bomb/peopleevents/pandeAMEX52.html Enrico Fermi
Selleri F. (1990): Chapter 1. Quantum theorists and the physical world. Quantum
paradoxes and physical reality. Kluwer Academic Press. The Netherlands.
Szilard Leo (1945): A petition to the President of The United States. July 17,
1945. (Drafted by Leo Szilard and signed by 68 members of the Metallurgical
355
Laboratory in
Chicago).http://www.atomicarchive.com/Docs/ManhattanProject/Petition.shtml
The Chemical Heritage Foundation (2000): Otto Hahn, Lise Meitner and Fritz
Strassmann. Chemical Achievers.
http://www.chemheritage.org/EducationalServices/chemach/ans/hms.html
The Manhattan Project Heritage Preservation Association, Inc. (2004): JAMES
FRANCK. Director Chemistry División. Metallurgical Laboratory Univ. of
Chicago.
The Nobel Laureates of LMB (2004): Laboratory of Molecular Biology. Cambridge.
Francis H. Crick
http://www2.mrclmb.cam.ac.uk/archive/Crick62.html
James Watson.
http://www2.mrclmb.cam.ac.uk/archive/ Watson62.html
The Russian Women Network (2006): Svetlana Savitskaya Second woman in space.
First woman to walk in space. Great Russian Women.
http://great.russianwomen.net/Svetlana_Savitskaya.shtml
The Voice of Russia (2001): Estación Espacial "MIR": 15 Años de Vuelo. 115326
Russia, Moscow, st. Pyatnitskaya 25, bld. 1, Voice of Russia.
http://www.vor.ru/Spanish/Cosmos/cosmos_sp_23.html
Constructor Jefe: Serguei Koroliov.
htpp://www.vor.ru/Spanish/Cosmos/cosmos_sp_04.html
Gagarin en Cuba
http://www.vor.ru/Spanish/Cosmos/cosmos_sp_34.html
UNEP(1998): Environmental Effects of Ozone Depletion. Executive Summary. United
Nations Environmental Program (UNEP). http://www.gcrio.org/UNEP1998/UNEP98.html
Union of Concerned Scientists (2004): Scientific Integrity in
Policymaking.http://www.ucsusa.org/global_environment/rsi/page.cfm?pageID=1642
Universidad de California, San Diego (1997): Martin David Kamen. Papers.
Background.http://orpheus.ucsd.edu/speccoll/testing/html/mss0098a.html
356
Weart Spencer (2005): The Discovery of Global Warming. Center for the History of
Physics. American Institute of Physics.
http://www.aip.org/history/climate/index.html
Weart, Spencer R. (1997). Global Warming, Cold War, and the Evolution of
Research Plans. Historical Studies in the Physical and Biological Sciences
27(2): 31956. En "Roger Revelle’s Discovery". American Institute of Physics.
http://www.aip.org/history/climate/Revelle.htm
Wright Pearce (2002): Martin Kamen. Scientist, codiscoverer of the isotope
that gave archaeology carbondating, and innocent victim of America's Communist
witchhunts. Monday September 9, 2002. The Guardian. London.
http://education.guardian.co.uk/obituary/story/0,,788663,00.html
357
El átomo en la antigüedad
Historia de la física
Los griegos produjeron aportaciones significativas al mundo de la física,
desarrollando las bases de los principios fundamentales modernos, tales como la
conservación de la masa, la teoría atómica, y otros semejantes. En los siglos
posteriores al período griego, ocurrieron muy pocos desarrollos nuevos. Con la
llegada de la intensa fuerza intelectual del Renacimiento en el campo de la
física, Copérnico y otros grandes pensadores, comenzaron a descartar las ideas
de los griegos en favor de nuevas ideas basadas en métodos empíricos. Como a
partir de las teorías de Copérnico, terminó la vieja era del conocimiento
científico y comenzó la nueva revolución científica, es adecuado incluirlo con
los pensadores antiguos.
Thales de Mileto postula que el agua es la sustancia básica de
624547 a.n.e. la Tierra. También estaba enterado de la fuerza de atracción
entre imanes y del efecto en el ámbar, al frotarlo.
Pitágoras sostuvo que la Tierra era esférica. Buscó una
580500 a.n.e.
comprensión matemática del universo.
Anaxágoras y Empédocles. Anaxágoras desafió la afirmación de
los griegos, sobre la creación y destrucción de la materia,
enseñando que los cambios en la materia se deben a diferentes
500428 a.n.e.,
ordenamientos de partículas indivisibles (sus enseñanzas
484424 a.n.e.
fueron un antecedente para la ley de conservación de la masa).
Empédocles redujo estas partes indivisibles a cuatro
elementos: tierra, aire, fuego, y agua.
Demócrito desarrolló la teoría que el universo está formado
por espacio vacío y un número (casi) infinito de partículas
460 370 a.n.e. invisibles , que se diferencian unas de otras en suforma,
posición, y disposición.. Toda la materia está hecha de
partículas indivisibles llamadas átomos.
Aristóteles formalizó la recopilación del conocimiento
científico. Si bien es dificultoso señalar como suya una
384322 a.n.e. teoría en particular, el resultado global de esta compilación
de conocimientos fue proveer las bases fundamentales de la
ciencia por unos mil años.
310230 a.n.e. Aristarco describió una cosmología análoga a la propuesta por
Copérnico 2000 años más tarde. Sin embargo, dado el gran
358
prestigio de Aristóteles, el modelo heliocéntrico de Aristarco
fue rechazado en favor del modelo geocéntrico.
Arquímedes fue un gran pionero en física teórica. Propuso los
287212 a.n.e.
fundamentos de la hidrostática.
Ptolomeo de Alejandría recogió los conocimientos ópticos de su
70147 época. También inventó una compleja teoría del movimiento
planetario.
~1000 Alhazen, un árabe, produjo siete libros sobre óptica.
Roger Bacon enseñó que para aprender los secretos de la
naturaleza, primero debemos observar. Por lo tanto indicó el
1214 1294
método con el cual la gente puede desarrollar teorías
deductivas, usando las evidencias del mundo natural.
Nicolás Copérnico impulsó la teoría de que la Tierra gira
alrededor del sol. Este modelo heliocéntrico fue
1473 1543 revolucionario porque desafió el dogma vigente, a causa de la
autoridad científica de Aristóteles, y causó una completa
conmoción científica y filosófica.
359
EL CONCEPTO DE FUERZA EN LA ANTIGÜEDAD
Durante casi 18 siglos las ideas de Aristóteles (384 a. de C. 322 a. de C.)
conformaron el modelo dominante en el campo de las ciencias. En lo que se
refiere a la física, esta forma de pensar se ha llamado “Física del sentido
común”, porque bastantes de sus ideas coinciden con razonamientos espontáneos de
las personas.
Las ideas Aristóteles aportaron una visión científica, filosófica y también
"religiosa" del mundo. Esta visión se sustenta en un modelo geocéntrico, que
desarrolló con detalle posteriormente el astrónomo Ptolomeo (100170).
Una característica fundamental de la física de Aristóteles fue plantear una
separación radical entre dos mundos: el mundo sublunar imperfecto o terrestre y
el mundo celeste o perfecto. Estas dos partes del Universo debían funcionar
obedeciendo a leyes diferentes: en el perfecto mundo celeste, el Sol, la Luna y
las estrellas se mueven de forma regular y permanente siguiendo círculos suaves
y uniformes alrededor de la Tierra; en cambio, en el mundo imperfecto terrestre,
el estado natural de los objetos es el reposo y es necesario intervenir sobre
ellos para ponerlos en movimiento y para mantener dicho movimiento.
En este contexto, se planteó el concepto "tradicional" de fuerza, entendida como
la causa del movimiento, de la velocidad de los cuerpos. Según esta concepción,
para que un cuerpo permanezca en movimiento habría que hacerle fuerza y cuando
se dejara de hacer fuerza el cuerpo se pararía.
360
Historia de la Física
La física es la ciencia de las propiedades de la materia y de las fuerzas
naturales. Sus formulaciones son en general compactas expresadas en lenguaje
matemático.
La introducción de la investigación experimental y la aplicación del método
matemático contribuyeron para la distinción entre física, filosofía y religión,
que originalmente, tenían como objetivo común comprender el origen y la
constitución del universo.
La física estudia la materia en los niveles molecular, atómico, nuclear y
subnuclear. Estudia los niveles de organización, o sea, los estados sólido,
líquido, gaseoso y plasmático de la materia.
Investiga también las cuatro fuerzas fundamentales: la de gravedad (fuerza de
atracción ejercida por todas las partículas del universo), la electromagnética
(que enlaza los electrones a los núcleos, la interacción fuerte (que mantiene la
cohesión del núcleo) y la interacción débil (responsable por la desintegración
de ciertas partículas).
La física experimental investiga las propiedades de la materia y de sus
transformaciones por medio de transformaciones y medidas, generalmente
realizadas en condiciones de laboratorio universalmente repetibles. La física
teórica sistematiza los resultados experimentales, establece relaciones entre
conceptos y constantes físicas y permite prever fenómenos inéditos.
Hechos Históricos
La física se desarrolla en función de la necesidad del hombre de conocer el
mundo natural y controlar y reproducir las fuerzas de la naturaleza en su
beneficio.
Física en la Antigüedad
Fue en la Grecia antigua que son realizados los primeros estudios “científicos”
sobre los fenómenos de la naturaleza. Surgen los “filósofos naturales”
interesados en racionalizar el mundo sin recurrir a la intervención divina.
Atomistas Griegos
La primera teoría atómica comienza en Grecia en el siglo V A.c. Leucipo, de
Mileto y su alumno Demócrito, formulan las primeras hipótesis sobre los
componentes esenciales de la materia.
Según ellos, el universo se compone de átomos y vacío. Los átomos son infinitos
361
y no puede ser cortados o divididos. Son sólidos, pero de tamaño tan reducido
que no pueden ser vistos. Están siempre en movimiento en el vacío.
Física Aristotélica
Es con Aristóteles que la física y demás ciencias ganaron más impulso en la
antigüedad. Sus principales aportaciones a la física de las ideas sobre el
movimiento, caída de cuerpos pesados (llamados “graves”, de ahí el origen de la
palabra “gravedad”) y el geocentrismo. La lógica aristotélica dominará los
estudios de la física hasta el final de la Edad Media en cuanto a los conceptos
de gravedad y geocentrismo.
Revolución Copernicana
En 1510 Nicolau Copérnico rompió con más de diez siglos de dominio del
geocentrismo. En su libro “Commentariolus”, dice por primera vez que la Tierra
no es el centro del universo, sino uno de muchos planetas que giran alrededor
del Sol. Con esta afirmación se enfrenta directamente a la Iglesia Católica, que
había adoptado el sistema de Aristóteles como un dogma y hace que la física se
vuelva un campo de estudio específico.
Para muchos historiadores, la revolución copernicana se consolida sólo un siglo
más tarde, con los descubrimientos telescópicos y la mecánica de Galileo (1564
1642) y las leyes del movimiento planetario de Joannes Kepler (15711630).
Física Clásica
El siglo XVII sentó las bases para la Física de la era industrial. Simon Stevin
desarrolla la hidrostática, la ciencia fundamental para su país (Holanda),
protegida del mar por diques y esclusas. Una contribución equivalente fue la
dada por su compatriota Christiaan Huygens, que desarrolló teorías sobre la
propagación de la luz. Huygens es el primero en describir la luz como una onda.
Pero fué Isaac Newton (16421727), científico Inglés, el gran nombre de la
época: le pertenecen la teoría general de la mecánica y la gravitación universal
y cálculo infinitesimal.
Física Aplicada
Termodinámica
Estudia las relaciones entre el calor y el trabajo. Se basa en dos principios:
el de la conservación de energía y el de entropía. Estos principios son la base
de las máquinas a vapor, turbinas, motores de combustión interna, motores de
propulsión y máquinas frigoríficas.
Electromagnetismo
362
En 1820, el dinamarqués Hans Oersted relaciona los fenómenos eléctricos a los
magnéticos al observar como la corriente eléctrica alteraba el movimiento de la
aguja de una brújula. Michel Faraday invierte la experiencia de Oersted y
verifica que los magnetos ejercen acción mecánica sobre los conductores
recorridos por la corriente eléctrica y descubre la inducción electromagnética,
que tendrá gran aplicación en las nuevas redes de distribución de energía.
Estructura del Átomo
En 1803, John Dalton comienza a presentar su teoría de que cada elemento químico
corresponde a un tipo de átomo; pero es solo en 1897 con el descubrimiento del
electrón, que el átomo deja de ser una unidad indivisible como se creía desde la
antigüedad.
Era Cuántica
La gran revolución que lleva a la física a la modernidad es la teoría cuántica,
que comienza a definirse a finales del siglo XIX. Es la inauguración de una
nueva lógica resultante de las varias investigaciones sobre la estructura del
átomo, radioactividad y ondulatoria.
Max Planck es quien define el concepto fundamental de la nueva teoría “el
quanta”. Pero la teoría general es de autoría de un grupo internacional de
físicos entre los cuales se encuentran Niels Bohr (Dinamarca), Louis De Broglie
(França), Erwin, Shrödinger y Wolfgang , Pauli (Áustria), Werner Heisenberg
(Alemanha), y Paul Dirac (Inglaterra).
Relatividad
La Teoría de la relatividad surge en dos etapas y altera profundamente las
nociones de espacio y tiempo. En cuanto la mecánica cuántica es el resultado del
trabajo de varios físicos y matemáticos, la relatividad es fruto exclusivo de
las investigaciones de Albert Einstein.
Partículas Subatómicas
La historia de las partículas que componen el átomo bastante reciente. Sólo en
1932 se confirma que los átomos están constituidos por neutrones, protones y
electrones. A continuación se encuentran partículas aún más pequeñas como el
positrón ó neutrino y el mesón (una partícula intranuclear de vida muy breve
(2.6 cienmillonésimas de segundo).
Tendencias Actuales
La fusión nuclear controlada y la física de los primeros instantes del Universo
son actualmente los campos más desafiantes de la física.
363
V. I. Lenin
EN TORNO A LA CUESTION DE LA DIALECTICA
Escrito: En 1915.
Primera publicación: En 1925 en la revista Bolchevik, núms. 56.
Fuente: Biblioteca de Textos Marxistas.
Preparado para el MIA: Por Juan Fajardo, diciembre de 2000.
El desdoblamiento de la unidad y el conocimiento de sus partes contradictorias
(véase la cita de Filón sobre Heráclito, al principio de la parte III "Del
conocimiento", del libro de Lassalle sobre Heráclito*), es la esencia (una de
las "substancias", uno de los principales, si no el principal rasgo o
particularidad) de la dialéctica. Es así precisamente como Hegel plantea también
esta cuestión (Aristóteles en su Metafísica gira siempre en torno a esta
cuestión y combate a Heráclito, es decir, a sus ideas).
La justeza de este aspecto del contenido de la dialéctica debe ser comprobada
por la historia de la ciencia. Generalmente, no se presta a este aspecto de la
dialéctica (como, por ejemplo, Plejánov) la suficiente atención: la identidad de
los contrarios se considera como un conjunto de ejemplos ["por ejemplo, el
grano", "por ejemplo, el comunismo primitivo". También lo hace Engels. Pero lo
hace "con fines de divulgación".], y no como ley del conocimiento (ni como ley
del mundo objetivo).
En matemáticas, los signos + y ó. Diferencial e integral.
En mecánica, la acción y la reacción.
En física, la electricidad positiva y negativa.
En química, la combinación y la disociación de los átomos.
En ciencias sociales, la lucha de clases.
La identidad de los contrarios (¿no sería más justo decir su "unidad"?, aunque
la diferencia de los términos identidad y unidad no tiene, en este caso, una
importancia esencial. Ambos términos son justos en cierto sentido), constituye
el reconocimiento (el descubrimiento) de la existencia de tendencias
contradictorias, que se excluyen mutuamente y antagónicas en todos los fenómenos
y procesos de la naturaleza (entre ellos también los del espíritu y los de la
sociedad). La conditión para conocer todos los procesos del mundo en su "auto
movimiento ", en su desarrollo espontáneo, en su vida real, es conocerlos como
364
una unidad de contrarios. El desarrollo es "la lucha" de los contrarios. Las dos
concepciones fundamentales (¿o las dos posibles?, ¿o las dos que se observan en
la historia?) del desarrollo (de la evolución) son: el desarrollo en el sentido
de disminución y aumento, como repetición, y el desarrollo en el sentido de la
unidad de los contrarios (el desdoblamiento de la unidad en dos polos que se
excluyen mutuamente y la relación entre ambos).
En la primera concepción del movimiento queda en la sombra el automovimiento,
su fuerza motriz, su fuente su motivo (o bien se atribuye su fuente a algo
externo: a Dios, al sujeto, etc.). En la segunda concepción la atención
fundamental se concentra, precisamente, en el conocimiento de la fuente del
"auto"movimiento.
Marx, en El Capital, analiza al principio la relación más sencilla, corriente,
fundamental, masiva y común, que se encuentra miles de millones de veces en la
sociedad burguesa (mercantil): el intercambio de mercancías. En este fenómeno
tan sencillísimo (en esta "célula" de la sociedad burguesa) el análisis descubre
todas las contradicciones (es decir, el germen de todas las contradicciones) de
la sociedad contemporánea. La exposición que sigue nos muestra el desarrollo
(tanto el crecimiento como el movimiento) de estas contra dicciones y de esta
sociedad en la suma de sus partes aisladas, desde su principio hasta su fin.
365
idénticos: lo particular no existe más que en su relación con lo general. Lo
general existe únicamente en lo particular, a través de lo particular. Todo lo
particular es (de un modo u otro) general. Todo lo general es (partícula o
aspecto, o esencia) de lo particular. Todo lo general abarca sólo de un modo
aproximado, todos los objetos aislados. Todo lo particular forma parte
incompleta de lo general, etc., etc. Todo lo particular está ligado, por medio
de millares de transiciones, a lo particular de otro género (objetos, fenómenos,
procesos), etc. Ya a q u í hay elementos, gérmenes, conceptos de la necesidad,
de la relación objetiva en la naturaleza, etc. Lo casual y lo necesario, el
fenómeno y la esencia están ya aquí, puesto que al decir: Iván es un hombre,
Zhuchka [***] es un perro, esto es una hoja de árbol, etc., rechazamos una serie
de rasgos como casuales, separamos lo esencial de lo aparente y oponemos lo uno
a lo otro.
De modo que es posible (y se debe) descubrir en cual quier locución, como en una
"célula", los gérmenes de todos los elementos de la dialéctica, demostrando así
que la dialéctica es, en general, inherente a todo el conocimiento del hombre. Y
las ciencias naturales nos muestran (y esto debe ser demostrado también con
cualquier ejemplo de los más sencillos) la naturaleza objetiva, que posee estas
mismas cualidades: la transformacion de lo particular en general, de lo casual
en necesario, las transiciones, los matices, la relación mutua de los
contrarios. La dialéctica esprecisa m e n t e la teoría del conocimiento (de
Hegel y) del marxismo: he aquí en qué "aspecto" de la cuestión (y esto no es un
"aspecto" de la cuestión, sino la esencia de la cuestión) no fijó su atención
Plejánov, sin hablar ya de otros marxistas.
__________
NB: La diferencia existente entre el subjetivismo (es cepticismo y las doctrinas
sofistas, etc.) y la dialéctica, re side, entre otras cosas, en que en la
dialéctica (objetiva) también la diferencia entre lo relativo y absoluto es
relativa. Para la dialéctica objetiva lo absoluto se contiene también en lo
relativo. Para el subjetivismo y las doctrinas sofistas lo relativo sólo es
relativo y excluye lo absoluto.
El conocimiento, en forma de una serie de círculos, lo representa también Hegel
(véase Lógica) y el "gnoseólogo" moderno de las ciencias naturales, ecléctico y
enemigo de la hegeliada (¡a la que no comprendió!), Paul Volkmann (véase
su Erkenntnistheoretische Grundzüge der Naturwissenschaften ****).
366
Los "círculos" en filosofía: [¿es obligatoria la cronología en cuanto a
las personas? [No!].
La antigua: desde Demócrito hasta Platón y la dialéctica de Heráclito.
Renacimiento: Descartes versus [*****] Gassendi (¿Spinoza?).
La moderna: HolbachóHegel (a través de Bérkeley, Hume,Kant).
Hegel Feuerbach Marx.
La dialéctica como conocimiento vivo, multilateral (con el número de aspectos
siempre en aumento), de innumerables matices en el modo de abordar, de
aproximarse a la realidad (con un sistema filosófico qué, de cada matiz, se
desarrolla en un todo): he aquí el contenido inconmensurablemente rico, en
comparación con el materialismo "metafísico", cuya desgracia principal es la de
no ser capaz de aplicar la dialéctica a la Bildertheorie******, al proceso y
desarrollo del conocimiento.
El idealismo es clericalismo. Esto es justo.
Pero el idealismo filosófico es ("mejor
dicho " y "además ") el camino hacia
NB:
el oscurantismo clerical a través de un o de
este aforismo
los matices del conocimiento
infinitamente complicado (dialéctico) del
hombre.
El conocimiento del hombre no es (respectivamente, no sigue) una línea recta,
sino una línea curva, que se aproxima infinitamente a una serie de círculos, a
una espiral. Cualquier segmento, trozo, fragmento de esta línea curva puede ser
transformado (transformado unilateralmente) en una línea recta, independiente,
íntegra, que conduce (si tras los árboles no se ve el bosque) en tal caso al
pantano, al oscurantismo clerical (donde l o s u j e t a el interés de clase de
las clases dominantes). El pensamiento rectilíneo y unilateral, la rigidez y la
fosilización, el subjetivismo y la ceguera subjetiva, voila las raíces
gnoseológicas del idealismo. Y el oscurantismo clerical (= idealismo
filosófico), naturalmente, tiene sus raíces gnoseológicas, no carece de terreno,
es una flor estéril, indiscutiblemente, pero una flor estéril que crece en el
367
árbol vivo, fértil, auténtico, poderoso, omnipotente, objetivo, absoluto del
conocimiento humano.
NOTAS
* Véase V. I. Lenin, "Resumen del libro de Lassalle La filosofía de Heráclito El
Oscuro de Efeso ", Obras Completas, t. XXXVIII.
** "Pues, naturalmente, no es posible imaginarse que exista una casa abstracta
aparte de las casas visibles". (N. de la Ed.)
*** Perro faldero.
**** P. Volkmann. La teoría del conocimiento de las ciencias naturales, Leipzig
Berlín, 1910, . (N. de la Ed.)
***** Contra. (N. de la Ed.)
******Teoría del reflejo. (N. de la Ed.)
******* Se refiere al uso dado por J. Dietzgen al término Überschwenglich que
significa exagerado, excesivo, infinito; por ejemplo, en el libro Kleinere
Philosophische Schriften (Escritos filosóficos menores), Stuttgart, 1903,
Dietzgen utiliza el término como sigue: "Lo absoluto y lo relativo no están
infinitamente separados". Véase también J. Dietzgen, La esencia del trabajo de
le cabeza del hombre, cap. 4, sección 2, sobre el grado de diferencia entre el
mundo espiritual y el mundo sensorial.
368
Boris Mijailovich Zavadovski
369
Mijailovich Zavadovski, con quien hizo muchos trabajos experimentales, etcétera.
Su decidida crítica a Lisenko provocó que fuera despojado de todas sus
responsabilidades, entre ellas, la de la dirección del Museo, lo que abundó en
su prematuro deterioro físico. Murió el 31 de marzo de 1951 a la edad de 56
años. (Nota: Todos estos datos biográficos están extraídos del artículo del
profesor M. V. Kasatkin, del Museo Timiriazev de Moscú, «Académico Boris
Mijailovich Zavadovski», escrito con ocasión del 110 aniversario de su muerte.
Agradecemos al autor y a la dirección del Museo Timiriazev el haber podido
contar con esta privilegiada fuente de información, y al profesor Benito
Fernández la traducción de dicho artículo del ruso al español. También hemos
revisado la tercera edición inglesa de la Gran Enciclopedia Soviética.)
370
moderna, la eugenesia, lasociobiología y da respuesta a ellos con ideas hoy ya
clásicas, pero de las que no se ha podido tampoco salir desde entonces, aunque
al menos hoy son universalmente aceptadas, más aún cuanto mejor se conoce la
estructura genética de la vida. En todo caso, estas cuestiones son planteadas
por el autor desde el esquema de discusión establecido para el tratamiento de la
relación entre lo físico y lo biológico. Zavadovski estaría ejercitando un
análisis fácilmente comprensible desde las coordenadas de la teoría de los
conceptos conjugados de Gustavo Bueno, en donde el vitalismo y el mecanicismo
aparecerían como perspectivas metaméricas, y reduccionistas, mientras que
Zavadovski claramente intenta argumentar y justificar gnoseológicamente un
modelo diamérico de relación entre estos dos elementos, basándose en la
perspectiva del materialismo dialéctico, un esquema que seguramente no acaba de
cuajar debido a la renuncia expresa a cualquier tipo de planteamiento
teleonómico en el campo de la biología, pues si la biología se entiende como una
forma particular de movimiento de la materia, la cuestión que queda por
establecer es cuál es la naturaleza de ese movimiento y por qué da como
resultado una realidad material disociable de «lo físico». El texto que
ofrece Science at the Crossroads parece ser un resumen abreviado de lo que había
preparado para el congreso, lo mismo que ocurrió con otros ponentes. [Pablo
Huerga Melcón, Gijón, 28 de enero de 2006. Agradezco a Benito Fernández, Leticia
Camarero, Araceli Lucas y Esther Castro, su ayuda en la elaboración de este
trabajo. PHM]
Lo «físico» y lo «biológico»
en el proceso de la evolución orgánica
Boris Mijailovich Zavadovski
Edición a cargo de Pablo Huerga Melcón del trabajo presentado por este autor
soviético al II Congreso Internacional de Historia de la Ciencia (Londres 1931)
La cuestión de las relaciones entre las ciencias físicas y biológicas, incluida
en el programa del presente Congreso, forma parte del problema general de las
relaciones entre diferentes cosmovisiones en la solución de las tareas presentes
de la ciencia natural{1}. Esta cuestión ha recibido repetidamente distintas
soluciones, de acuerdo con las particulares condiciones de la experiencia del
trabajo de la humanidad, la condición de sus fuerzas materiales de producción, y
sus relaciones productivas socioeconómicas, que han estado cambiando
constantemente en el curso de la historia humana. Por esta razón el alcance de
mi tema no me permite contestar a la cuestión propuesta en toda su amplitud, y
sugiere la decisión de tratar con algunas cuestiones de principio que llevan a
la solución del problema como un todo, examinando la cuestión de las relaciones
371
entre las ciencias físicas y biológicas en la solución de algunos problemas
teóricos simples de la biología. Me centraré especialmente en el problema de la
teoría de la evolución orgánica, porque analizando este problema será posible
hacer algunas observaciones sobre otras cuestiones planteadas en el programa del
Congreso: las relaciones de la teoría y la práctica en el trabajo científico, y
el papel del método histórico en la solución de los problemas de la ciencia
natural.
Entre toda la variedad de opiniones existentes en la ciencia burguesa sobre la
cuestión de las relaciones de las ciencias físicas y biológicas, es posible
distinguir dos tendencias básicas y mutuamente excluyentes: primero, la que
tiende a identificar las dos, reduciendo los fenómenos biológicos a leyes de
carácter físico, y segundo, la que establece un agudo contraste de lo biológico
frente a lo físico, como dos entidades opuestas. En el último caso, lo «físico»
se refiere a las fuerzas materiales de la naturaleza inorgánica, o a los
factores «mecánicofísiológicos» en movimiento dentro del organismo, reducibles
en último análisis a las mismas leyes del movimiento molecular; mientras que lo
«biológico» se refiere a las diversas fuerzas vitales de carácter no material y
no espacial, que «no son ni el resultado, ni la combinación de lo físico y lo
químico –i. e., en último análisis, de los fenómenos físicos». [69]
Estas tendencias adquieren fuerza especial en el período presente de declive y
decadencia general del capitalismo, que encuentra su expresión también en
aquellas contradicciones que están impidiendo el más fructífero desarrollo de la
ciencia natural y de la técnica bajo los métodos burgueses de producción; y
cuando, por otra parte, el desarrollo del conocimiento científico revela la
imposibilidad de reducir la totalidad de los fenómenos complejos de la
naturaleza a una fórmula simple de leyes físicas o mecánicas. Estas tendencias
caracterizan la desilusión general de la sociedad burguesa en las posibilidades
de la cultura material y el reconocimiento de la imposibilidad de resolver los
problemas científicos que han madurado mientras se permanezca dentro del marco
372
del sistema capitalista (cf. El informe del Ministro Prusiano, Dr. Becker{2},
«Educational questions in the period of the crisis of material culture»).
La característica principal de esta lucha, y de la consiguiente fluctuación en
las relaciones entre las ciencias físicas y las biológicas a través de toda la
historia de la ciencia natural, es el uso acrítico de las concepciones de lo
«físico» y de lo «biológico», de lo «externo» y de lo «interno», y la ausencia
de cualquier tipo de criterio filosófico metodológico, que distingue a la
abrumadora mayoría de los representantes de la ciencia empírica.
Así, dentro del contexto de la concepción «biológica» misma, no siempre hay una
distinción suficientemente clara entre la idea de lo «biofisiológico» como un
factor que determina principalmente los procesos del desarrollo individual, del
metabolismo y la regulación de la actividad de los organismos (aunque lo «bio
físiológico» también incluye inevitablemente [70] el elemento histórico), y la
idea de lo «biohistórico», como un factor en la formación de las especies y la
filogénesis.
No son infrecuentes las tendencias a incluir en lo «biológico» también fenómenos
de la historia social de la humanidad, dado que la sociedad humana se entiende
como un simple resultado mecánico de la especie biológica humana{3}.
373
Una de las características más notables de la interminable contradicción en la
que ha quedado sumida la ciencia natural empírica actual, es el hecho de que
ninguna de las teorías de la evolución existentes en la ciencia burguesa es
capaz de mantenerse en sus propias posiciones, sino que acaba aceptando las
mismas tesis que trata de refutar.
De la misma manera, la teoría «mecánicofisiológica» de Nägeli{4}, o la teoría
de la Nomogénesis de Berg{5}, a pesar de todos los esfuerzos de los autores para
probar el contenido estrictamente científico y materialista de sus
construcciones, llega a ideas esencialmente vitalistas del «principio de la
perfección», o a la idea de adaptación como la «cualidad primaria físicoquímica
de la materia viva» –ideas que no pueden engañar a nadie con su fraseología
aparentemente materialista. [71]
De la misma manera, las teorías francamente vitalistas, que tomaron la bandera
de la lucha contra las concepciones del mecanicismo materialista vulgar, tratan
de encontrar un camino para el conocimiento de la naturaleza de los fenómenos
biológicos a través de fuerzas inmateriales e incognoscibles, contrarias al
mundo físico. Por otra parte, están obligados a abogar por el «vitalismo
práctico» –i. e., el avance de los mismos métodos mecanicistas de investigación
en la actividad práctica del investigador. De esta manera, pasan a las
posiciones del mecanicismo vulgar en todas las esferas de acción cognitiva
directa, condenando por eso sus fuerzas vitales y entelequias al estéril papel
de una tímida cortina para nuestra ignorancia.
374
ideas de la autogénesis mantenidas por sus oponentes lamarquistas, o a la
concepción de la evolución como el resultado de las combinaciones de genes
eternamente existentes –i. e., de hecho, a la negación de la misma idea de la
evolución, como un proceso de continuo despliegue de nuevas formaciones en la
naturaleza.
Finalmente, el lamarquista, considerando la evolución como el resultado de los
cambios somáticos acumulados hereditariamente, introduce la caduca
identificación mecanicista de lo «biofisiológico» y lo «biohistórico»,
olvidando la peculiaridad cualitativa que distingue al huevo, que solo contiene
en sí las posibilidades potenciales de posteriores desarrollos en un organismo
complejo, y el organismo desarrollado. En último término, este punto de vista es
una vez más la negación del verdadero hecho del desarrollo de nuevas formaciones
como un proceso histórico independiente, representando el huevo como el modelo
en miniatura de la forma futura, por así decir, y reduciendo en realidad el
proceso de desarrollo a las funciones de crecimiento.
Las mismas contradicciones internamente insolubles echan a perder los numerosos
intentos de resolver el problema de la evolución orgánica por medio de la
reconciliación ecléctica de la posición darvinista con las ideas lamarquianas
(Haeckel{6}, Plate{7}, Darwin mismo, quien aceptó –no obstante con reservas– la
idea lamarquiana de la herencia de caracteres adquiridos, y varias otras), pues
la conclusión lógica de la idea lamarquiana de la directa variación adaptativa
colectiva de los organismos, en respuesta a la misma influencia del medio
externo, significa la inutilidad e impotencia de la selección, como un factor en
la formación de las especies –i. e., la negación del darvinismo.
375
peculiaridad cualitativa del proceso biológico comparado con los fenómenos
físicos.
El resultado final de esta crisis por la que está pasando la teoría de la
evolución en los países capitalistas es el intento de negar completamente el
verdadero hecho de la evolución, o considerar la teoría como una de las
«hipótesis» posibles, que circula al lado de la leyenda bíblica de la creación
del mundo en seis días de trabajo, o finalmente la posición de un franco
agnosticismo y desilusión frente a la posibilidad de resolver el problema de la
evolución en el nivel actual de conocimiento científico (Johansen{10},
Bateson{11}, y en la URSS, Filipchenko{12}).
Desde el punto de vista sociohistórico, estas escuelas de pensamiento son el
resultado y el reflejo en la conciencia de los científicos burgueses de las
contradicciones internas socioeconómicas que han constreñido a los países
capitalistas, y expresan la imposibilidad del desarrollo posterior normal de la
ciencia natural, como de todas las ciencias, en el contexto del sistema
capitalista.
«Los naturalistas creen liberarse de la filosofía simplemente por ignorarla o
hablar mal de ella. Pero, [73] como no pueden lograr nada sin pensar y para
pensar hace falta recurrir a las determinaciones del pensamiento y toman estas
categorías, sin darse cuenta de ello, de la conciencia usual de las llamadas
gentes cultas, dominada por los residuos de filosofías desde hace largo tiempo
olvidadas, del poquito de filosofía obligatoriamente aprendido en la Universidad
(y que, además de ser puramente fragmentario, constituye un revoltijo de ideas
de gentes de las más diversas escuelas y, además, en la mayoría de los casos, de
las más malas), o de la lectura, ayuna de todo crítica y de todo plan
sistemático, de obra filosófica de todas clases, resulta que no por ello dejan
de hallarse bajo el vasallaje de la filosofía, pero, desgraciadamente, en la
mayor parte de los casos, de la peor de todas, y quienes más insultan a la
376
filosofía son esclavos precisamente de los peores residuos vulgarizados de la
peor de las filosofías.»{13}
Existe también la impresión firme pero incorrecta de que la tarea de la ciencia
en general es reducir a toda costa los fenómenos más complejos a los más
simples, y que consecuentemente el éxito de las ciencias biológicas es posible
sólo bajo la forma de la reducción de los fenómenos de la vida a los más simples
principios físicos, mientras las ciencias sociales pueden construir sus leyes
sólo confiándose a los logros de la biología. En realidad nosotros vemos que,
por ejemplo, el hecho de la herencia, que parecía relativamente simple en los
días de Darwin –cuando se trataba en el sentido lamarquiano, el sentido vulgar
de la transmisión por herencia de caracteres adquiridos, una interpretación muy
atractiva por su aparente simplicidad–, solo ha recibido verdadera explicación
hoy mediante las complejas fórmulas del Mendelismo y el Morganismo. Muchos
fenómenos físicos importantes han sido descubiertos en primer lugar por
biólogos, así como muchas leyes relativas al efecto que esos fenómenos podían
causar sobre los organismos vivos fueron establecidas antes de que se conociera
su naturaleza física (rayos X, fenómenos de electricidad animal, &c.). Las leyes
fundamentales del desarrollo de la sociedad humana que hicieron posible en
nuestro tiempo para la población de una sexta parte del globo superar
exitosamente las dificultades de lo que podría considerarse una lucha desigual,
fueron descubiertas por Marx y Engels 20 años antes de que Darwin formulara las
leyes fundamentales de la evolución orgánica.
Todo esto muestra que la verdadera tarea de la investigación científica no es la
de la identificación forzada de lo físico y lo biológico, sino la habilidad para
descubrir los principios de control cualitativamente específicos que
caracterizan los rasgos principales de todo fenómeno dado, y encontrar los
métodos de investigación apropiados al fenómeno estudiado. Esto es así porque si
dentro del contexto de las mismas ciencias físicas enseñamos a comprender que el
agua no representa una simple mezcla mecánica de oxígeno e hidrógeno, sino que
constituye una nueva cualidad en las propiedades físicas y químicas
del agua, comprenderemos que todos los demás fenómenos de la vida también
representan un sistema complejo, cuyo estudio requiere métodos especiales de
investigación biofísica y biohistórica. En cierto modo, estas leyes, como por
ejemplo la ley de la selección natural, o las leyes fisiológicas que operan
dentro de un organismo, no son más o menos simples o complejas que las leyes
físicas [74] que rigen el movimiento del sistema planetario, o el movimiento de
los electrones alrededor del núcleo atómico.
La consideración fundamental que debe tenerse en cuenta en este problema es la
imposibilidad de una identificación cruda y simple de estas dos categorías de
377
fenómenos, y la imposibilidad de reducir las leyes biológicas a lo físico, tal
como el intento de los vitalistas de comprender los fenómenos del mundo desde el
punto de vista de la animación universal de la materia.
Afirmando que la realidad del mundo existe objetivamente fuera de nosotros, el
materialismo dialéctico parte de la convicción, justificada por toda la práctica
de la actividad humana, de que nuestra conciencia refleja no sólo la realidad
objetiva de los hechos directamente percibidos por nuestros órganos de los
sentidos, sino también el orden constante de las relaciones que conectan estos
hechos entre sí; el hecho y sus relaciones ordenadas con los otros hechos
circundantes son considerados por la dialéctica en su absoluta unidad y
totalidad. Esto nos exige aceptar no sólo los hechos de semejanza y unidad de
estructura de los organismos, sino también que la única explicación racional y
posible de estos hechos radica en el reconocimiento de la unidad de su origen y
en la ley histórica de desarrollo, que interconecta todos los fenómenos en la
naturaleza con los demás. Por lo tanto, para nosotros la evolución es un hecho
tan incuestionable como el de la existencia separada del mono y del hombre que
percibimos de manera directa.
Estableciendo el hecho del desarrollo, la variación, y el movimiento como las
cualidades básicas de la materia, y la unidad de las leyes fundamentales de la
dialéctica, que atañen a todas las formas de movimiento de la materia (la ley de
la unidad de los opuestos, la ley de la negación de la negación, y la ley de la
transformación de la cantidad en cualidad y viceversa), el materialismo
dialéctico enfatiza al mismo tiempo con toda su fuerza la extrema multiformidad
y las distinciones cualitativas específicas de las diversas formas de movimiento
de la materia, y las leyes características de las diferentes etapas del
desarrollo de la materia; y consecuentemente la necesidad de la existencia de
ciencias independientes especiales que estudian estas diferentes formas de
movimiento.
En este sentido, la concepción dialéctica del desarrollo universal –probada por
Hegel y reinterpretada de modo materialista por Marx, Engels y Lenin– cubre la
teoría darviniana de la evolución orgánica, que es la expresión concreta del
proceso dialéctico aplicado a la forma biológica de movimiento de la materia, y
al mismo tiempo hace posible superar un número de errores metodológicos y
contradicciones sobre estas cuestiones acumulado dentro de los límites de la
ciencia natural burguesa.
378
presentan dentro de sus propios límites como procesos biológicos, leyes diversas
y cualitativamente distintas. Por esta razón, las leyes biológicas no pierden en
absoluto su carácter material y su cognoscibilidad, requiriendo sólo en cada
caso métodos de investigación apropiados a los fenómenos estudiados.
La consecuencia necesaria de lo anterior es una conclusión en lo que se refiere
al desarrollo dialéctico de la materia por saltos, relacionada con los cambios
revolucionarios cualitativos como un resultado de la acumulación de cambios
cuantitativos, y la i= dea de la relativa autonomía del proceso biológico, que
tiene lugar no sólo en circunstancias de interacción con las condiciones físicas
de su entorno, sino también como resultado del desarrollo de las contradicciones
internas latentes en el sistema biológico mismo. Por estos medios son superados
los intentos mecanicistas excesivamente simplificados de concebir el proceso
biológico de desarrollo como resultado solamente de influencias físicas del
medio entorno, o de semejantes procesos físicos y fisicoquímicos dentro del
organismo mismo, o de sus genes, por los cuales, se dice, es posible explicar
los fenómenos más complejos y peculiares de mutaciones, y por lo tanto, todo el
proceso de formación de las especies. Al mismo tiempo, este punto de vista
también supera la oposición metafísica de lo biológico y lo físico, como un
principio absolutamente autónomo e independiente, hasta el punto de que lo
biológico es considerado en su indisoluble conexión histórica con los fenómenos
físicos (como una forma más alta de movimiento, que surge de las formas
inorgánicas inferiores de movimiento de la materia), y también en su conexión
dinámica (metabolismo).
Al mismo tiempo, la metodología dialéctica no elimina de ningún modo el papel de
lo externo y lo físico en el proceso de la evolución orgánica, requiriendo sólo
una nítida definición de estas concepciones en cada caso, y el reconocimiento de
la multiformidad de todas las formas de conexión que existen entre los
organismos y su medio externo, entre lo «biológico» y lo «físico». Así lo físico
constituye lacondición necesaria en el contexto de la cual tiene lugar el
proceso biológico, pero al mismo tiempo aquel entra como un aspecto necesario en
el proceso biológico como tal. Además, lo «físico» puede ser el estímulo directo
de mutaciones en el plasma germinal, siendo así simultáneamente tanto externo
como interno en relación con lo «biológico». Finalmente, puede servir como el
factor de control que, en el proceso de la selección natural, determina el
verdadero curso del proceso de evolución, y por lo tanto, actúa como el creador
de formas biológicas. En este sentido, lo «externo» se compone no sólo de las
condiciones físicas del medio externo, sino también del entorno [76] biológico
que componen los otros organismos y también –en el caso de la evolución del
379
hombre– las relaciones socioeconómicas que prevalecen dentro de la sociedad
humana.
Sólo en virtud de estas nuevas relaciones reguladas por la ley darviniana de la
lucha por la vida y de la selección natural, pueden adquirir las variaciones
individuales heredadas la fuerza de un factor en la formación de las especies, y
pueden recibir explicación materialista racional los fenómenos más complejos de
la adaptación biológica (tales como la coloración protectora, el mimetismo,
atención para la progenie, y otros instintos, parasitismo, simbiosis, &c.)
Al mismo tiempo, finalmente aquí se colapsan los intentos igualmente estériles
de abarcar toda la complejidad y multiformidad del mundo a través de una fórmula
matemática simple del movimiento mecánico de las moléculas, o a través de la
idea vitalista de un único «principio de perfección», que representa, en efecto,
un intento por conocer y explicar el mundo a través de lo inexplicable y lo
incognoscible.
380
histórico y que conceden a los factores biológicos una importancia remotamente
subordinada. [77]
Es absolutamente normal que la clase burguesa industrial, progresiva en su día,
muestre en las posiciones de radicalismo materialista formuladas conscientemente
un soporte teórico para su lucha contra la influencia de la Iglesia y de la
ideología religiosa idealista que sirvió como fundamento a las fuerzas
conservadoras del feudalismo. Esta es la razón por la que el núcleo materialista
de la teoría darviniana fue inicialmente recibido con aprobación por los
ideólogos de la burguesía, como una prueba científica y una justificación de los
principios de la libre competencia capitalista. Tan normal como que a medida que
aumentan las contradicciones económicas observamos en la literatura científica
actual del Occidente burgués intentos cada vez más frecuentes de revisar el
darvinismo, y regresar a concepciones claramente idealistas y místicas –llegando
inclusive a la abierta persecución de la evolución («el juicio del mono» en
América{14}), y la búsqueda en el entorno de la Iglesia y de la Biblia para dar
respuesta a los problemas del universo y para la recuperación de la fe decadente
en la estabilidad del sistema capitalista.
Todos estos hechos prueban la determinación sociohistórica y de clase de las
teorías científicas.
381
Al reflejar el estado de las fuerzas materiales de producción y las relaciones
socioeconómicas de la épo= ca histórica particular, las teorías científicas no
sólo expresan el estado actual y el nivel de conocimiento alcanzado por la
ciencia, sino también la justificación ideológica de los intereses económicos de
grupos enfrentados y de clases. Al mismo tiempo representan una guía [78] para
la acción en manos de los grupos sociales que comparten la teoría referida. Esta
es la razón por la que el proletariado, en lucha por la reconstrucción social de
todo el mundo y extendiendo los fundamentos de una nueva sociedad y cultura, se
enfrenta con la tarea de revisar críticamente la totalidad de la herencia de la
ciencia burguesa recibida por nosotros, y de superar las estructuras teóricas
que, no siguiéndose de la verdadera correlación de las cosas, manifiestan al
mismo tiempo el carácter de clase y el significado de las formaciones sociales
que crearon esta ciencia en el pasado. Esto es necesario no sólo por el interés
común del conocimiento de la verdad de nuestro mundo circundante, sino también
por los intereses inmediatos de la lucha de la clase trabajadora por su
emancipación del yugo económico y de la influencia ideológica de las clases
hostiles en los países capitalistas, y por los problemas prácticos de la
construcción Socialista en todas las esferas de la economía nacional en la URSS,
organizada por el proletariado sobre los fundamentos del estudio científico de
las leyes del desarrollo de la naturaleza y de la sociedad humana. En esto
radica la causa del profundo interés en, y de la atención a, la teoría
científica, a la investigación científica teórica, y a la historia de las
ciencias, que ostenta la Unión Soviética.
La definición correcta de las relaciones de las ciencias biológicas y físicas, y
en particular la relación de lo «físico» y lo «biológico» en el proceso
biológico –por una parte en el desarrollo individual, y por otra en la formación
de las especies y la producción de nuevas razas de animales domésticos y de
plantas cultivadas– nace de su gran importancia para la solución planificada de
los problemas de la agricultura Socialista a gran escala y de la crianza de
ganado. Esto requiere la superación tanto de la concepción mecanicista como de
la lamarquiana, ampliamente arraigada en la práctica de la mayoría de los
criadores de ganado, que buscan la solución de todo el problema en la influencia
física artificial sobre el organismo: y del entusiasmo autogenético de los
genetistas, que piensan que las tareas del Plan Quinquenal Socialista se
alcanzan por la aplicación de los métodos de la moderna genética y selección,
ignorando el papel y la importancia del resto del sistema de medidas sociales
del hombre basadas en la influencia del contexto físico externo sobre el
desarrollo del fenotipo y la posible emergencia de nuevas variaciones
hereditarias.
382
Finalmente, estas conclusiones teóricas son de no menos importancia en la
resolución de los problemas prácticos que surgen a partir de la reorganización
de todo el sistema de pedagogía y de la reconstrucción científica de la cultura
física, la sanidad y la higiene del cuerpo, cuya adecuada solución requiere
también en cada ocasión una teoría testada por los hechos y pensada
metodológicamente, y contando inter alia también con una [79] definición
correcta de las relaciones de las ciencias físicas, biológicas y socio
históricas.
Afirmando la unidad del universo y la multiformidad cualitativa de su expresión
en diferentes formas de movimiento de la materia, es necesario renunciar tanto a
la identificación simplificada y a la reducción de unas ciencias en otras, como
tratan de hacer los defensores de las corrientes positivistas y mecanicistas en
la esfera de la ciencia natural, como a la demarcación tajante que traza líneas
divisorias entre las ciencias físicas, biológicas y sociohistóricas –que
frecuentemente toma la forma de admitir la existencia de determinaciones
causales de los fenómenos sólo en el ámbito de la ciencia física, mientras se
propone buscar en la ciencia biológica soluciones teleológicas, y renunciar
completamente en la esfera de los fenómenos sociohistóricos a la investigación
de cualquier orden y explicación del curso del proceso histórico en
absoluto{15}.
Partiendo de la base de que la realidad concreta de los fenómenos que nosotros
estudiamos radica en la unidad e interacción compleja con la totalidad de los
fenómenos envolventes, cada parte de la investigación exhaustiva y valiosa
requiere la consideración y penetración de todas las ramas contiguas de la
ciencia y los métodos particulares de investigación que ellas suponen, y al
mismo tiempo la subordinación de todas las ciencias a la única gnoseología y
metodología del materialismo dialéctico.
Los numerosos intentos de revisar las concepciones del materialismo mecanicista
–insatisfactorio para el naturalista actual, pero la única concepción con la que
está familiarizado– sin caer en los brazos del vitalismo, están condenados de
antemano al fracaso mientras el naturalista permanezca dentro de los límites de
una metodología basada en la lógica formal y en la búsqueda metafísica por la
esencia de las cosas, como absolutos aislados, sin consideración a su conexión e
interacción con los fenómenos del entorno, y sin tener en cuenta aquellas
variaciones, tales como el movimiento, que caracterizan el desarrollo dialéctico
del mundo en su totalidad.
383
desarrollo normal, y que el nivel general del conocimiento alcanzado está maduro
para la aplicación consciente del método dialéctico.
Esta situación es aún más lamentable en la medida en que el naturalista actual,
cuando estudia los problemas de la filosofía y de la historia de la ciencia
natural, ignora que estos problemas, tanto el de la superación de las corrientes
de pensamiento idealistas y vitalistas más reaccionarias, como el de las
posiciones mecanicistas demasiado simplificadas del materialismo vulgar, no sólo
se formularon sino que también se resolvieron en sus principios básicos y
característicos hace más de setenta años, en las obras clásicas de los
fundadores de la filosofía del materialismo dialéctico, Marx y Engels y, en
nuestra propia época, en las profundas obras de Lenin.
Notas
{4} Karl Wilhelm von Nägeli, (27 de marzo de 181710 de mayo de 1891). Botánico
suizo conocido por su trabajo sobre las células de las plantas.
{5} Leo S. Berg (18761950), ictiólogo y zoogeógrafo ruso. En 1922 publicó su
obra,Nomogenez ili na osnove zakonomernostei, traducida posteriormente al
inglés.
{7} Ludwig Plate (18621937)
{8} Hermann Joseph Muller, (18901967), genetista y Premio Nobel en 1946. Sobre
la referencia, se trata del artículo, «The method of evolution». Leída en la
384
Universidad de Tejas, en mayo de 1928. Publicado en Science Monthly, 19:481505,
1929. Reimpreso y revisado en Heritable variations, their production by xrays
and their relation to evolution, Annual Report, Smithsonian Institution for
1929,345362, 1930. Véase sobre Muller.
{9} Se refiere a los rayos X, descubiertos por Wilhelm Conrad Röntgen (1845
1923).
{10} Genetista danés (18571927), acuñó el término gen, genotipo y fenotipo, en
su obra Los elementos de la herencia publicada en 1905 y reeditada en 1909.
Véasewww.wjc.ku.dk
{11} William Bateson (18611926)
{12} Yuri Aleksandrovich Filipchenko, (18821930). Genetista soviético, amigo y
mentor de Dobzhansky.
{14} Se refiere al famoso juicio del mono «trial Monkey» que fue posteriormente
convertido en una interesante película por Stanley Kramer en La herencia del
viento, 1962.
385
386
Materialismo dialéctico y ciencia
Teoría del caos, Relatividad y Mecánica Cuántica?
David Rodrigo García Colin Carrillo
Introducción
A. Materialismo dialéctico: el método del marxismo.
B. El contexto del surgimiento del método marxista.
C. Engels y el método del marxismo.
¿Qué hay detrás del intento de separación entre el método del marxismo y
el marxismo?
I. Movimiento, materia y teoría del conocimiento
A. Movimiento único absoluto en la naturaleza.
B. Consideraciones sobre el concepto de materia y teoría del conocimiento.
II. La teoría de la relatividad y el materialismo dialéctico
Introducción.
A. Teoría especial de la relatividad (unidad dialéctica materia y energía).
B. Teoría general de la relatividad (unidad dialéctica materia, espacio y
tiempo).
C. Teoría de la relatividad. ¿Materialismo o idealismo?
III. Teoría del caos y materialismo dialéctico
Introducción.
A. Teoría del caos: susceptibilidad a las condiciones iniciales. Necesidad y
accidente.
B. El caos que nace del orden: Atractores extraños.
387
C. El orden del caos: Fractalidad (atractores extraños).
D. El orden que nace del caos: Ventanas de orden.
E. La creatividad del caos: La objetividad progresiva del tiempo.
IV. Mecánica cuántica y dialéctica
Introducción.
A. MECÁNICA CUÁNTICA ESTÁNDAR
1. Los saltos cuánticos o saltos dialécticos en la mecánica cuántica.
2. El campo magnético y el espectro electromagnético: unidad y lucha de
contrarios y negación de la negación.
3. Dualidad onda partícula o unidad de contrarios.
4. El ‘Principio de incertidumbre’.
B. FÍSICA CUÁNTICA RELATIVISTA
1. Unidad y lucha de contrarios, negación de la negación y saltos
cualitativos.
2. Materia y antimateria, unidad de contrarios.
3. Las partículas elementales y el desarrollo del universo: unidad
dialéctica de lo finito y lo infinito.
Conclusiones
A. Los saltos cualitativos.
B. Unidad y lucha de contrarios.
C. Negación de la negación.
388
INTRODUCCIÓN
El mundo, unidad de todo, no ha sido creado por ningún Dios, ni por ningún
hombre, sino que ha sido, es y será un fuego eternamente vivo que se enciende y
se apaga según leyes
Heráclito, 530470 a.C.
El materialismo dialéctico es el fondo del marxismo porque es el método del
marxismo. No es posible separar mecánicamente las tres partes integrantes del
marxismo aceptando unas y rechazando otras como quien elige salchichas o tocino
en un bufet. Si rechazamos el método del marxismo, convertimos a este en un
formalismo vacío, rígido y sin vida. Sólo podemos entender cabalmente El
Capital, por ejemplo, si comprendemos que, en virtud de sus leyes internas y
contradicciones, este sistema socioeconómico no es eterno, que nació de un
rompimiento de la continuidad (una revolución), y que está condenado a perecer,
o de lo contrario las bases de la civilización estarán en peligro, por ser un
freno para el avance del hombre y la ciencia (fuerzas productivas) que se han
desarrollado en su seno. La economía política marxista es la aplicación del
materialismo dialéctico en el terreno de la sociedad capitalista. A diferencia
de Hegel, Marx no impone el método a la realidad, sino que abstrae este método,
por medio de la investigación, del desarrollo histórico real, muestra que este
método es un reflejo ideal de la forma en que se desarrolla el capital y lo
vuelve a aplicar a la realidad histórica como una herramienta de análisis
superior. "Mi método" —nos dice Marx— "no sólo difiere en su base del hegeliano,
sino que además es todo lo contrario de este. Para Hegel, el movimiento del
pensamiento, que él encarna con el nombre de idea, es el demiurgo de la
realidad, que no es más que la forma fenoménica de la idea. Para mí, en cambio,
el movimiento del pensamiento es la reflexión del movimiento real, transportado
y traspuesto en el cerebro del hombre (...) Hegel desfigura a la dialéctica por
medio del misticismo, es, sin embargo, el primero que expone su movimiento de
conjunto. En él se encuentra cabeza abajo; basta con ponerla sobre sus pies para
encontrarle su fisonomía en todo sentido racional"1.
389
Pero la dialéctica no es sólo un método para el estudio de la economía
capitalista es, sobre todo, una concepción del mundo. Esta concepción del mundo
es radicalmente diferente de las concepciones anteriores —aunque no tiene una
posición nihilista de sus predecesoras, sino que es una negación dialéctica de
ellas— porque no se separa metafísicamente de la realidad y de las ciencias
específicas que estudian aspectos diversos de esa realidad, sino que constituye
la generalización más amplia de sus resultados. Es la generalización que concibe
a todos los aspectos de la realidad material y social —y sus reflejos ideales
históricos— en constante movimiento, concebidas en su vida y no en su muerte, a
través de sus contradicciones y de su conservación en el cambio. Al mismo
tiempo, este método no pretende sustituir a las ciencias concretas, ni le dice
al científico lo que debe hacer o decir (no pretende ser el policía de la
ciencia); cada ciencia tiene sus métodos y leyes particulares determinadas por
su campo de estudio, sólo dota al científico de un método más general que le
permite concebir los hechos en su interconexión y sus recíprocas
determinaciones. Al afirmar que se puede obtener un método a partir del
desarrollo mismo de las ciencias y aplicarlo a ellas mismas, el marxismo es la
negación del empirismo vulgar2, la escuela escolástica que se autodenomina
filosofía de la ciencia y que en realidad es la negación del pensamiento
abstracto y de la generalización teórica, condición de la ciencia y de la
filosofía. Por supuesto el simple hecho de repetir como muñeco de ventrílocuo
las ideas generales de la dialéctica (como la idea de la unidad y lucha de
contrarios, etc.) a la manera de los manuales estalinistas no sirve para nada,
es necesario estudiar la complejidad concreta de los fenómenos y explicar cómo
el movimiento y las contradicciones se manifiestan en un fenómeno determinado,
tal como lo hizo Marx en su estudio del capitalismo. Por ello la unidad con las
ciencias positivas y su generalización teórica es una condición elemental del
materialismo dialéctico.
Kant ya había afirmado que para el conocimiento científico no basta la
percepción empírica, sino que ésta requiere de conceptos. Para Marx, estos
conceptos no son productos de la razón pura sino productos de la historia; para
liberarnos de la esclavitud de lo concreto, se requiere generalizar lo concreto
con un criterio científico. Como decía el viejo Engels: "Los naturalistas" —el
lector puede cambiar el término por positivista— "creen que se libran de la
filosofía al hacer caso omiso de ella o injuriarla. Pero no pueden avanzar sin
pensar, y para pensar necesitan determinaciones del pensamiento. Pero toman esas
categorías, sin reflexionar, de la conciencia común de las así llamadas personas
educadas, que se encuentra dominada por reliquias de filosofías hace tiempo
caducas, o por la escasa porción de filosofía escuchada por obligación en la
universidad (que no es sólo fragmentaria, sino además una mezcolanza de
390
concepciones de personas pertenecientes a las más variadas escuelas, y por lo
general las peores), o de lecturas acríticas y asistemáticas de escritos
filosóficos de toda clase. Por lo tanto, no se encuentran menos cautivos de la
filosofía, sino por desgracia, además, en la mayoría de los casos, de la peor
filosofía, y quienes más insultan a la filosofía son esclavos, precisamente, de
las peores reliquias vulgarizadas de las peores filosofías"3. "...Entonces, el
desprecio empírico por la dialéctica recibe su castigo cuando algunos empiristas
más formales se ven llevados a la más estéril de todas las supersticiones, al
espiritualismo moderno"4.
Cuando tratamos de estudiar un fenómeno, no lo estudiamos por primera vez; en
virtud de la influencia social, somos herederos de las ideas, métodos y
conocimientos de nuestros antecesores, con los cuales enfocamos el fenómeno en
cuestión, métodos que, en muchos casos, han sido rebasados por los resultados
mismos de la ciencia. De lo que se trata es de ser concientes de si esos métodos
contienen ideas que en lugar de ser una palanca del conocimiento constituyen un
freno, de saber si esas ideas se imponen a la realidad o nos ayudan a
profundizar en ella. A diferencia de lo que creen los irracionalistas, sí existe
un criterio para saber si las ideas son correctas o incorrectas. Ese criterio es
la práctica social, en la que el hombre interviene activamente, transformando la
naturaleza y a sí mismo y contrastando sus ideas con su actividad práctica (todo
criterio separado de la práctica es escolástico); en el materialismo dialéctico
se trata de enriquecer nuestros métodos teóricos con el manantial de la
experiencia histórica ampliada progresivamente por el desarrollo de las fuerzas
productivas, teniendo la certeza de que, con los medios de que disponemos,
nuestro método nos permite avanzar de la mejor manera en el proceso infinito de
aproximaciones sucesivas del conocimiento humano. El método debe concebir a la
realidad tal cual es: una realidad cuyo único absoluto es el movimiento complejo
a través de contradicciones; esa es la esencia de la dialéctica materialista.
b) El contexto del surgimiento del método marxista
El marxismo como todas las expresiones ideológicas es, en última instancia,
producto del desarrollo de las fuerzas productivas y expresión de la lucha de
clases. En la época del nacimiento del marxismo, la visión mecanicista de la
naturaleza empezaba a ser superada por el desarrollo de la ciencia, que mostraba
ya su relación recíproca rebasando el método puramente analítico, que concibe
los procesos de manera aislada como mariposas pegadas en la pared de un
coleccionista. Parecía que se regresaba a la visión dialéctica de la filosofía
griega, sólo que a un nivel cualitativamente superior en virtud de la cantidad
de datos concretos verificados científicamente (la teoría del caos y la reacción
cada vez mayor de la comunidad científica en contra de
391
lasectarización y reductivismo del conocimiento es, como veremos en su momento,
un reconocimiento tardío de este planteamiento).
Como Engels menciona en varios de sus escritos (AntiDühring, El fin de la
filosofía clásica alemana, y Dialéctica de la naturaleza). A principios del
siglo XIX, en el terreno de la geología, Lyell rompió con la visión estática de
la superficie terrestre, abriendo, al mismo tiempo, las premisas de la
adaptación y evolución de las especies. En Física, Joule determina el
equivalente del calor en fuerza mecánica, mostrando la vinculación de las
fuerzas físicas, su transformación mutua; su mediación universal como
diría Hegel. Ahora las fuerzas físicas ya no estaban separadas por una muralla
china, sino que en determinadas circunstancias, la fuerza mecánica se transforma
en calor, el calor en luz, la luz en electricidad, la electricidad en
magnetismo, etc. En Biología el descubrimiento de la "unidad básica de los
organismos": la célula, significó el rompimiento de las especies supuestamente
fijas creadas por separado y sin más relación que la armonía preestablecida.
Darwin propuso una valiente teoría que rompía con la historia del Génesis y
situaba a las especies en un proceso de transformación en relación dialéctica
con el ambiente. Por otro lado en el terreno social en 1831, ocurrió en Lyón la
primera sublevación obrera, Europa entera se encontraba al borde de una proceso
revolucionario que estalló en 1848; el desarrollo de la industria había puesto
de relieve la relación del avance tecnológico con las transformación de las
relaciones sociales y todas las contradicciones estudiadas porMarx en El
Capital.
Es dentro de este marco histórico como el marxismo se nos aparece: no como el
producto fortuito de un genio, aunque por supuesto esta teoría solo podía
surgir, en la forma magistral en que se nos legó, de la mente de un genio —ese
recurso tan recurrido por los románticos ante su incapacidad de explicar el
proceso histórico— , no como una teoría que bien podía haber aparecido en
tiempos de Nabucodonosor, si en esos tiempos los hombres hubieran sido tan
inteligentes, sino como una teoría hija de su tiempo: que es revolucionaria por
su propia esencia, que no solamente trata de comprender al mundo por una
necesidad puramente teórica o escolástica, sino fundamentalmente comprenderlo
para transformarlo.
"La naturaleza es la piedra de toque de la dialéctica" decía Engels. Es
intención de este texto mostrar cómo los últimos descubrimientos y teorías
científicas demuestran el hecho de que la naturaleza se desarrolla en última
instancia de manera dialéctica —confirmando la afirmación de Engels—, y la
importancia para la ciencia y el mundo contemporáneo de esta forma de enfocar
los procesos. Las nuevas ideas como la teoría del caos parecen señalar que
392
estamos al borde de una verdadera revolución científica. Como diría Tomas Khunn,
parece que el período de ciencia normal está al borde de una nueva era que
abrirá nuevos paradigmas y someterá a los antiguos, sobre todo al viejo método
metafísico de pensar (el cacareado positivismo), a una negación dialéctica. La
teoría de Einstein de la relatividad, la física cuántica, la nueva versión de la
teoría de la evolución de Darwin, desarrollada por el recientemente
desaparecido Jay Gould, conocida como equilibrio puntuado, la teoría del caos y
la complejidad desarrollada por BenoitMandelbrot, Lorenz, y otros; los recientes
descubrimientos sobre el genoma humano, entre muchos otros, son muy llamativos
por su similitud con la filosofía dialéctica. También llama la atención el que,
a excepción de Jay Gould, quien reconoció abiertamente la similitud de su teoría
con el materialismo dialéctico, todos estos descubrimientos y teorías, que
apoyan conclusiones dialécticas, se hayan desarrollado al margen de la filosofía
dialéctica. Lo cual, en nuestra opinión, es una muestra de que la concepción
dialéctica es algo más que una mera especulación y de que la dialéctica objetiva
(la dialéctica de la naturaleza y la sociedad) es la mejor prueba de su
expresión teórica desarrollada (dialéctica subjetiva), sistematizada por primera
vez por Hegel y aplicada científicamente por Marx.
c) Engels y el método del marxismo.
¿Qué hay detrás del intento de separación entre el método del marxismo y el
marxismo?
Por último, es importante señalar que el que nos basemos en las obras
de Engels para un trabajo sobre marxismo y ciencia no requiere mayor
justificación. Las afirmaciones de algunos académicos en el sentido de que el
"materialismo dialéctico" es obra de Engels y no de Marx y que, por lo tanto, el
Materialismo dialéctico no es una parte integrante del marxismo, no tienen ni
pies ni cabeza y no resisten una crítica seria5. Marx tuvo la intención de
escribir una obra especial sobre el tema pero sus actividades como
revolucionario y el trabajo agotador de su obra cumbre lo impidieron6; fue
a Engels, sobre todo en su obra inconclusa Dialéctica de la naturaleza, a quien
correspondió esta tarea que no pudo, lamentablemente, concluir. Entre estos dos
grandes revolucionarios hubo una especie de "división del trabajo" dentro de una
labor conjunta, a saber, la preparación teórica de un método de análisis para
transformar el mundo. Muchas de las obras clásicas del marxismo fueron
elaboradas en conjunto por Marx yEngels; es el caso de obras tan tempranas como
La sagrada familia y La ideología alemana. Uno de los textos más trascendentales
de la historia El Manifiesto Comunista se basó en un borrador de Engels; incluso
393
los tres tomos de El Capital, la obra cumbre del marxismo, pueden ser
considerados como obra conjunta. Es sabido que Marx consultaba a Engels en todos
los problemas teóricos, que sometió a su crítica todos los capítulos del primer
tomo y que los dos tomos siguientes no son sólo la recopilación de los
borradores de Marx, sino la reconstrucción, en base a los borradores, de esta
parte imprescindible de El Capital hecha por Engels. Pero no sólo eso, las bases
del materialismo dialéctico y su aplicación se encuentran en toda la obra
de Marx, en sus trabajos filosóficos, históricos y económicos se encuentra su
visión del mundo. Si Marx no escribió una Lógica con mayúsculas sí escribió El
Capital. Todas las categorías de la dialéctica se encuentran en esta obra; de
hecho la obra es imposible de concebir sin método dialéctico. Una de las obras
principales de Engels en que se expone el materialismo dialéctico en relación
con la ciencia (AntiDühring) no sólo la conoció Marxsino, que además escribió
uno de sus capítulos; El fin de la filosofía clásica alemana no es más que la
esencia resumida del AntiDühring. Marx, como sabemos por su correspondencia,
conoció y aprobó el plan de la obra Dialéctica de la naturaleza7; por lo tanto
la pregunta correcta no es "en dóndeMarx expone su método dialéctico", sino "en
dónde Marx no expone su método dialéctico".
Quizá algunos preferirían una obra en que se les proporcionara como papilla una
teoría dialéctica acabada y lista para sacarse del bolsillo en los momentos
adecuados, al estilo de los manuales estalinistas; pero Marx partía de la
premisa de que escribió para seres que además de leer, saben pensar y que su
método era para analizar el mundo, no un recetario de verdades eternas. El
marxismo pasó a la historia bajo el nombre de Marxporque el mismo Engels, en el
marco de la vida y obra maravillosa de estos dos grandes amigos y en su lucha
por crear una organización internacional de los trabajadores —base de su
profunda amistad y trabajo conjunto— rebajó conscientemente su papel y afirmó
que en la teoría marxista a él le correspondió "tocar el segundo violín".
Si Marx conoció y participó en una obra en donde se expone claramente la visión
dialéctica del mundo, AntiDühring, sin hacer mayor aclaración o comentario,
sólo significa que no había diferencias en este punto entre Engels y Marx.
Tanto Marx como Engels siempre fueron inflexibles en las cuestiones de
principio; toda su obra es una constante, concienzuda e implacable polémica con
ideas que consideraban reaccionarias (en el terreno filosófico, económico,
político y social); sólo basta conocer aunque sea superficialmente la vida y la
obra de Marx para estar seguro que, de haber habido cualquier diferencia en este
punto, se habría dado una dura polémica. Para estos dos revolucionarios, las
cuestiones políticas y de principio estaban por encima de cualquier
394
consideración individual, inclusive su amistad (al mismo tiempo, esta postura es
la base de su amistad).
Es claro que cada cual es libre de aceptar o rechazar el método de Marx. La
inmensa mayoría de las obras de los clásicos del marxismo
(Marx,Engels, Lenin, Trotsky y Rosa Luxemburgo) son obras polémicas que están a
años luz del dogmatismo estalinista (dogmatismo que es correctamente condenable,
pero que es incorrectamente identificado con el marxismo); para el marxismo la
crítica de la teoría y su corrección, su no dogmatismo —por un lado frente al
desarrollo de las ciencias y por otro frente al movimiento social— tiene un
interés no sólo académico, sino práctico. Pero estamos convencidos de que una
crítica seria de dicho método, no puede tener como premisas la tergiversación y
la ignorancia. No somos tan ingenuos como para no percatarnos de que el intento
de separar la dialéctica de la obra de Marx, no es un hecho fortuito ni de
interés puramente académico o escolástico, es sólo el frente ideológico de la
campaña sin precedentes, basada en tergiversaciones, contra el marxismo después
de la caída del estalinismo; caída que, por cierto, fue prevista y explicada
desde la óptica marxista, con más de cincuenta años de adelanto, por
León Trotsky. El trasfondo de este intento es hacerle creer a las clases
oprimidas que el sistema capitalista es eterno y que no vale la pena luchar por
derribarlo. Más que la ignorancia (que juega un papel importante), es el intento
consciente, según la inigualable frase de Trotsky, "de cortarle las barbas
a Marx", es decir, en convertir la teoría de Marx y Engels en algo inofensivo,
muerto, sin vida; en suprimir la esencia revolucionaria de Marx al suprimir el
movimiento y el cambio revolucionario que son su conclusión teórica y práctica;
se trata, en fin, de hacer de Marx un "Marx analítico", es decir, un vulgar
positivista sin conexión con las masas y con la práctica revolucionaria8.
Es evidente que todos aquellos que basan sus privilegios en la renta, el interés
y el beneficio, no pueden reconciliarse con una teoría que explica que el
sistema social del que obtienen sus privilegios debe ser reemplazado por el
control democrático de las fuerzas productivas por los trabajadores, si es que
la humanidad no se ha de hundir en la barbarie. Son conscientes, y en ello
tienen razón, de que el marxismo es un arma revolucionaria que, en un período de
inestabilidad, de revoluciones y contrarrevoluciones como el actual, puede
volver a ejercer una influencia de masas; no es sorprendente, pues, que le teman
como a la peste y lo traten de sepultar bajo una "montaña de perros muertos"
arrojados por sus acribas y sus políticos. Estamos convencidos de que la marea
de la lucha de clases vuelve a soplar a favor de la teoría marxista —viento
fresco que ya empieza a derribar la mitad de la "montaña"— como lo atestiguan
los procesos abiertamente revolucionarios en América Latina y huelgas generales,
395
sin precedentes desde los últimos veinte años, en Europa, incluso en países que
eran supuestos modelos de estabilidad capitalista (Bélgica, Grecia, Italia,
Francia, España, ...). Procesos que son indicadores de que los trabajadores
intentarán una y otra vez "tomar el cielo por asalto"; la reciente reedición por
editoriales comerciales de literatura marxista es un ejemplo menor; y
finalmente, pero no menos importante, el hecho de que el margen de maniobra de
todos los matices de reformismo de izquierda y de derecha, esté cada vez más
reducido —por no hablar del keynesianismo, que como receta para combatir la
crisis es ya, en general, un cartucho quemado—.
I. MOVIMIENTO, MATERIA Y TEORÍA DEL CONOCIMIENTO
a) Movimiento único absoluto en la naturaleza
Todo fluye, nada permanece.
Heráclito
La actividad es una propiedad esencial de la materia, pues ésta es el sujeto de
todas las modificaciones, llamadas movimientos espaciales, cambios, diferencias
y diversidades, y lo es principalmente puesto que el reposo absoluto, con el que
se construía el concepto de inactividad o inercia de la materia, ha sido
destruido totalmente y desenmascarado como una vacua invención.
Juan Toland, 16701722
"El movimiento en su sentido más general, concebido como modo de existencia,
atributo inherente a la materia, abarca todos los cambios y procesos que se
producen en el universo, desde el simple cambio de lugar hasta el pensamiento"9.
Este es el punto de partida del materialismo dialéctico, el movimiento como
único absoluto. Según los datos de la ciencia, la característica fundamental de
la materia es el movimiento. Desde las partículas más pequeñas conocidas, los
neutrinos, hasta las más grandes estructuras conocidas por el hombre, los
supercúmulos de galaxias, se encuentran en un proceso de transformación
constante. En el interior del núcleo atómico, según la llamada fuerza de
intercambio de la física cuántica, los protones se convierten en neutrones y los
neutrones en protones viajando a una velocidad de 1.500 metros por segundo;
alrededor del núcleo, los electrones no sólo describen un movimiento orbital
sino que además giran sobre su propio eje (espín del electrón), movimiento que
sólo se puede detener destruyendo el electrón.
396
Las moléculas se encuentran en un equilibrio dinámico que aumenta o disminuye
con el calor, en este caso, incluso en el cero absoluto de la escala Kelvin (
273° C), en donde se supone que la energía de las moléculas se reduce a cero,
todavía queda algo de energía que no puede desaparecer10.La Tierra, que en
tiempos medievales se creía el centro del universo y un ente inmutable, gira
sobre su eje en 24 horas; el sol lo hace en 26 días y alrededor de la galaxia en
230 millones de años. Se supone que las galaxia y los cúmulos de galaxias tienen
un movimiento similar.
Las estrellas nacen para consumir el hidrógeno, romper su equilibrio pulsante y
explotar liberando la energía en forma de supernovas o colapsar en agujeros
negros creando, como decía Carl Sagan, "polvo de estrellas": material para
estrellas y galaxias nuevas. En la superficie terrestre la tierra se mueve bajo
nuestros pies, las placas tectónicas se comprimen y cambian de lugar; ríos y
mares se convierten, en un lapso de millones de años, en desiertos, incluso,
hace millones del años el polo norte se encontraba en el actual polo sur. La
vida, por su parte, no es más que la asimilación, transformación y desecho de
sustancias para mantener en equilibrio dinámico al organismo, es decir, para
mantenerlo vivo.
En realidad la materia y el movimiento son relativos y no pueden ser separados
metafísicamente; de hecho materia y movimiento son dos expresiones de un mismo
fenómeno, como señala la teoría de la relatividad, son equivalentes. La famosa
fórmula E=mc2 expresa toda la energía concentrada en el universo que se
manifiesta en el brillo del sol, en la desintegración radioactiva y en la vida
misma. Con el conocimiento actual, no se requieren nociones sobrenaturales, ni
primer impulso, ni fuerzas misteriosas inmateriales, ni la mano de Dios para
explicar el movimiento. La fuerza sobrenatural, que supuestamente impulsaba a la
pecadora materia resultó ser, a fin de cuentas, la misma materia. Engels decía:
"El movimiento es el modo de existencia de la materia. Jamás y en ningún lugar
ha habido materia sin movimiento, ni puede haberla (...) La materia sin
movimiento es tan impensable como el movimiento sin materia"11. La teoría de la
relatividad, al determinar la equivalencia de materia y energía, ha puesto una
sólida base para esta tesis central del materialismo de Marx y Engels.
Las ciencias estudian los diferentes tipos de movimientos de la materia, desde
el cambio de lugar (estudiado por la mecánica), hasta el pensamiento (estudiados
por la medicina, psiquiatría y la psicología) y desde el pensamiento hasta la
cosmología. Los procesos mecánicos, físicos, químicos, biológicos y sociales son
diferentes tipos de movimientos estudiados por las principales ramas de la
ciencia. Cada forma menos compleja de movimiento se convierte, en condiciones
propicias, en una superior por medio de un salto dialéctico —así como la
397
fricción mecánica se transforma en calor y el calor en electricidad y como la
materia inorgánica se convierte en materia orgánica— . Un movimiento complejo
contiene uno inferior como elemento subordinado —sin reducirse a él— así como
las leyes sociales no anulan las leyes genéticas en el hombre y, al mismo
tiempo, es estúpido y reaccionario explicar los fenómenos sociales como
consecuencia de la genética. Por esta interacción y transformación dialéctica de
los diferentes tipos de movimiento es posible tener una concepción general de
los procesos que se dan en la naturaleza, la sociedad y el pensamiento sin
reducirlos unos a otros y atendiendo a sus leyes específicas estudiadas por las
ciencias particulares. La misma teoría del caos pretende tener una aplicación en
una amplia gama de fenómenos y por ende, consistir en una interpretación del
mundo (muy cercana como veremos al materialismo dialéctico).
Lo común en los diferentes campos de la ciencia es que todos ellos son casos
específicos de movimiento y que, como veremos, se dan a través de la tensión
dinámica entre fuerzas opuestas; que sus puntos de transición, en donde se
convierten en otro tipo de fenómeno, resulta de la acumulación cuantitativa de
algunos de sus aspectos y que, finalmente, el tipo precedente de movimiento es
"negado" por el nuevo al mismo tiempo que se conserva subordinado a leyes
diferentes.
b) Consideraciones sobre el concepto de materia y teoría del conocimiento
La crítica absoluta ha aprehendido de la Fenomenología de Hegel (..) el arte de
convertir las cadenas reales y objetivas, existentes fuera de mí, en cadenas
dotadas de una existencia puramente ideal, puramente subjetiva, que se da
solamente en mí y, por tanto, todas las luchas externas sensibles, en puras
luchas especulativas.
C. Marx y F. Engels, La sagrada familia
Es poco probable que pueda considerarse acertado un razonamiento como éste: yo
soy una cosa que piensa, luego soy pensamiento. O este otro: soy una cosa que
entiende, luego soy entendimiento. Pues de la misma forma podría decir: soy una
cosa que pasea, luego soy paseo. Por tanto, Descartes identifica (...) la cosa
que entiende con la razón, que es la facultad de entender".
Tomás Hobbes, 15881679
"Llamamos materialista a nuestra dialéctica", nos dice Trotsky, "porque sus
raíces no están en el cielo ni en las profundidades del libre albedrío, sino en
la realidad objetiva, en la naturaleza. Lo consciente surgió de lo inconsciente,
la psicología de la fisiología, el mundo orgánico del inorgánico, el sistema
solar de la nebulosa. En todos los jalones de esta escala de desarrollo, los
398
cambios cuantitativos se transformaron en cualitativos. Nuestro pensamiento,
incluso el pensamiento dialéctico, es solamente una de las formas de expresión
de la materia cambiante. En este sistema no hay lugar ni para dios ni para el
diablo, ni para el alma inmortal ni para leyes y normas morales eternas
(..) posee en consecuencia un carácter profundamente materialista"12.
En la filosofía marxista, materia no se reduce, como en los antiguos
materialistas griegos, a alguna de las expresiones de la materia (aire, agua
fuego, tierra, etc) o, como en los materialistas ilustrados, a una de las formas
de movimiento de la materia (mecánica), sino que es una abstracción que expresa
todo lo que existe independientemente de la subjetividad humana, se refiere pues
a la naturaleza en sus infinitas expresiones: desde los neutrinos a los
supercúmulos de galaxias y, aun, a las infinitas cualidades que no conocemos y
sus infinitas formas de movimiento (Lenin). Es una abstracción, por tanto, que
prescinde de las cualidades específicas de los objetos concretos y se refiere
únicamente a su existencia fuera de la conciencia humana como una realidad
objetiva. Es un concepto abierto porque no abarca nunca la totalidad de su
objeto, por ser inabarcable, pero es absoluto porque expresa, al mismo tiempo,
la infinitud del universo y el hecho de su existencia al margen de los procesos
subjetivos13.
A diferencia de los prejuicios poskantianos, el marxismo, junto con el
pensamiento de Hegel, considera que no existe una muralla china entre el
fenómeno y la cosa en sí o entre la percepción y el objeto percibido. Como
decía Hegel: "la ley no se encuentra fuera o más allá del fenómeno, sino que le
es directamente inmanente; el reino de las leyes es la tranquila imagen del
mundo existente o fenoménico. O mejor dicho, el fenómeno y la ley forman una
totalidad y el mundo quien, por sí mismo, constituye el reino de las leyes"14;
conocemos la cosa en sí cuando la convertimos en cosa para nosotros o
según Marx cuando además de contemplar la naturaleza, la transformamos. La
transformación de la naturaleza es lo que nos convirtió en humanos; el hombre
mismo es parte del mundo objetivo, de él surgió y en tanto ser social objetivo,
es capaz de transformarlo.
La discusión sobre la existencia de la realidad material independientemente de
la subjetividad humana ocupó un lugar especial en la polémica que
tantoMarx como Engels (y posteriormente Lenin y Trotsky) sostuvieron con otras
tendencias políticas y filosóficas alrededor del movimiento obrero y con las
tendencias que se consideraban de izquierdas (tan sólo hay que recordar La
sagrada familia, La ideología alemana y Miseria de la filosofía). Esto no es
casualidad; la postura filosófica sobre esta cuestión determina la manera en que
se aborda y se interviene en la realidad objetiva en sus infinitos niveles. Si
399
consideramos, por ejemplo, que las leyes del capitalismo son sólo proyecciones
de la subjetividad o, peor aún, que no existen tales leyes, no buscaremos la
solución a los dilemas contemporáneos estudiando la dinámica del capitalismo
para poder intervenir en ella, en tanto fuerza social objetiva para
transformarla; al contrario, en tanto fenómeno en función de la categorías,
buscaremos la solución dentro de la subjetividad misma, o en
la intersubjetividad pura, en la introspección, en el arte per se, Dios, etc;
nuestra no intervención sería una forma de intervención que alargaría la
putrefacción de la sociedad capitalista con consecuencias desastrosas para la
humanidad y la cultura. Es un hecho que la burguesía por una infinidad de medios
(desde la destrucción del contrato colectivo y la promoción del contrato
individual —conocida con el chillón eufemismo de "nueva cultura laboral"— hasta
la literatura basura sobre superación personal), promueve en los trabajadores el
individualismo, la introspección y el misticismo15. En esto, los miembros más
inteligentes de la clase dominante tienen claro, como lo tienen claro los
marxistas, que la fuerza de los trabajadores está en su acción colectiva. Si un
médico no considerara el organismo de su paciente como algo material y regido
por sus propias leyes, sería incapaz de entender el origen de la enfermedad y
probablemente su no comprensión provocaría la muerte del paciente. De la misma
manera, la difusión de dichos prejuicios en el movimiento obrero sería su
declaración de muerte. Los dos fundadores del marxismo consideraban que
cualquier error teórico, sobre todo en esta cuestión cardinal, se pagaba tarde o
temprano en la práctica.
Por supuesto, el materialismo de Marx no era una petición de principio o una
cuestión dogmática. El criterio que nos permite salir del solipsismo* típico de
las filosofías subjetivistas es la práctica social. El conocimiento no es un
proceso pasivo (encerrado en las universidades), sino la unidad dialéctica entre
percepción, pensamiento y práctica. En este sentido discutiendo con el
agnosticismo kantiano, Engels comentó: "Ni en un sólo caso, según la experiencia
que poseemos hasta hoy, nos hemos visto obligados a llegar a la conclusión de
que las percepciones sensoriales, científicamente controladas, originan en
nuestro cerebro ideas del mundo exterior que difieran por su naturaleza de la
realidad o de que entre el mundo exterior y las percepciones que nuestros
sentidos nos transmiten de él, media una incompatibilidad innata. Pero al llegar
aquí, se presenta el agnóstico neokantiano y nos dice: sí, podremos tal vez
percibir exactamente las propiedades de una cosa, pero nunca aprender la cosa en
sí por medio de ningún proceso sensorial o discursivo. Esta cosa en sí cae más
allá de nuestras posibilidades de conocimiento. A esto, ya hace mucho que
contestó Hegel: desde el momento en que conocemos todas las propiedades de una
cosa, conocemos también la cosa misma; sólo queda en pie el hecho de que esta
400
cosa existe fuera de nosotros, y en cuanto nuestros sentidos nos suministran
este hecho, hemos aprehendido hasta el último residuo de la cosa en si, la
famosa e incognoscible Ding an sich de Kant. Hoy sólo podemos añadir a eso que,
en tiempos de Kant, el conocimiento que se tenía de las cosas naturales era lo
bastante fragmentario como para poder sospechar detrás de cada una de ellas una
misteriosa cosa en sí. Pero, de entonces a ahora, estas cosas inaprensibles han
sido aprehendidas, analizadas y, más aún, reproducidas una tras otra por los
gigantescos progresos de la ciencia"16.
Sin esta comprobación práctica, comprendiéndose aquí a la práctica como práctica
social, puesto que el hombre sólo puede constituirse como tal, incluso
constituirse como individuo aparentemente aislado (enajenado), y sobrevivir en
tanto ser social; los juicios del razonamiento pueden elaborar una serie de
deducciones lógicas, como la existencia de Dios, la independencia mística del
pensamiento de la materia que piensa (el cerebro), incluso
laincuestionabilidad del Estado como rector moral (Descartes, Hegel), que aunque
parezcan claras y distintas a la razón humana, no son correctas. En todo caso,
la razón humana no es infalible y necesita comprobar sus deducciones fuera de sí
misma. Como se ve, el pensamiento que funda su veracidad únicamente en la
racionalidad (o irracionalidad) humana, no sale de sus propios límites y sigue
siendo puramente subjetivo. Marx critica a los filósofos o a "estos metafísicos
que con sus abstracciones creen que están haciendo análisis, y a medida que van
alejándose de los objetos creen estar aproximándose a ellos más"17.
De acuerdo con Marx y Engels, es posible salir del pantano solipsista del cual
no han querido salir las modernas filosofías de moda; los siguientes dos
ejemplos tal vez aclaren este punto: Cuando, gracias a los adelantos técnicos,
el hombre percibió por primera vez una proteína, la percibió como fenómeno. De
acuerdo con el escepticismo era imposible saber si la representación percibida
correspondía a la cosa material que la producía, ni siquiera si existía tal
cosa. Pero el hecho es que, de acuerdo a dicha representación y a la teoría
químicabiológica, se han reproducido proteínas en condiciones de laboratorio.
Este simple hecho prueba más que mil argumentos escépticos, pues, estoy
reproduciendo la cosa que produce la impresión subjetiva y probando que las
hipótesis sobre su constitución corresponden al objeto que, para los escépticos,
se suponía inaccesible. En tanto reproduzco la cosa en sí pruebo que esta existe
independientemente de mi percepción. Y que entre el fenómeno (nuestra percepción
del objeto) y el objeto percibido, no hay un abismo infranqueable. Que la
objetividad del pensamiento se demuestra en la práctica. "Es en la práctica",
nos dice Marx, "donde el hombre tiene que demostrar la verdad, es decir, la
realidad y el poderío, la terrenalidad de su pensamiento. El litigio sobre la
401
realidad o irrealidad de un pensamiento que se aísla de la práctica, es un
problema puramente escolástico"18.
Cuando un sujeto, por ejemplo, decide arrojarse del último piso de un alto
edificio matándose en el acto, un kantiano, si es consecuente, tendría que decir
que las categorías a priori al organizar dicho fenómeno habrían matado de hecho
al desafortunado sujeto. Lo que habría matado al suicida, según esto, no sería
el suelo que en tanto cosa en sí se le habría estrellado en la cabeza, —puesto
que aceptar este hecho es por lo menos aceptar que la cosa en sí tiene la
propiedad de la dureza— sino las categorías que, al organizar los datos de la
sensibilidad, así lo habrían legislado. Resultaría que las categorías nos
podrían matar. Sólo basta plantear ejemplos de la práctica real de los hombres
para darse cuenta de los absurdos a los que nos lleva el escepticismo
positivista.
¿No tendríamos que decir, en contra de la opinión kantiana, que en realidad fue
la cosa en sí (el objeto como tal y la velocidad del sujeto independiente de
nuestros conceptos) la que mató al suicida?
Si aceptamos esto, ¿no implicamos que podemos interactuar con la cosa en sí,
mostrando que no es inaccesible, y en virtud de dicha interacción, probar las
representaciones que tenemos acerca de ella?
¿No probamos que el cuerpo humano, al interactuar con la cosa en sí demuestra
que también es objetivo (cosa en sí)?
¿No es verdad que el suicida comprobó con su cabeza, al romperse con el suelo,
que las leyes científicas, cuando son correctas, reflejan cualidades reales del
objeto? (aunque por supuesto nunca alcanzamos a acceder al objeto en su
totalidad pues éste es inagotable en sus determinaciones). Experimento que, por
cierto, puede realizar el propio kantiano (lo cual no le recomendamos).
Con ello ¿no probaríamos que es la práctica individual y social la que en última
instancia constituye el nexo entre nuestro conocimiento y la cosa en sí?
La experimentación y la práctica objetiva, sin embargo, son sólo un elemento
vital de una totalidad orgánica que incluye la observación empírica, el
razonamiento humano, la generalización teórica y la induccióndeducción
práctica. Esta totalidad orgánica es lo que llamamos método dialéctico del
conocimiento (esta interacción es lo que lo diferencia del empirismo estrecho y
el racionalismo idealista respectivamente y no digamos ya el irracionalismo
posmoderno que ha renunciado a toda posibilidad de conocimiento racional). La
investigación objetiva parte de la observación empírica bajo condiciones
naturales, abstrae a partir de estas observaciones hipótesis de explicación que
402
están formuladas a partir de las teorías, correctas o incorrectas, construidas
por generaciones pasadas en su praxis social, somete a una prueba práctica
dichas hipótesis reproduciendo artificialmente el fenómeno estudiado, o en su
caso (como en las ciencias sociales) contrastando las perspectivas con el
desarrollo efectivo, de acuerdo a la hipótesis planteada. El fracaso o el éxito
de la práctica o predicción, permite, en el primer caso, descubrir que nuestra
hipótesis era precipitada, basada en observaciones incorrectas, debido a la
transposición de teorías que no son aplicables a todas las condiciones
concretas, etc; en este caso el error aumenta el conocimiento, lo delimita; en
el segundo caso el éxito permite afirmar que, dentro de ciertos límites, nuestra
hipótesis es correcta, permite ampliar las teoría precedentes; es decir, aumenta
el cúmulo de nuestros conocimientos. En todo caso al final de la investigación,
ya sea que la hipótesis resulte correcta o falsa, no volvemos al punto de
partida sino que nos encontramos en uno nuevo. En las investigaciones próximas
tendremos un marco teórico ampliado que permitirá hacer inducciones o
deducciones para explicar un fenómeno dado19.
Este proceso de experimentación de científicos individuales, en el marco de
ideas y herramientas sociales determinadas históricamente, va conformando la
acumulación cuantitativa del conocimiento social (proceso cuantitativo llamado
por Khunn, "períodos de ciencia normal"). En determinados puntos, en donde la
praxis comienza a demostrar y acumular contradicciones entre sus resultados y la
base teórica (paradigmas) desarrollada en el período anterior, se comienza a
abrir un proceso de revolución científica, de transformación cualitativa que
negará y conservará al mismo tiempo el período cuantitativo anterior que, a su
vez, abrirá otro período de ciencia normal, en un proceso dialéctico, en espiral
de conocimiento que nunca terminará mientras exista la humanidad20.
El hombre, por lo tanto, conoce las determinaciones de lo material transformado
e interactuando con la objetividad, tanto social como natural. En este proceso
las ideas condicionan relativamente la intervención y al mismo tiempo se
transforman por ella; el hombre no es sólo un ser receptivo de la objetividad
(como lo entendía en general Feuerbach y los materialistas anteriores a Marx)
sino un ser receptivo activo y transformador de lo objetivo; es esta actividad
la que nos saca del solipsismo, ya que dicha transformación no se da en el
terreno inmaculado de las ideas puras o la subjetividad pura sino en su praxis
objetiva y al mismo tiempo objetivadora (porque transforma lo objetivo).
Una objeción bastante popular al materialismo marxista es la idea de que con el
concepto de materia se instituye, como nuevo objeto de fe, un nuevo Dios; se
cree, en efecto, que cuando Engels habla de materia esta realizando un simple
juego de manos, una sustitución de términos equivalentes, producto de la
403
contaminación del materialismo burgués, un mito pseudofilosófico.
Así Dussel argumenta que: "Engels (...) en su Dialéctica de la naturaleza (...)
la materia deviene una masa infinita, eterna, retornante sin fin sobre sí misma,
de donde emerge todo, donde se funden el hombre y la historia. No hay así una
concepción sociohistórica de la materia (véase 3.3), sino una interpretación
material de la historia. El panteísmo de la Materiatiene la misma lógica que el
de la Idea. En ambos casos, sea la Materia o la Idea, todo es uno, idéntico,
fundamento de toda diferencia. La Materia es el principio necesario de todo lo
que acontece. Lejos de ser atea esta posición es en realidad un nuevo
fetichismo. Es ateo del deísmo, pero panteísta de la Totalidad material"21.
Esta objeción al materialismo, en esencia, no es nueva; ya hace más de 250 años
el obispo Berkeley la usó como arma ideológica en defensa del feudalismo caduco
y contra los ilustrados burgueses22.
El materialismo anterior a Marx, el materialismo burgués y el
de Ludwig Feuerbach23 del cual Marx partió para negar y superar dialécticamente
aHegel, coincide con el materialismo dialéctico en la convicción de la
existencia de la realidad objetiva de la cual proceden, en última instancia, la
vida y el pensamiento; pero hay diferencias cualitativas por las cuales no se
pueden confundir. el materialismo de Marx no es un materialismo puramente
receptivocontemplativo sino transformador, dialéctico y no sólo naturalista,
erudito, sino histórico; por ello, el ateísmo de Marx y Engels, su lucha contra
el opio religioso, no se concibe como una lucha contra la ignorancia y estupidez
del pueblo o como un acto de salvación individual de los dogmas modernos
(Nietszche), sino una lucha contra el sometimiento del destino de los oprimidos
a la anarquía capitalista de la cual el sentimiento religioso no es más que su
reflejo impotente y, en cierto sentido, una forma de protesta contra un mundo
inhumano. El hecho de que para Marx la materia sea objeto de transformación por
la actividad humana no niega su materialismo, por el contrario, lo reafirma como
un materialismo consecuente porque es en su actividad donde el hombre se percata
de las leyes objetivas sociales y naturales.
Parece que contra lo que reacciona el profesor Dussel es contra el materialismo
mecanicista antidialéctico, en ello estamos de acuerdo, pero Dussel"tira el agua
sucia con el niño". En primer lugar las propiedades de la materia no dependen de
la concepción históricamente determinada que se tenga al respecto (de "su
concepción sociohistórica"). Lo que sí se desarrolla sociohistóricamente es el
concepto de materia; pero sólo un hegeliano confundiría la concepción socio
histórica del objeto material desentrañado en un proceso infinito por
la intersubjetividad humana (en su praxis objetiva y transformadora) con la
materia, la realidad objetiva, que tiene su desarrollo dialéctico, objetivo,
404
independiente de su concepción subjetiva. En segundo lugar la materia no es un
pseudónimo de Dios, porque materia se refiere a lo existente independientemente
del pensamiento, que no está más allá de la naturaleza, ni por encima de ella
(el concepto de Dios implica un ser determinante y creador más allá del mundo
material); el llamar panteísmo a la materia, por otro lado, esta fuera de lugar:
el materialismo dialéctico no convierte a la naturaleza en Dios; la naturaleza
no es un ser con voluntad propia, su desarrollo radica en leyes ciegas que
pueden ser utilizadas y manipuladas por el hombre (la libertad es el
conocimiento de la necesidad para transformar la realidad).
La voluntad y la subjetividad surgen de la materia sólo en condiciones
determinadas y excepcionales; atribuir voluntad a la materia es proyectar una
cualidad humana a la naturaleza, esto no tiene nada que ver con el marxismo,
sino con el pensamiento mágico y el animismo (la semilla y la prehistoria de la
religión).
Para el religioso todo lo que está más allá del pensamiento del hombre, y de la
naturaleza, no puede ser más que Dios o por el contrario sólo queda el
escepticismo e irracionalismo decadente; para el materialista no hay nada más
allá de la naturaleza. No cae en la falsa disyuntiva del idealista. Pensamiento
y materia son las abstracciones más generales que abarcan a la realidad, materia
es lo primario porque hasta ahora nunca se ha visto a un pensamiento sin
cerebro. El pensamiento del hombre es, además reflejo dialéctico no sólo de la
naturaleza sino de su ser social. Para el religioso Dios es el principio,
idéntico a sí mismo y, sobre todo, por encima de la realidad; para el
materialista, materia es el principio y fundamento, por eso Engelshabla de la
materia como lo absoluto (en el sentido de que no depende del pensamiento), pero
es idéntico a la naturaleza en su infinito despliegue y desarrollo dialéctico.
Quien no capta la diferencia, no capta el problema fundamental de la historia de
la filosofía, la diferencia cualitativa entre materialista e idealista expresado
con infinitos matices a lo largo de la historia: entre Demócrito y Platón,
entre Lucrecio y Cicerón, entre Averroes y Tomas de Aquino, entreMarx y Hegel,
etc., etc.). Creer que la naturaleza existe independientemente de las ideas del
hombre, que la mente humana no es más que el producto maravilloso de la materia
altamente organizada y, en nuestros días, que el capitalismo tiene una dinámica
objetiva, que sólo comprendiendo las leyes materiales se puede intervenir
exitosamente en la realidad, eso, profesor Dussel, es ser materialista. No hay
nada mejor para fundamentar el materialismo moderno (el materialismo de Marx)
que la ciencia moderna y las revoluciones sociales.
405
Para concluir este punto podemos agregar que desde que Engels escribió
Dialéctica de la Naturaleza se ha comprobado, más allá de toda duda, que la cosa
en sí o la materia (el universo) existía antes de que existieran hombres que
anduvieran por ahí con sus categorías o subjetividad (ya sea individual o
colectiva) para percibirla o incluso antes de que hubiera hombre transformador
de la materia. Que el hombre y sus categorías proceden de la evolución de la
naturaleza en vida, de la vida en conciencia y de la conciencia animal en
conciencia social. Esto, por supuesto, está en contradicción con el pensamiento
religioso y la teología, pero que le vamos a hacer, como gustan decir los
positivistas, "los hechos son los hechos"24. Por supuesto que nosotros
preferimos retomar estos conocimientos, antes que la escolástica positivista.
II. LA TEORÍA DE LA RELATIVIDAD Y EL MATERIALISMO DIALÉCTICO
Introducción
Para la concepción del mundo marxista no hay que buscar la explicación de los
fenómenos naturales y sociales fuera de la naturaleza y de las relaciones
sociales objetivas. El mundo es concebido como una serie de procesos que se
relacionan y se transforman recíprocamente. Una razón concluyente por la que no
hay que buscar fuerzas externas que expliquen los fenómenos que se dan en la
naturaleza radica en la equivalencia de materia y energía, expresada en la
famosa fórmula de Einstein, E=mc2. La mecánica clásica, refutada filosóficamente
ya hace bastante tiempo porHegel, Marx y Engels, explica el movimiento de un
sistema en función de una fuerza inercial externa; esto sugería la conclusión,
al llevarse esta teoría más allá de sus límites, de que en la intervención
divina o en la mano de Dios se encontraba la fuerza o el primer impulso que,
como en un mecanismo de relojería, "daba cuerda" al universo; "Dios", nos
dice Einstein con respecto a esta visión reductivista, "creó las leyes de
movimiento de Newton, junto con las necesarias masas y fuerzas"25. Para
Descartes, por ejemplo, la máquina humana era puesta en movimiento por su unidad
divina con el alma y para Newton el primer impulso había puesto la fuerza
tangencial necesaria para que los planetas siguieran sus órbitas alrededor del
sol. En última instancia este punto de vista radica en la separación absoluta
entre energía y materia. La materia por sí misma era vista como un ser pasivo y
a la energía como el elemento activo exterior a la materia. Una de las ideas
básicas del materialismo dialéctico es la relación intrínseca entre materia y
energía, tiempo y espacio.
Como explica Einstein: "la Mecánica Clásica daba resultados fiables siempre que
fuese aplicada a movimientos en los cuales las derivadas superiores de la
406
velocidad respecto al tiempo son despreciables."26. La teoría de la relatividad
de Einstein vino a poner a la mecánica newtoniana* y a la geometría euclidiana**
dentro de sus campos de manifestación específicos determinados en función de los
límites cuantitativos de la velocidad de la luz, mas allá de los cuales se da el
salto cualitativo de las leyes de Newton a las leyes de Einstein; estas leyes
muestran la unidad dialéctica entre energía, materia, espacio y tiempo. El
primer paso en esta dirección fue la teoría electromagnética de Maxwell***
y Faraday****, que abría la primera brecha en el principio de relatividad de
Galileo, que afirma que las leyes físicas permanecen inmutables
independientemente del sistema de referencia. En el electromagnetismo, en
efecto, el campo magnético de una corriente eléctrica influye en una partícula
cargada dependiendo de sus movimientos relativos. Por primera vez se mostraba
que las leyes físicas podían modificarse según la relatividad de los movimientos
de un sistema. El éter como punto de referencia eterno e inmutable ya no era
necesario; la luz no requería de un medio fantasmal e imponderable (éter) para
viajar (base para la importancia que la velocidad de la luz tiene en la teoría
de Einstein). E. Lorenz, en base a la teoría electromagnética, estableció las
ecuaciones para dejar invariantes las fórmulas de Maxwell al pasar de un sistema
de referencia a otro, pero aceptando que la realidad física del tiempo se
transformaba con el sistema de referencia. Esto significó una ruptura radical
con las leyes de Galileo y de Newton. La teoría cuántica de la materia
deMax Planck, por su parte, sirvió de base para el descubrimiento de la unidad
materiaenergía y la teoría del carácter contradictorio (dialéctico: partícula
onda) del desplazamiento de la luz. El conocimiento más profundo de estos
fenómenos ha permitido abrir una fuente potencial inagotable de energía para la
humanidad —hecho expresado de manera trágica en Nagasaki— , y que pone sobre la
mesa, la tarea cada vez más urgente de planificar racionalmente esas
potencialidades en beneficio de la humanidad, tarea que choca frontalmente con
la propiedad privada y la sociedad capitalista.
a) Teoría especial de la relatividad (unidad dialéctica materia y energía)
La materia lleva implícita la fuerza motriz que la anima y es causa directa de
todas las leyes de movimiento.
Julián Offroy de La Mettrie, 17091751
La teoría de la relatividad especial se basa en los siguientes supuestos
comprobados experimentalmente:
407
"1) Constancia de la velocidad de la luz.
"2) Independencia de las leyes (y en especial, por tanto, también de la ley de
la constancia de la velocidad de la luz) con respecto a la elección de un
sistema inercial ‘principio de la relatividad especial)"27.
El descubrimiento de Maxwell de los procesos no simultáneos —que no existe
simultaneidad entre procesos distantes, de la relatividad del tiempo en la
teoría electromagnética— tiró por la borda la concepción de un tiempo y espacio
absoluto (simultáneo en todas las partes del universo, independientemente del
movimiento material y las relaciones espaciales) de la teoría newtoniana28.
Hacía falta un nuevo criterio para medir el tiempo de acuerdo con las relaciones
espaciales y de movimiento material; la base de este nuevo criterio la
encontró Einstein en la velocidad de la luz, una constante universal que no
cambia, independientemente del movimiento del sistema material emisor o receptor
de luz; la velocidad de un cuerpo no acelera la velocidad de la luz que se
mantiene siempre constante. Además la relación que establecieron Maxwell
y Lorenz entre la materia y el campo gravitacional y magnético, implicaba una
relación entre inercia (movimiento) y masa, es decir una relación entre materia
y energía que anteriormente eran vistos como fenómenos independientes.
La mecánica clásica considera que la masa de un cuerpo es independiente de su
velocidad, pero según la teoría especial de la relatividad, existe una relación
entre masa y velocidad. De hecho, cuando un piloto viaja en un automóvil gana
masa en una fracción infinitesimal; (aumenta una diez mil millonésima parte del
1%). En la vida diaria, los efectos de este fenómeno se pueden ignorar "si un
objeto se mueve con una velocidad menor a 100 millas por segundo, la masa es
constante dentro de una margen de una millonésima parte"29. Pero cuando estamos
hablando de velocidades 100 veces superiores se da el salto cualitativo en donde
los efectos de la relatividad son decisivos "un electrón gana masa cuando se
mueve a 9/10 partes de la velocidad de la luz (...) la ganancia es 31/6 veces,
exactamente la predicha por la teoría de Einstein. (...) Los electrones surgen
de un poderoso acelerador de partículas 40.000 veces más pesados que al
principio, la masa extra representa la energía del movimiento"30. De acuerdo con
esto, si un cuerpo superase la velocidad de la luz la masa del cuerpo tendería
al infinito. Además, la longitud de los cuerpos está en relación con su
velocidad, a medida que la velocidad aumenta y se acerca a la velocidad de la
luz la longitud de los cuerpos disminuye. Aquí, como podemos observar, las
cualidades de la materia (masas y longitudes) están en función de la cantidad de
movimiento en donde más allá de cierto punto se da el salto que transforma las
cualidades del objeto; ésta es, precisamente, una relación dialéctica.
408
En palabras de Einstein, uno de los conceptos básicos de la teoría especial de
la relatividad consiste en que "La masa inercial de un sistema aislado es
idéntica a su energía, de manera que la masa, en tanto que concepto
independiente queda eliminada"31. Ésta es la relación entre masa y energía que,
expresada en la celebre formula E=mc2, "representa la enorme cantidad de energía
encerrada en el átomo. Ésta es la fuente de toda la energía encerrada en el
universo. La letra E representa la energía (en ergs), m representa la masa (en
gramos) y c es la velocidad de la luz (en centímetros por segundo). El valor
real de c2 es 900 millones de billones. Es decir, que la conversión de un gramo
de energía encerrada en la materia produciría la asombrosa cantidad de 900
millones de billones ergs. Para dar un ejemplo concreto de lo que esto
representa, la energía concentrada en un solo gramo de materia equivale a la
producida al quemar 2.000 toneladas de gasolina"32.
La energía que explica en última instancia desde la desintegración radioactiva
hasta el resplandor del sol se encontró, no fuera de la pecadora materia, sino
dentro de la misma materia. Con la teoría de la relatividad no hay necesidad de
buscar la energía de la naturaleza fuera de la naturaleza. Y no solo eso, en
determinadas condiciones la materia se transforma en energía y la energía en
materia. La transformación de la materia en energía, sin embargo, no significa
la desaparición de la materia. La energía no es más que otra forma de existencia
de la materia y lo que llamamos materia (o masa), no es más que energía
congelada o en reposo relativo. Si bien se considera a los fotones como cuantos
de energía pura carentes de masa, el que la luz se desvíe por la influencia
gravitacional revela su carácter material. La energía no es algo independiente
de la materia, la energía se transporta por cuantos o portadores, (el mismo
término portador puede llevar a confusiones, puesto que sugiere la idea de que
la materia porta algo externo a ella). Así, cuando una masa de plutonio o uranio
libera su energía en forma de explosión atómica, la energía liberada no es más
que los rayos gamma, los neutrones y otros elementos del átomo —otra forma de
existencia de la materia— . En este proceso, que se da tanto en las entrañas del
Sol, como en las bombas homicidas, el átomo desparece como átomo, pero la
materia no desaparece, sólo cambia a una forma más dinámica de existencia.
El proceso inverso también se da. La energía se transforma en materia: "Los
científicos descubrieron en un experimento, que los rayos gamma podían producir
partículas atómicas, transformando la energía de la luz en materia. También se
descubrió que la energía mínima para producir una partícula depende de su
energía en reposo, tal y como había predicho Einstein. De hecho no se producía
una, sino dos partículas: una partícula y su opuesto, la antipartícula. En el
experimento de los rayos gamma tenemos un electrón y un antielectrón (positrón).
409
Igualmente se produce el proceso contrario, cuando un electrón se encuentra con
un positrón se aniquilan mutuamente produciendo rayos gamma"33. La energía y la
materia no sólo están en unidad dialéctica, sino que cuando se da su mutua
transformación, el resultado se da también en pares contrarios. Las
investigaciones de Einsteinpusieron las bases para la teoría cuántica, que
explica que el movimiento de las "partículas elementales" es contradictorio:
éstas se comportan al mismo tiempo como onda y como partícula, además, la teoría
de Einstein posibilitó la comprensión de la transformación de la materia.
La vieja y unilateral ley de Lavoissier* fue superada y conservada al mismo
tiempo. La conservación de la masa sólo expresa un lado de la ecuación que
dejaba abiertas las puertas para que la energía viniera desde fuera de la
materia (aunque ésta última fuera indestructible). En realidad, no sólo la
materia es indestructible, sino que la energía se conserva y procede de sus
entrañas. La ley más profunda y compleja es la "conservación de la masa y la
energía" de tal manera que la suma de estos dos aspectos inseparables y en
relación dialéctica, se mantiene siempre constante; no se puede crear ni
destruir ni un solo gramo de materiaenergía. La materia no fue creada por Dios
y la fuente de todos los infinitos procesos que acaecen en el universo se
expresa en la sencilla formula E=mc2. "El movimiento es por tanto", nos
decía Engels hace casi 150 años, "tan increable y tan indestructible como la
materia misma"34. Parece que la teoría de la relatividad le ha dado la razón
a Engels.
b) Teoría general de la relatividad (unidad dialéctica, materia, espacio y
tiempo)
La teoría especial de la relatividad no considera la fuerza de gravedad, porque
sus marcos de aplicación están en el mundo subatómico donde la gravedad no es un
factor decisivo. Sin embargo a medida que vamos considerando niveles
relativamente más grandes que el mundo subatómico, se da el salto cualitativo en
donde la gravedad (en el mundo de los cuerpos de "tamaño normal" y el espacio)
es el fenómeno que ocupa el primer plano subordinando, como fenómeno secundario,
a lo estudiado por la teoría especial de la relatividad; es en este último caso,
cuando los efectos de la gravedad son decisivos, es en donde la leyes de Newton
comienzan a aplicarse, pero ya como un caso especial de la teoría general de la
relatividad.
Esta teoría, que trata con enormes fuerzas gravitatorias como las que se
presentan en el espacio, pone en relación recíproca (dialéctica) al espacio, al
tiempo y a la materia que en la antigua concepción se consideraban fenómenos
410
independientes y absolutos. Se creía, en efecto, que el espacio era un vacío al
estilo de las abstractas y rígidas figuras euclidianas, un vacío en donde la
materia podía o no alojarse, conservándose físicamente indiferente de la materia
o de su ausencia; el tiempo por su parte, era una especia de flujo independiente
del movimiento de la materia, de acuerdo con esto podía existir tiempo sin
materia. Estas ideas estaban en concordancia con la visión mecanicista de la
naturaleza, cuyos fenómenos no eran más que el resultado de la suma de las
partes existentes independientemente del todo, una especia de emplasto o
superposición puramente cuantitativa de diferentes elementos. "Los profanos en
matemáticas se sienten sobrecogidos de misterioso espanto al oír hablar de
cosas cuatridimensionales, parecido al que sienten al pensar en fantasmas", nos
dice Einstein. "Y sin embargo, no hay tesis más vulgar que aquella según la cual
el mundo en que vivimos es un continuo espacio temporal de cuatro
dimensiones"35. La teoría de Einstein ha venido a tirar por la borda esta rígida
concepción; ahora, tiempo, espacio y movimiento son parte orgánica de la
naturaleza en función del movimiento y las características de la materia —por
ello la referencia a un universo cuatridimensional—.
"Según la teoría general de la relatividad, las propiedades geométricas del
espacio no son independientes, sino que están determinadas por la materia". Nos
dice el mismo Einstein: "De suerte que no podemos sacar conclusiones acerca de
la estructura geométrica del universo, sino fundando nuestras consideraciones en
el estado de la materia como algo que conocemos"36. La geometría del espacio
está determinada por la materia que contiene; de hecho, bajo efectos
gravitatorios enormes el espacio se curva (como en la periferia de un agujero
negro). Las bellas figuras de Euclides, que tanto han entusiasmado a los
idealistas, son prácticamente imposibles, porque la gravedad tiene influjo sobre
la geometría del espacio y éste se curva. "Esta
geometría cuatridimensional trata con superficies curvadas (el espaciotiempo
curvo). Aquí, los ángulos de un triangulo pueden no sumar 180 grados y las
líneas paralelas pueden cruzarse o divergir"37. Aquí entramos en un campo donde
las tranquilizadoras leyes de la lógica formal ya no se aplican.
El hecho de que el espacio se curve no significa en absoluto que "la nada se
curve". La curvatura espaciotemporal manifiesta la indisoluble unidad de la
materia, el espacio y el tiempo. No existe el espacio absolutamente vacío (tal
como lo había intuido Descartes). El espacio aparentemente vacío esta repleto de
plasma y de campos magnéticos, el vacío generado en laboratorio sólo es un vacío
relativo, ya que aún quedarán varios millones de moléculas, cada segundo ese
espacio es atravesado, entre otras micropartículas, por millones de neutrinos
(estos elementos evanescentes son capaces de atravesar una barrera de plomo de
411
un kilómetro de espesor). Esto no quiere decir que el espacio no exista, sino
que expresa una relación entre un tipo de materia y otra con menor densidad. "La
cuestión es que es imposible concebir espacio sin materia. Es una unidad
inseparable. Lo que estamos considerando es una relación determinada del espacio
con la materia. El uno no puede existir sin el otro. Un vacío total no es nada.
Pero lo mismo es la materia sin fronteras. Por lo tanto, espacio y materia son
opuestos que se presuponen, definen y limitan el uno al otro y que
no pueden existir el uno sin el otro"38.
Además de poner en relación el espacio con la materia, la teoría de la
relatividad pone en relación el tiempo con el tipo de movimiento del sistema
material estudiado. "Todo cuerpo de referencia (sistema de coordenadas) tiene su
tiempo particular; la especificación de un tiempo sólo tiene sentido cuando se
indica el cuerpo de referencia al cual hace relación dicha especificación. Antes
de la teoría de la relatividad, la física supuso siempre, tácitamente, que el
significado de los datos materiales era absoluto, es decir, independiente del
estado de movimiento del cuerpo de referencia"39.
En primer lugar hay que señalar que el tiempo no se considera como una categoría
a priori del sujeto, ni tampoco una constante absoluta independiente de la
materia. Aquí el tiempo se hace depender del movimiento material, no hay tiempo
sin materia y en tanto, como ya vimos, la materia es inconcebible sin el
movimiento —además de que la materia tiene infinitas formas de movimiento— , se
entiende que el tiempo y su noción cambiará en función del tipo de movimiento.
"El concepto de tiempo variará según el marco de referencia. Un año en la tierra
no es lo mismo que un año en Júpiter. Ni tampoco la idea de tiempo y espacio es
la misma para un ser humano y para un mosquito, con una vida de unos pocos días,
o para una partícula subatómica con una vida de una billonésima parte de un
segundo (asumiendo, por supuesto, que estas entidades pudieran tener algún tipo
de concepto). A lo que nos estamos refiriendo es a la manera que se percibe el
tiempo en diferentes contextos, (...) los métodos normales de medición no se
pueden aplicar a la vida de las partículas subatómicas como al tiempo
geológico"40.
Los experimentos han demostrado, por ejemplo, que la vida de los mesones
(partículas subatómicas cuya vida media es de 10–6 segundos que se mueven
rápidamente) es decenas y hasta cientos de veces superior en un acelerador de
partículas. El tiempo o la duración de los procesos aumentaconforme aumenta la
velocidad del sistema. La duración de los procesos está también relacionado con
la gravedad. Los relojes atómicos son más lentos situados donde la gravedad es
mayor. "Un reloj atómico volando a 30.000 pies de altura gana tres mil
millonésimas de segundo en una hora. Esto confirma la predicción de Einstein con
412
un margen de error del uno por ciento"41. Todo movimiento es movimiento con
respecto a otros cuerpos; es inconcebible el movimiento de algo sin referirlo a
su relación espacial con otro objeto, estas relaciones son las que determinan
las cualidades de la cosa. Tal como Hegel había explicado: "La cosa es en si
misma, pero también es en sí misma porque es para otro, en tanto que esos otros
objetos determinan a la cosa y la hacen ser lo que es; la diferenciación de los
distintos aspectos de la cosa que se creía en sí, son momentos que hacen de la
cosa lo que es. Así, la cosa es en sí misma, porque las propiedades le
pertenecen, y no lo es porque la delimitación con lo otro la muestra diferente y
por ello única".
El tiempo es, entonces, una expresión del movimiento, su noción implica el
conocimiento y generalización de muchas formas de movimiento particulares
reducidas a su expresión general, encarnada en un movimiento particular usado
como patrón de medida. De la misma forma que el dinero es la expresión de valor
de todas las mercancías particulares, y así como el valor en general surge de la
relación entre las mercancías particulares, el tiempo es una expresión entre el
movimiento relativo de los cuerpos cuya objetividad radica en que la interacción
relativa entre estos, por medio de la velocidad de la luz, determina el tiempo
(movimiento) específico. A diferencia de lo que creía Kant, el tiempo no es una
cualidad subjetiva y absoluta, constituyente del fenómeno (tal
como Kant entendía fenómeno), sino una característica objetiva del universo
reflejada y medida por el cerebro del hombre.
c) Teoría de la relatividad. ¿Materialismo o idealismo?
Por estas interrelaciones entre los objetos, los eventos que pueden ser
simultáneos en un marco de referencia (por ejemplo dos explosiones simultáneas
en vagones diferentes de un tren) no lo son con respecto a otro marco de
referencia (por ejemplo un receptor de luz que está fijo a las vías del tren).
Esto no quiere decir que en la teoría de la relatividad todo sea relativo. O que
una cosa sea tan buena como la otra y se pueda decir cualquier barbaridad. Los
marcos de referencia están determinados por los métodos de Lorentz42, que tienen
entre sus absolutos la velocidad de la luz y la energía en reposo. Muchos
intérpretes han sacado la conclusión de que la teoría de la relatividad afirma
que el tiempo y el espacio son fenómenos subjetivos (puesto que no hay tiempo ni
espacio absolutos) del hecho de que el tiempo y el espacio dependen del
movimiento de un sistema material; así en las explicaciones vulgares se nos dice
que: "Einstein establece que tiempo y espacio no significan nada fuera de lo que
un observador percibe o mide: cada observador transporta su propio espacio y su
413
propio tiempo" (Enciclopedia Salvat). De esta manera se nos quiere afirmar que
la teoría de la relatividad postula que el espacio y el tiempo no son fenómenos
objetivos sino proyecciones del sujeto.
Estas interpretaciones, que fueron rechazadas por el mismo Einstein en su
madurez, se vieron reforzadas por la postura filosófica que Einstein mantuvo
durante su juventud como admirador del físico y filósofo Ernest Mach (uno de los
fundadores del neopositivismo), postura que permea en sus primeros escritos,
donde explica popularmente su teoría. Según esta corriente, las sensaciones son
la única realidad y las teorías sólo formas lógicas y económicas de organizar
los datos de la experiencia, que nada tienen que ver con los objetos en sí (o al
menos es imposible saberlo). Así en La relatividad: teoría especial y
general, Einstein escribió: "Tenemos la costumbre de designar con la palabra
verdadero la correspondencia con un objeto real; y la geometría no tiene nada
que ver con la relación de la ideas con los objetos que conocemos por la
experiencia; sino que se interesa únicamente por la coherencia de esas ideas
entre sí"43.
En las posturas filosóficas del joven Einstein se apoyaron los intérpretes
idealistas de su teoría. Hay que señalar que el mismo Einstein, junto con muchos
otros científicos eminentes como Max Planck, Ludwig Boltzmann, Louis
de Broglie, Erwin Schrödinger, entre otros, se opusieron a la interpretación
idealista de la física (fundamentalmente a la corriente de Copenhague,
encabezada por el físico alemán Werner Heisenberg), que increíblemente afirmaba
que ¡las propiedades materiales solo aparecen en el acto mismo de la medición!
"Es un hecho interesante", nos dice KarlPopper, que no era precisamente un
marxista, "que el propio Einstein fue durante años un positivista
y operacionalista dogmático. Más tarde rechazó esta interpretación: en 1950 me
dijo que de todos los errores que había cometido, del que más se lamentaba era
de ése. El error asumía una forma realmente seria en su popular libro,
Relatividad; la teoría especial y general"44.
El mismo Einstein afirmó, con respecto a la posición positivista respecto a la
realidad material, que "la aversión de estos investigadores hacia la teoría
atómica", (relacionada con el hecho de que Planck, según Einstein había
comprobado la realidad material —indepediente del observador— del átomo), "hay
que atribuirla sin duda a su actitud filosófica positivista, lo cual constituye
un interesante ejemplo de que incluso investigadores de espíritu audaz y fino
instinto pueden verse estorbados por prejuicios filosóficos a la hora de
interpretar los hechos"45. Así, mientras que en sus primero escritos las
posturas idealistas de Einstein se mezclaban con conclusiones materialistas (por
ejemplo cuando dice que el tiempo y el espacio dependen del movimiento
414
material), ya en su autobiografía Einstein señala, sin lugar a dudas, que el
tiempo y el espacio no dependen del observador (aunque los métodos e
instrumentos de medición sí contienen un elemento subjetivo), que no son
convenciones lógicas, sino hechos reales; en sus propias palabras "La física es
un esfuerzo por aprehender conceptualmente la realidad como algo que se
considera independiente del ser percibido. En este sentido se habla de lo
físicamente real" (....) "Mi opinión es que la actual teoría cuántica, con
ciertos conceptos básicos que en esencia están tomados de la mecánica clásica,
representa una formulación óptima del estado de las cosas"46.
Este punto, la aceptación de Einstein de la realidad material independientemente
de la percepción, es lo esencial en su alejamiento del positivismo lógico;
debemos recordar que el "Círculo de Viena" (Carnap y Neurat), que enunció los
principios clásicos del positivismo lógico, tenía como misión esencial erradicar
de la ciencia toda metafísica47, es decir, toda afirmación que vaya más allá del
lenguaje; toda afirmación cuyo contenido implique la existencia de algo más allá
del sujeto que percibe, más allá de toda experiencia; reduciendo la filosofía al
estudio lógico del lenguaje; en palabras deCarnap: "La verdad es que rechazamos
la tesis de la realidad del mundo físico, pero no la rechazamos como falsa sino
como carente de sentido y que su antítesis idealista se halla sujeta al mismo
rechazo"48.
Einstein se distanció, además, del empirismo vulgar (otra característica del
positivismo lógico) al comprender el papel activo del pensamiento, incluida la
libre especulación, al interpretar los hechos. "El prejuicio"
dice Einstein "consiste en creer que los hechos, sin libre construcción
conceptual, pueden y deben proporcionar conocimiento científico"49. Como ya
habían afirmado Engels y Marx (Grundrisse): "Sin pensamiento teórico no se puede
relacionar entre sí dos hechos naturales, ni entender el vínculo que existe
entre ellos"50. Es este pensamiento teórico el que nos permite ir más allá de lo
concreto y al mismo tiempo entender lo concreto en sus múltiples
determinaciones, sin la generalización, la practica se vuelve ciega, la
investigación se convierte en una búsqueda en una caverna obscura dando tumbos a
cada paso porque los objetos se nos presentan por primera vez, aisladamente,
como las rígidas formas platónicas. En realidad el positivista, que se cree muy
realista, sólo opera con abstracciones vacías (esta mesa, ese gato, ese
fenómeno, es decir, ese hecho atómico), no sólo en la explicación de los hechos,
sino en la teoría del conocimiento (separación absoluta entre síntesis y
análisis, experiencia y teoría, etc.) y se postra ante los hechos consumados sin
saber explicarlos. Es esta impotencia de explicar los hechos e intervenir en
ellos, sobre todo en el campo social, lo que lleva a estos realistas a buscar
415
salidas en supuestas leyes morales eternas (liberalismo) o en la introspección
mística y el nihilismo51.
Quizá Einstein exageró el papel independiente del pensamiento en la génesis de
las teorías, al señalar que entre la experiencia y la génesis de los conceptos
científicos más complejos no había un nexo, —quizá por considerar correctamente
que el conocimiento científico no puede surgir de la experiencia simplemente
individual— , además de subrayar insistentemente el carácter lógico formal que
deben tener las teorías científicas (cerrando aparentemente la posibilidad de
otros tipos de lógicas no lineales). No obstante, Einstein insistía en que la
corrección de una teoría se verifica con la experiencia y su aplicación a la
realidad, concebía lo empíricamente determinable como "una magnitud ciertamente
real"52, es decir, no en el sentido positivista. Además aclaró que ninguna
teoría, en especial la suya, puede tener un carácter absoluto, sino debe verse
como una aproximación a la realidad, que con el tiempo será rechazada o
complementada en situaciones aún desconocidas (lo que al mismo tiempo debería
abrir la posibilidad de otros tipos de lógica). El conocimiento es un proceso
infinito de aproximaciones sucesivas a la verdad, en donde, como decía Lenin "el
pensamiento humano se hace indefinidamente más profundo, del fenómeno a la
esencia, de la esencia de primer orden, por así decirlo, a la esencia de segundo
orden, y así hasta el infinito"53, proceso contradictorio que nunca llegará
hasta el final porque cada horizonte alcanzado abre otro nuevo.
Por supuesto que la postura filosófica de Einstein, postura que se acercó en
puntos importantes al marxismo, no es argumento para decidir las implicaciones
filosóficas de su teoría. Sin embargo es su teoría la que nos da elementos para
fundamentar una postura filosófica. Por ello es necesario insistir en que esta
teoría implica la existencia de una realidad orgánica cuatridimensional,
compuesta por sus tres dimensiones, el tiempo como la cuarta dimensión y al
espacio, ligados íntimamente con la materia, independientemente de que por ahí
se encuentre un sujeto con "categorías económicas". Es la teoría de Einstein,
relacionada con el famoso efecto Doppler*, la que nos señaló que las estrellas
que vemos en el cielo nocturno son fenómenos que existieron en el pasado, mucho
antes de que hubiera vida y, mucho menos, sujetos con categorías. Es esta teoría
la que nos ha permitido medir escalas de tiempo gigantescas en virtud de la
descomposición radioactiva, testimonio de que la naturaleza material precede a
la vida. Es esta teoría la que fundamenta las hipótesis sobre el nacimiento de
soles y galaxias. No cabe duda que todos estos fenómenos existen
independientemente de la subjetividad humana (a menos que alguien crea que en
una supernova pueda sobrevivir algún hipotético observador que haga posible el
fenómeno). El hecho de que el tiempo y el espacio no sean absolutos, no
416
significa que sean subjetivos, la relatividad del tiempo y el espacio se refiere
al movimiento, las características y las relaciones de los objetos materiales no
a la subjetividad (disfrazada en las vulgarizaciones como "punto de vista del
observador"). Además, como ya vimos, esta teoría implica una relación dialéctica
entre materia, espacio y tiempo, además, de poner en la materia la fuente última
de la energía.
Quizá el fenómeno más malinterpretado ha sido el concepto de simultaneidad. Los
profesores rojos, en el período posterior a la muerte de Stalin, ya habían
polemizado con las interpretaciones subjetivistas de la simultaneidad. Creo
necesario, por su contundencia, citar los argumentos principales en contra de
las tergiversaciones de la teoría de Einstein. "La identificación de lo relativo
y lo subjetivo es totalmente inadmisible", nos dice el profesor rojo Kuznetsov.
"El sujeto que conoce, el observador, (...) no es en modo alguno idéntico al
sistema de referencia. Este es un sistema, con existencia objetiva, de cuerpos y
procesos materiales relacionados entre sí por un determinado tipo de
coordinación espacio temporal, condicionado, en última instancia, por
interacciones materiales. (...) Considerar las relaciones entre un cuerpo dado y
el sistema de referencia elegido no significa poner el fenómeno bajo la
dependencia del punto de vista del observador, de su voluntad y de su
conciencia. Significa, únicamente, que de todas las relaciones objetivamente
existentes de un fenómeno con otro, nuestra atención se detiene en una y a
través de ella son estudiadas las propiedades del fenómeno mismo, que tiene
existencia objetiva".
"El hecho de que el investigador puede elegir el sistema de referencia que
estime conveniente no va unido en absoluto a la existencia o inexistencia del
objeto que se estudia, a la presencia o modificación en él de unas u otras
propiedades, etc. Esta elección determina únicamente el camino concreto por el
que el físico conoce el objeto, existente fuera del sujeto e independientemente
de él, pero que existe en relación con un determinado sistema de relaciones
materiales".
"Nos valdremos de una analogía para explicarlo: supongamos que estudiamos la
forma de un cuerpo examinando la forma que proyecta sobre pantallas planas. Al
dirigir sobre él un haz de luz sobre un lado, en la pantalla vemos un círculo
negro. Cambiamos la posición del cuerpo, lo iluminamos desde otro lado y en la
pantalla vemos un triangulo negro. Así ocurrirá si el cuerpo tiene forma cónica
y la primera vez fue iluminado por un haz de luz perpendicular a la base y la
segunda por un rayo paralelo a la base. Está claro que el cuerpo existe con
independencia del observador. Lo único que depende de éste es la elección de la
perspectiva desde la que examinará el cuerpo. Pero ni la forma del cuerpo, ni
417
siquiera la forma de las proyecciones del cuerpo sobre la pantalla depende de la
voluntad y la conciencia del sujeto. Una y otra, vienen determinadas enteramente
por la naturaleza del cuerpo mismo y por el carácter de las relaciones
espaciales que existen entre el cuerpo, los haces de luz y las pantallas".
"Lo relativo es lo objetivo que existe en un sistema concreto de relaciones
creadas por ese sistema. Lo que en la teoría de la relatividad es considerado
como relativo, depende sólo de las condiciones materiales. Las longitudes de los
cuerpos, su masa, el ritmo de los procesos, la coordinación de los
acontecimientos en el tiempo, la magnitud de las tensiones de los campos
eléctrico y magnético, etc.; no depende, en la teoría de la relatividad, del
punto de vista del observador, ni de la voluntad y la conciencia o de la
elección que él realiza, sino, exclusivamente, del movimiento material real, de
las relaciones materiales reales. En ello consiste su relatividad física"54.
Por supuesto que en la medición del tiempo hay un elemento subjetivo, a saber,
el patrón de medida que se utiliza para medir un intervalo. Así, por ejemplo, el
establecimiento de pesos y medidas es una elección arbitraria, así como lo es la
medición del tiempo de la vida diaria en función de la rotación de la Tierra (es
claro, no obstante, que la unidad de medida debe ser susceptible de expresar el
tipo de movimiento que pretende medir y que, por ende, la elección no es
absolutamente subjetiva). Pero no se debe confundir el acto de medir, con
determinados instrumentos o fenómenos elegidos arbitrariamente, con el objeto
medido y su magnitud espacial o temporal. Esta última existirá
independientemente de la medición. Así, la Tierratenía la misma circunferencia
antes de que el científico griego Eratóstenes la midiera por primera vez; este
hecho no lo altera la subjetividad humana sino, en todo caso, procesos físicos
de orden material. De modo que el hecho de que los procesos que son simultáneos
en el celebre ejemplo del tren en movimiento no lo sean con respecto a un
observador fijo a los rieles, sólo significa que la velocidad de la luz no
depende del movimiento inercial de los procesos y por tanto, ésta no se ve
acelerada por el movimiento del tren y, por tanto, existe un retardo, aunque en
este caso infinitesimal, en la llegada de la luz al observador fijo, lo que
explica la no simultaneidad de los procesos en sistemas en movimiento
diferentes. En este caso, tanto el movimiento del tren, la posición fija de los
rieles, la velocidad de la luz y las coordenadas espaciotemporales entre todos
estos elementos no dependen de la subjetividad del observador y se darán de la
misma manera en los diferentes campos de referencia independientemente de que el
observador pase por ahí.
No podemos terminar este capítulo, si no mencionamos que, además de los notables
puntos de convergencia entre el materialismo dialéctico y la teoría de la
418
relatividad y las respectivas teorías del conocimiento, Einstein, a partir del
genocidio de Nagasaki, se acercó al marxismo en un terreno más: en el de la
política; (y cuando decimos que se acercó al marxismo decimos que se mantuvo
alejado del estalinismo). Dejemos que Einstein termine este capítulo: "Ahora he
alcanzado el punto donde puedo indicar brevemente lo que para mí constituye la
esencia de la crisis de nuestro tiempo". (...) La anarquía económica de la
sociedad capitalista tal como existe hoy es, en mi opinión, la verdadera fuente
del mal. Vemos ante nosotros a una comunidad enorme de productores que se están
esforzando incesantemente privándose de los frutos de su trabajo colectivo.
(...). A este respecto, es importante señalar que los medios de producción, es
decir, la capacidad productiva entera que es necesaria para producir bienes de
consumo, tanto como capital adicional (...) es, propiedad privada de
particulares".
El capital privado tiende a concentrarse en pocas manos, en parte debido a la
competencia entre los capitalistas, y en parte porque el desarrollo tecnológico
y el aumento de la división del trabajo animan la formación de unidades de
producción más grandes a expensas de las más pequeñas. El resultado de este
proceso es una oligarquía del capital privado cuyo enorme poder no se puede
controlar con eficacia incluso en una sociedad organizada políticamente de forma
democrática. (....)
En particular, debe notarse que los trabajadores, a través de luchas políticas
largas y amargas, han tenido éxito en asegurar una forma algo mejorada de
‘contrato de trabajo libre’ para ciertas categorías de trabajadores. Pero tomada
en su conjunto, la economía actual no se diferencia mucho del capitalismo puro.
La producción está orientada hacia el beneficio, no hacia el uso. No está
garantizado que todos los que tienen capacidad y quieran trabajar puedan
encontrar empleo; existe casi siempre un ejército de parados. El trabajador está
constantemente atemorizado con perder su trabajo. Desde que parados y
trabajadores mal pagados no proporcionan un mercado rentable. (...) El progreso
tecnológico produce con frecuencia más desempleo en vez de facilitar la carga
del trabajo para todos. La motivación del beneficio, conjuntamente con la
competencia entre capitalistas, es responsable de una inestabilidad en la
acumulación y en la utilización del capital que conduce a depresiones cada vez
más severas. La competencia ilimitada conduce a un desperdicio enorme de
trabajo, y a ése amputar la conciencia social de los individuos que mencioné
antes.
Considero esta mutilación de los individuos el peor mal del capitalismo. Nuestro
sistema educativo entero sufre de este mal. Se inculca una actitud competitiva
419
exagerada al estudiante, que es entrenado para adorar el éxito codicioso como
preparación para su carrera futura.
Estoy convencido de que hay solamente un camino para eliminar estos graves
males, el establecimiento de una economía socialista, acompañado por un sistema
educativo orientado hacia metas sociales. En una economía así, los medios de
producción son poseídos por la sociedad y utilizados de una forma planificada.
Una economía planificada que ajuste la producción a las necesidades de la
comunidad, distribuiría el trabajo a realizar entre todos los capacitados para
trabajar y garantizaría un sustento a cada hombre, mujer, y niño. La educación
del individuo, además de promover sus propias capacidades naturales, procuraría
desarrollar en él un sentido de la responsabilidad para sus compañeros— hombres
en lugar de la glorificación del poder y del éxito que se da en nuestra sociedad
actual". Por último y después de mostrar que era un excelente lector de El
Capital, Einstein agrega algo que tira por la borda la afirmación infundada y
superficial de que en los países de bonapartismo proletario (estalinismo), por
usar el término científico de Trotsky, existía un supuesto socialismo real
(cliché tan de moda que no explica nada):
"Sin embargo", prosigue Einstein, "es necesario recordar que una economía
planificada no es todavía socialismo. Una economía planificada puede estar
acompañada de la completa esclavitud del individuo. La realización del
socialismo requiere solucionar algunos problemas sociopolíticos extremadamente
difíciles: ¿cómo es posible, con una centralización de gran envergadura del
poder político y económico, evitar que la burocracia llegue a ser todopoderosa y
arrogante? ¿Cómo pueden estar protegidos los derechos del individuo y cómo
asegurar un contrapeso democrático al poder de la burocracia?"55.
¡Sinceramente es difícil encontrar mejores lecturas de Marx!
III. TEORÍA DEL CAOS Y MATERIALISMO DIALÉCTICO
Introducción
Todo se debe al azar y a la necesidad
Demócrito, aprox. 460370 a.C.
La segunda ley de Newton, F=ma, establece que si las fuerzas que actúan sobre un
cuerpo son conocidas también lo será la aceleración; si conocemos la velocidad y
la posición en un momento dado, el movimiento quedará determinado para toda la
eternidad. Así hasta hace muy poco la ciencia era sinónimo de determinismo
absoluto; el azar y el accidente estaban desterrados por decreto de la
420
naturaleza o, en el mejor de los casos, se consideraban como perturbaciones que
no tomaban parte de la esencia de su desarrollo. El azar era identificado con la
ignorancia. En realidad, el azar no existía objetivamente, sino que constituía
un indicador de nuestro desconocimiento, hablábamos de un fenómeno subjetivo.
Así Laplace escribió en 1776: "si imaginamos una inteligencia que en un instante
dado abarcara todas las relaciones entre los entes de este universo, podría
decir las posiciones respectivas, los movimientos y las propiedades generales en
cualquier tiempo del pasado y del futuro (...) Así es como debemos a la
debilidad de la mente humana una de las más delicadas e ingeniosas de las
teorías matemáticas, la ciencia del azar y la probabilidad"56.
En contraste, ya en el año 400 a.C. Demócrito había dicho: "Todo se debe al azar
y a la necesidad"57. Para Engels, de la misma manera, necesidad y accidente sólo
eran las dos caras de la misma moneda; si el accidente era concebido,
incondicionalmente, como un fenómeno puramente subjetivo, la necesidad también
sería convertida en ilusión. "El sentido común y con él la mayoría de los
naturalistas", comentó Engels, "tratan a la necesidad y a la casualidad como
determinaciones que se excluyen entre sí y para siempre. Una cosa, una
circunstancia, es un proceso, es accidental o necesario, pero no ambos a la vez
(...) Y luego se afirma que lo necesario es lo único de interés científico, y lo
accidental es indiferente a la ciencia (...) de ahí que toda ciencia llegue a su
fin, pues tiene que investigar precisamente aquello que no conocemos. (...)
Cualquiera puede advertir que éste es el mismo tipo de ciencia que proclama
natural lo que puede explicar, y asigna a causas naturales lo que no le es
posible explicar. Que yo denomine casualidad la causa de lo inexplicable o
que la llame Dios, es en todo sentido indiferente a lo que se refiere a la cosa
misma. Una y otra equivalen a no sé. (...) De ahí que la casualidad no se
explique aquí por la necesidad, sino más bien la necesidad se degrada hasta la
producción de lo que es apenas accidental (...) En contraste con ambas
concepciones, Hegel formuló las proposiciones hasta entonces desconocidas de que
lo accidental tiene una causa porque es accidental, y de la misma manera carece
de causa porque es accidental; que lo accidental es necesario, que la necesidad
se determina como casualidad y, por otro lado, esa casualidad es más bien
necesidad absoluta"58.
Esta manera dialéctica de concebir la naturaleza, la necesidad en el accidente y
lo accidental en la necesidad, es una de las ideas fundamentales de una nueva
ciencia, que algunos llaman junto con la teoría de la relatividad y la mecánica
cuántica, la tercera gran revolución científica del siglo XX: la teoría del
caos. Esta teoría que apenas tiene poco más de treinta años de existencia, ha
abierto una prometedora línea de investigación para entender fenómenos complejos
421
y contradictorios, que parecían indescifrables para el conocimiento humano y han
transformado dialécticamente la idea de determinación en la ciencia. El tiempo
meteorológico, la dinámica de las poblaciones, la complejidad creciente, las
irregularidades en la naturaleza, entre muchos otros fenómenos, sólo se pueden
comprender si, como decía Engels, concebimos el caos y el orden en su mutua
determinación e interdependencia, en donde, el orden, la vida, los nuevos
fenómenos, la complejidad, surgen del caos y el caos del orden, de las
bifurcaciones debidas a diferencias accidentales, así como dentro del caos mismo
se encuentra un orden subyacente complejo y sencillo al mismo tiempo
(fractalidad). Los fenómenos que creíamos lineales y mecánicos, paradigmas del
determinismo, se convierten por ese mismo cambio lineal en fenómenos caóticos.
Que la casualidad es un fenómeno objetivo, tanto como la más férrea necesidad y
que gracias a esta interdependencia la naturaleza no es un ciego autómata
predeterminado para toda la eternidad, sino que implica flexibilidad,
creatividad, el surgimiento de infinidad de nuevos fenómenos debidos a cambios
accidentales que no se pueden determinar por siempre y que, no obstante, no
dejan de estar regidos por leyes subyacentes. Como dice el premio
Nóbel, Ilya Prigogine "El futuro es incierto, más incierto aún de lo que hacía
presagiar la mecánica cuántica tradicional con las relaciones de incertidumbre
de Heisenberg"59. Es un futuro incierto, es verdad, pero creativo y, al
contrario de lo que creía Heisenberg, regido por leyes objetivas. El accidente,
que se creía haber arrojado fuera de la ciencia, se ha metido por la puerta
trasera, enriqueciendo prometedoramente a la ciencia y a la concepción de
causalidad misma.
Es intención de este capítulo mostrar que la teoría del caos representa,
implícitamente, una reivindicación de las ideas que hace más de cien años
explicara Engels. Que estas ideas se hayan desarrollado al margen de la
filosofía marxista, aunque es cierto que los primeros científicos en
profundizarla fueron físicos soviéticos (V. Arnold y A. Kolmogorov), es una
muestra de que ésta no representa un dogma sino una aproximación a los fenómenos
complejos y no lineales. La teoría del caos, como veremos, implica la unidad e
interpenetración de los contrarios, los cambios cuantitativos que se transforman
en cualitativos, la negación de lo viejo y el surgimiento de nuevos fenómenos,
la objetividad de la línea del tiempo (del carácter progresivo del desarrollo),
es decir, de las ideas que Engels y Marx desarrollaron como concepción del
mundo.
422
a) Teoría del caos: susceptibilidad a las condiciones iniciales. Necesidad y
accidente
Excepto en economía, donde la teoría de Marx se constituyó como la única manera
coherente de entender la sociedad capitalista, las ideas dialécticas
prácticamente no encontraron eco como método entre amplios sectores de la
comunidad científica. No fue sino hasta 1908 con el trabajo de
HenriPoincaré (Ciencia y Método), que se llamó la atención sobre el efecto de
pequeñas incertidumbres en la medición, que en sí mismas no alteran leyes
deterministas, pero pueden transformar totalmente el fenómeno mas allá de cierto
punto. Poincaré escribió que "nosotros sólo podemos conocer la situación inicial
de manera aproximada. Si esto nos permitiera conocer la situación que sigue en
el tiempo con la misma aproximación, es todo lo que necesitaríamos, y podríamos
decir que el fenómeno ha sido predicho, que está regido por leyes. Pero esto no
es siempre así; puede ocurrir que pequeñas diferencias en las condiciones
iniciales produzcan condiciones muy diferentes en los fenómenos finales"60. A
pesar del tono reservado,Poincaré es considerado como el fundador de los métodos
que están en la base del caos determinista. No obstante, pasaron más de sesenta
años antes de que sus ideas fueran retomadas, fundamentalmente por las
limitaciones técnicas en los cálculos que son necesarios para entender la
dinámica no lineal del caos (debido a factores objetivos), pero también debido
al factor subjetivo: la ortodoxia dominante no podía aceptar ideas que
implicaran interrupciones, saltos y contradicciones. El mismo Poincaré escribió
que: "La lógica a veces engendra monstruos. Desde hace medio siglo se han visto
surgir una multitud de funciones raras que parecen esforzarse lo menos posible a
las honestas funciones que sirven para cualquier cosa. No más continuidad, no
más derivadas, etc."61. ¡Estas funciones raras y monstruos matemáticos
(fractales) representan, paradójicamente, la matemática discontinua y
contradictoria que subyace a la teoría cuyo pionero es el mismo Poincaré!
La mecánica clásica con su concepción lineal del desarrollo sólo es correcta
cuando tratamos de sistemas simples formados por la interacción de dos variables
continuas (como dos planetas y dos cuerpos, por ejemplo) pero la cosa cambia
cuando hablamos de sistemas de más de tres variables; el caos se comienza a
presentar en fenómenos tan simples como en un juego de billar. Como explican
investigadores en la teoría del caos, quizá de una forma exagerada, pero que
ilustra bien la esencia de la cuestión planteada por Poincaré: "Con un simple
golpe, el jugador provoca en el juego de bolas una prolongada sucesión de
colisiones, (...) ¿durante cuánto tiempo podría predecir la trayectoria de las
bolas un jugador con un control perfecto de su taco? Si el jugador de billar
ignorase un efecto tan minúsculo como la atracción gravitatoria de un electrón
423
situado en el borde de la galaxia, ¡la predicción sería errónea al cabo de un
minuto! El extraordinario aumento de la incertidumbre débase a que las bolas
están curvadas por lo que las pequeñas diferencias en el punto de impacto se
amplían en cada colisión. Ampliación que es exponencial: crece con cada colisión
(...) Cualquier efecto, por pequeño que sea, adquiere rápidamente proporciones
macroscópicas"62.
Esta propiedad de ampliación exponencial de las perturbaciones, propia de los
fenómenos dinámicos complejos, es llamada "sensibilidad a las condiciones
iniciales" y es una idea central de la teoría del caos. Si esto sucede con la
predicción en el humilde juego de billar ya podemos imaginar lo que sucede con
un gas en donde un sólo centímetro cúbico contiene 27 trillones de átomos: aquí
es imposible explicar la dinámica del gas mediante el movimiento de las
partículas individuales, es decir, mediante matemáticas diferenciales que tratan
sobre movimientos lineales.
La "sensibilidad a las condiciones iniciales", como se puede ver claramente, no
es más que otra manera de expresar la idea de los cambios cuantitativos que se
transforman en cualitativos, un cambio insignificante puede a la larga producir
cambios espectaculares. Un buen ejemplo para ilustrar esta idea es la de "un
camello muy cargado al que, en cierto momento, se le añade una pajita y se rompe
su espalda. La paja es en extremo liviana pero el peso extra que añade tiene una
consecuencia fuera de toda proporción"63. La fractura del infortunado camello
representa una interacción entre la miserable paja y el resto de las variables
que afectan al camello y que tienen resultados inesperados. Este ejemplo
aparentemente chusco ilustra la dinámica de la complejidad y no es una simple
anécdota curiosa como pudiera parecer. Ilya Prigogine comenta que "El caos es
siempre consecuencias de inestabilidad. El péndulo sin fricción es un
sistema estable , pero curiosamente la mayoría de los sistemas de interés
físico, tanto en el ámbito de la mecánica clásica como de la cuántica, son
inestables. En estos sistemas una pequeña perturbación se amplifica, unas
trayectorias inicialmente cercanas se separan. La inestabilidad introduce
aspectos nuevos esenciales64".
En realidad el universo no es un sistema de dos cuerpos aislados, sino que
consiste en la interacción infinita entre la multiplicidad de los fenómenos que
se determinan recíprocamente. Como dice Engels: "En el hecho de que estos
cuerpos se encuentren relacionados entre sí ya se incluye el de que reaccionen
los unos sobre los otros, y precisamente esa reacción mutua constituye el
movimiento"66. En ciertas condiciones, es posible aislar un proceso de la
interacción universal y comprenderlo así separado, pero en la teoría del caos se
trata de comprender al fenómeno como totalidad: ahí en donde el aislamiento
424
mecánico se torna un dogma para comprender la realidad como en la mayoría de los
procesos de interés para la ciencia moderna. Sin interacción el universo sería
nada: "En cierto modo", nos explica Prigogine "es una suerte que Poincaré haya
demostrado la imposibilidad de eliminar las interacciones. Si se pudieran
eliminar, el universo sería isomorfo a un universo de partículas libres, y todo
sería tan incoherente que no habría química, ni biología, ni por supuesto
culturas humanas"67.
La comprensión de la imposibilidad de entender la totalidad en un fenómeno
complejo por las posiciones y velocidades de los elementos individuales se vio
impulsada por la termodinámica: el movimiento de las partículas de un gas sólo
podía comprenderse colectivamente como el promedio de sus estados de libertad
(todos los estados posibles del contenedor del gas). La pregunta no era ya donde
se encuentra esta partícula, sino qué probabilidades hay de encontrar una
partícula en determinado lugar y determinado tiempo; esto llevó a afirmar
a J . C. Maxwell en oposición al mecanicismo de Laplace que: "La lógica
verdadera de este mundo está en el cálculo de probabilidades"68. Este método
representa ya un alejamiento de las certidumbres tranquilizadoras e
incondicionales; no obstante, la indeterminación era vista como la simple
acumulación cuantitativa de elementos simples, es decir, la imposibilidad de
determinar el movimiento de las partículas individuales se atribuía a una
incapacidad subjetiva y no al hecho de que el movimiento caótico fuera esencial
al sistema; la visión mecanicista y la estadística convivieron como antípodas
entre el conocimiento y la ignorancia, entre lo conveniente (el mecanicismo) y
un método que se utilizaría mientras no se pudiera utilizar la ciencia
verdadera. Comentando el idealismo, Prigogine comenta que en éste: "Habría que
atribuir el funcionamiento de nuestra vida a nuestra ignorancia, o relegarla a
lo que es solamente fenomenológico" (como en la fenomenología subjetivista
de Husserl) "¿Es menos fundamental la vida que la no vida?" (...) "por suerte
(...) hoy podemos relacionar la irreversibilidad no ya a nuestra ignorancia,
sino con la estructura fundamental de las leyes de la dinámica clásica o
cuántica, formuladas para los sistemas inestables o caóticos"69.
En la teoría del caos el accidente es tan objetivo como la necesidad. De acuerdo
con Ilya Prigogine "la novedad reside en que actualmente tenemos sistemas
caóticos muy simples, y ya no nos sirve la coartada de la complejidad. El
carácter inestable e irreversible pasa a ser parte integrante de la descripción
en el nivel fundamental" y más adelante agrega que "La irreversibilidad, una vez
más, no se debe a nuestra intervención en la naturaleza, sino a la formulación
de la dinámica extendida a los sistemas dinámicos inestables (...) Así pues, las
trayectorias (individuales) no son eliminadas por razones de dificultad de
425
cálculo, sino de principio"70. Ya en el primer cuarto de siglo, la mecánica
cuántica había mostrado que la probabilidad era fundamental para la comprensión
de las leyes físicas.
b) El caos que nace del orden: atractores extraños
Es necesario comentar un poco sobre el espacio de fases,
los atractores extraños, y otras cosas más; exposición que podrá ser pesada,
pero es fundamental para pasar a estudiar la fractalidad del caos o el orden
subyacente al caos. Para el estudio de los sistemas caóticos el viejo sistema
cartesiano es inútil. En lugar de representar el fenómeno por los puntos
individuales y rígidos, en el plano se introduce el llamado "espacio de fases"
que representa el fenómeno en su totalidad como una figura geométrica en
movimiento haciendo visibles los grados de libertad del sistema (sus variables
independientes); en esta representación las variables independientes del sistema
(por ejemplo coordenadas de posición x, y, z, de velocidad e impulso, el
tiempo, etc) son tratadas como diversas dimensiones del proceso o como sus
grados de libertad.
El movimiento oscilante de un péndulo, por ejemplo, puede ser representado en el
espacio de fases con las variables de impulso y posición; así si el péndulo
recibe un impulso y después de un lapso, por pérdida gradual de energía (estos
sistemas son llamados disipativos) vuelve a su estado de reposo (el punto "a" en
la figura) el espacio de fases sería el de la figura 1. En este caso el punto
"a" es el punto a donde el sistema tiende a llegar; este punto de atracción es
llamado atractor; si, por el contrario, se tratara de un péndulo ideal sin
pérdida de energía (los sistemas que conservan su energía son
llamados hamiltonianos) o recibiera constantemente energía del exterior para
continuar su oscilación constante, el espacio de fases sería como el de la
figura 2, ahora su atractor periódico consistiría en la curva cerrada que
describe su movimiento; esta curva atractora sería también su cuenca de
atracción.
Para complicar un poco las cosas y llegar a la representación de un proceso
caótico, representemos ahora el movimiento pendular como un conjunto de dos
péndulos acoplados que influyen mutuamente en su movimiento y que no tienen
pérdida de energía (un sistema hamiltoniano) como se ilustra en la figura.
En este caso, en la representación del espacio de fases los dos péndulos que
interactúan se combinan y sus trayectorias, que independientemente se
representarían como planos o curvas cerradas, resultan en una trayectoria de
426
tres dimensiones ya que ambas trayectorias se desvían del plano horizontal,
describiendo una trayectoria en anillo selenoide en tres dimensiones. Si el
movimiento (las frecuencias) de los péndulos acoplados están en una relación
simple, entera o mensurable (por ejemplo 1/9), su trayectoria, es lineal porque
siempre pasa por los mismos puntos del espacio de fases (a la figura que
describe el espacio de fases se le llama toro) su comportamiento es totalmente
predecible y determinado. (véase la figura siguiente).
Si los períodos de las oscilaciones, en cambio, son inconmensurables, resultan
en un número irracional o una representación decimal infinita ("Pi" es un
ejemplo de número irracional) la curva en el espacio de fases nunca se repetirá
a sí misma, su trayectoria o su cuenca de atracción se moverá hasta cubrir casi
toda la superficie de la figura (del toro), sin embargo, este sistema no es aún
caótico porque las trayectorias de los péndulos se mantendrán siempre juntas y
si sabemos la posición de una en un punto determinado sabremos la posición de la
otra. A estos sistemas se les llama sistemas cuasiperiódicos (véase la figura).
En realidad no existen los péndulos ideales, un péndulo siempre está sometido a
los flujos de aire, a vibraciones pequeñas que provocan perturbaciones
aleatorias que los separan de su cuenca de atracción. No obstante, en los
péndulos con movimientos lineales, estas pequeñas perturbaciones se pueden
ignorar porque el péndulo, a pesar de los pequeños movimientos caóticos, tiende
a regresar a su atractor lineal, el margen de error no ha llegado al punto
crítico en donde pasamos al caos. Pero si en este sistema hamiltoniano (sin
pérdida de energía) de péndulos acoplados, aun en estas condiciones ideales, las
perturbaciones se amplifican por un impulso cambiante y una amortiguación que
saque a los péndulos de su cuenca de atracción, cosa que bien puede suceder,
pues el péndulo no está aislado del mundo circundante. Entonces las trayectorias
vecinas separan su dimensión en el espacio de fases, ya no se puede expresar con
números enteros (como en la geometría euclidiana), su dimensión es mayor que dos
(mayor que los planos en dos dimensiones que veíamos) pero menor que tres (no
llega a ser un cuerpo de tres dimensiones), es decir una situación intermedia
entre una superficie y un volumen. Su atractor (hacia lo que tiende las
trayectorias) es llamado atractor extraño porque al mismo tiempo que tiende a
ocupar el toro (o la figura), tiende al mismo tiempo a separarse
del atractor vecino dejando infinitos puntos por los que no pasa y adquiriendo
infinitos valores "caóticos" en cada momento (véase la figura).
"Será imposible el seguir las vueltas", nos dice el profesor Sametband, "prever
si en un centímetro más adelante va a replegarse, ir hacia adentro del ovillo, o
hacia fuera, etc; como tiene sensibilidad a las condiciones iniciales, la más
ínfima alteración de éstas se representará con otro ovillo enmarañado cuyas
427
vueltas no tienen nada que ver con el primero, aunque el volumen que ocupa sea
prácticamente el mismo"75. Con el atractorextraño impredecible hemos entrado al
caos en donde, como afirma Prigogine, lo aleatorio no se debe al desconocimiento
o a la subjetividad humana, sino a las interacciones objetivas del proceso y a
la susceptibilidad a los pequeños cambios despreciables que se amplifican hasta
transformar el proceso; la dinámica es caótica porque es aleatoria, pero al
mismo tiempo está determinada porque se mantiene en promedio dentro del toro o
del espacio de fases; aquí es imposible despreciar lo accidental por la simple
razón de que no se pueden despreciar las interacciones recíprocas (dialécticas).
"Puesto que los atractores tienen tamaño finito" (ya que están determinados al
espacio de fases), nos comentan un grupo de científicos del caos, "dos órbitas
en uno de ellos no pueden divergir exponencialmente de manera indefinida. En
consecuencia el atractor debe plegarse sobre sí mismo, aunque las trayectorias
diverjan y sigan caminos cada vez más alejados; en algún momento habrán de
acercarse de nuevo entre sí, (...) para imaginar lo que ocurre con las
trayectorias vecinas en un atractor caótico, coloquemos una gota de colorante
azul en una masa. El amasado consiste en dos acciones: estirar la masa, con la
consiguiente extensión del colorante, y plegarla sobre sí misma (...) y con el
paso del tiempo se estira y se repliega muchas veces (...) tras tan sólo 20
pasos, la gota inicial se habrá estirado hasta más de un millón de veces de su
longitud original y su espesor ha disminuido hasta el nivel molecular"76. Este
proceso de plegado y estirado en el espacio de fases caótico se ilustra en la
siguiente figura.
c) El orden del caos: fractalidad (atractores extraños)
Lo hostil se une; de lo divergente surge una muy bella armonía y todo esto se
produce por medio de la lucha.
Heráclito
Si nosotros hiciéramos un corte transversal del toro para determinar la posición
de las trayectorias en un punto determinado de un sistema caótico (corte llamado
sección de Poincaré) como en la figura siguiente, nos percataremos que las
trayectorias son fractales: es decir describen una figura que
tiene autosimilitud o, en caso de fractales no lineales, irregularidad en su
estructura a cualquier escala a la que la miremos, que tiene longitud infinita y
dimensión fraccional, su atractor, a pesar de que en el siguiente momento el
corte habrá cambiado, es un fractal una figura caótica pero ordenada.. ¡Todo
este caos misterioso se oculta en el simple movimiento de dos péndulos acoplados
que se suponían eran los paradigmas del movimiento lineal!, ¡aun la linealidad
428
mas monótona de un péndulo simple puede transformarse por pequeños cambios en un
movimiento complejo! Por eso es quePrigogine dice que la indeterminación no es
necesariamente sinónimo de muchas variables, como se creía en los cálculos de
probabilidades de la termodinámica, sino resultado de la acumulación
cuantitativa de las perturbaciones en los movimientos simples y mecánicos.
Los fractales se presentan como la "huella del caos". La fractalidad del caos,
junto con la misma teoría del caos, y la nueva matemática que ésta implica
(llamada topología), está en contradicción con la matemática euclidiana, que
sólo puede trabajar con realidades que se puedan medir con reglas, escuadras y
compases, —de la misma manera que la lógica formal sólo trabaja con tautologías
y que el liberalismo sólo tiene ojos para el desarrollo lineal (una verdadera
obsesión enfermiza)— calificando a la realidad contradictoria, abollada,
irregular como una monstruosidad en lugar de adaptar su teoría a la realidad
(éste es el Talón de Aquiles del idealismo). Como decía Goethe: "gris es la
teoría, pero verde es el árbol de la vida". De hechofractal significa fractura.
Las fracturas y las irregularidades nos rodean por todas partes; como
decía Mandelbrot (trabajador de la IBM, que desentrañó estas estructuras): "las
nubes no son esferas, las montañas no son conos, las costas no son círculos, ni
la corteza de los árboles es lisa ni un rayo viaja en línea recta... La
naturaleza no solamente exhibe un grado mayor, sino también un nivel diferente
de complejidad". Los fractales no sólo aparecen en formas inertes sino, sobre
todo, en la dinámica de procesos caóticos. Parece que la mayoría de los objetos
y procesos del universo sonfractales (aunque más complejos que cualquier
abstracción). La distribución de estrellas y galaxias en el universo mismo tiene
una estructura fractal, la superficie de las células, la forma de la nubes, las
montañas, la radiación de los quásares, los árboles, los líquenes, los
relámpagos, la membrana nasal, los pulmones, las venas y arterias, los nervios,
el cerebro, la distribución de palabras en este texto, los ruidos de fondo en un
aparato telefónico, la música de Beethoven, etc. ¡La matemática había ignorado
la mayoría de los objetos del universo! En realidad la matemática euclidiana
como la lógica formal y el liberalismo, tienen campos de aplicación muy
estrechos y se convierten en abstracciones vacías mas allá de cierto punto.
Los fractales son estructuras que están plegadas sobre sí mismas de manera
infinita, son tan irregulares que no son diferenciables matemáticamente en
ningún punto, es decir, es imposible trazar una tangente en cualquiera de sus
infinitos puntos. Se suponía que la matemática era un ejemplo de perfección
absoluta, ¡nada más lejano a la realidad! Cuando vayamos a la costa, por
ejemplo, intentemos medir su perímetro; como dice Eliezer Braun: "podemos seguir
indefinidamente de esta manera, tomando unidades cada vez más y más pequeñas.
429
Intuitivamente esperaríamos que la sucesión de valores que se obtenga para las
longitudes de la costa, medidas de esta manera, tendería a alcanzar un valor
bien definido que sería la verdadera longitud de la costa; sin embargo, esto no
ocurre; de hecho lo que sucede es que esta sucesión de longitudes aumenta cada
vez más y más. Es decir, al seguir el proceso indefinidamente la longitud de la
costa que se mide se va haciendo más y más grande, es decir, ¡la longitud de la
costa tiene un valor infinito!"78. La curva de Koch es un ejemplo de una línea
infinitamente plegada, que encierra un área finitamente determinada, como sucede
en el perímetro de los continentes (véase la figura).
Los paladines de la lógica formal habían supuesto que el finito y el infinito se
encontraban separados por un abismo irreductible, en donde lo finito se dejaba
para la ciencia y el infinito para el misticismo; de hecho las bases del
positivismo están en el supuesto de que sólo conocemos las cosas particulares;
pero en la vida real, el infinito se encuentra en lo finito y lo finito no es
más que un elemento de un infinito que, al mismo tiempo, jamás conoceremos en su
totalidad, ¡de otra forma llegaríamos al absurdo de una totalidad infinita y sin
embargo contada! Por eso cuando descubrimos una ley en un conjunto de fenómenos
finitos, podemos estar seguros que en todos los infinitos casos en donde esas
condiciones se presenten, la ley se cumplirá incondicionalmente. Engels había
comentado que "la infinitud es una contradicción en sí misma. Ya es una
contradicción el que una infinitud tenga que estar compuesta de honradas
finitudes (...) precisamente porque la infinitud es una contradicción, es
infinita, un proceso que se desarrolla sin fin en el espacio y en el tiempo. La
superación de la contradicción sería el final de la infinitud"80.
Otro ejemplo es el movimiento browniano (se supone que las partículas
subatómicas y las partículas suspendidas describen este movimiento) que en su
trayectoria describe una infinita irregularidad de movimientos, de tal manera
que, si nosotros establecemos los puntos por los que pasa en un tiempo
determinado y dibujamos su trayectoria (en un segundo por ejemplo), para la
medición en milésimas de segundo en el mismo lapso, la partícula habrá pasado
por otra infinidad de puntos aleatoriamente y así hasta el infinito, para
tiempos más cortos, pero, además, el dibujo de su trayectoria
seráfractal (autosimilar) en todos los niveles. Es decir su irregularidad tendrá
un patrón o un orden fractal (véase la figura).
Los fractales, por tanto, son estructuras geométricas verdaderamente
contradictorias (patológicas como se les llama en matemáticas). Así, el polvo de
Cantor (un fractal de una dimensión) tiene longitud cero y al mismo tiempo,
infinidad de puntos (porque a medida que disminuimos la escala, la longitud
total tiende a cero, mientras que "el polvo" va aumentando), o la empaquetadura
430
de Sierpinski (fractal en dos dimensiones), que tiene un perímetro infinito,
pero su área es de cero (véase la figura) o la esponja de Menger (fractal en
tres dimensiones), que tiene área superficial infinita y volumen nulo y por si
fuera poco, todas estas estructuras tienen autosimilitud hasta el infinito
(véase la figura).
Debemos repetir que estos monstruos matemáticos no son curiosidades: "hay cada
vez más pruebas", nos dice Leonard Sander, estudioso de la formación espontánea
de fractales en la naturaleza, "de que la naturaleza siente un amor
verdaderamente profundo por las formas fractales"82. ¡Incluso el crecimiento
demográfico de las ciudades tiene una estructura fractal! (véase la imagen).
Para evitar cualquier interpretación mística de la fractalidad hay que aclarar
que, aunque la estructura fractal constituye una aproximación mucho más cercana
a la realidad que la matemática euclidiana, la fractalidad en la naturaleza es
más compleja aún que los modelos generados por computadora. En primer lugar
la autosimilitud de las estructuras y procesos caóticos constituye
una autosimilutud estadística, se repetirá considerando procesos y estructuras
del mismo tipo a gran escala; en segundo lugar la autosimilitud fractal en la
naturaleza tiene límites cuantitativos más allá de los cuales se pasa a otro
tipo de estructura. "A nivel microscópico llegará el momento en que la figura se
desdibuje y nos encontremos con los átomos y las moléculas; a nivel macroscópico
siempre hay una frontera en que el objeto real cambia de un tipo de patrón a
otro"84. Estos saltos cualitativos de una estructura fractal a otra están
determinados por las leyes mismas del proceso estudiado, por ejemplo, por la
gravedad (a nivel macroscópico) o por la función de onda (a nivel microscópico).
No es suficiente con mostrar la estructura fractal de un proceso, puesto que
la fractalidad se da en fenómenos muy diversos; es necesario, además y sobre
todo, explicar las leyes inmanentes al fenómeno y descubrir cómo éstas se
relacionan con la forma fractal. Para no mistificar la teoría es necesario,
pues, vincular orgánicamente la forma y el contenido del proceso estudiado o en
otras palabras concebirlo dialécticamente.
Los asombrosos conjuntos de Mandelbrot, figura resultado de representar en un
plano complejo números generados con iteraciones (repeticiones de una misma
operación sucesivamente sobre los resultados obtenidos) sobre la serie de
números complejos llamados "conjuntos de Julia", utilizando una función
cuadrática, constituyen una clase de fractales que se acercan aún más a
la fractalidad que se presenta en la realidad concreta. Estos son un conjunto de
"fractales no lineales" que presentan autosimilitud conservada hasta cierto
punto, para transformarse posteriormente en otro tipo de estructuras fractales,
que se transforman en otras y otras por medio de saltos dialécticos hasta el
431
infinito (véase la imagen del conjunto de Mandelbrot) así como en la naturaleza
nos encontramos progresivamente en una dinámica infinita con estructuras
autoorganizadas a diversas escalas de la realidad, estructuras formales que ya
predicen la existencia de leyes cualitativamente diferentes con cada nuevo salto
dialéctico: cúmulos de galaxias, galaxias, estrellas y planetas, cordilleras,
moléculas, átomos, partículas subatómicas, quarks...
El comportamiento del simple péndulo que veíamos más arriba, por tanto, no es
una simple anécdota académica. Éste se presenta también en el flujo turbulento,
en el tiempo meteorológico, en la dinámica de la población; y en un número cada
vez más creciente de multitud de fenómenos que parecían incomprensibles,
inclusive, el movimiento del sistema solar. En este último, que se supone es un
sistema hamiltoniano (que conserva su energía) y, además, es el símbolo clásico
del mecanicismo, nos encontramos con nuestro buen amigo el caos. Newton
descubrió las leyes que rigen la interacción de dos cuerpos por el simple hecho
de tener masa y consideró al sistema solar como la simple interacción entre el
sol y los planetas como si éste se redujera a un sistema de dos cuerpos,
considerando que la gravedad de los demás planetas y masas que componen el
sistema solar eran despreciables en comparación a la fuerza gravitatoria del sol
y, por tanto, lo trató como un sistema estable para toda la eternidad, desde que
Dios se dignó a darle el primer impulso —de paso vemos como la imposibilidad de
entender la relación entre lo necesario (las leyes de Newton en este caso) y lo
accidental (la perturbación de los otros cuerpos) llevó a Newton directamente
a la Teología para tratar de garantizar la estabilidad del universo—. Sin
embargo, la mecánica newtoniana significó un paso de gigante en la comprensión
de la naturaleza ya mucho antes con este método, aunque aún sin bases teóricas
firmes, Tales de Mileto predijo un eclipse que tuvo lugar el 28 de mayo del año
584 a.C.
Para los tiempos humanos la estabilidad del sistema solar está garantizada pero
el tiempo es, como vimos, relativo, y para el sistema solar los tiempos humanos
no son más que suspiros; en realidad el sistema solar no se reduce a la
atracción entre dos cuerpos; las cosas se complican con la interacción
gravitatoria entre tres cuerpos y cada vez que agregamos un cuerpo, las cosas se
complican aún más; las leyes que dominan los sistemas de más de dos cuerpos no
son lineales y, por ende, son susceptibles a las condiciones iniciales. "Resultó
que el comportamiento de los nueve planetas, a partir de los próximos cuatro
millones de años, revela que el sistema planetario está en un estado caótico.
Para nuestra tranquilidad, esto no significa que el caos en el sistema solar sea
de tales características que se vaya a aniquilar dentro de poco tiempo, con
planetas chocando entre sí, o huyendo hacia otras galaxias, sino que sus órbitas
432
son impredecibles cuando se calculan para tiempos del orden de los cien millones
de años y, por lo tanto, sólo se puede anticipar que se moverán en el espacio
dentro de zonas determinadas"85.
Esto significa que si un humilde asteroide pasa un kilómetro mas cerca de la
Tierra, dentro de cuatro millones de años, esa diferencia, junto con las miles
de perturbaciones provocadas por otros cuerpos miserables, se habrá amplificado
exponencialmente y cambiará su órbita radicalmente. Este comportamiento se
observa ya en los asteroides que, para pequeños cambios en la distancia del Sol,
entran en una región caótica; lo mismo se encontró en la órbita de Plutón y en
el cambio periódico del giro sobre su eje de un satélite de Saturno (Hiperión),
provocado por simples irregularidades en su forma elongada.
d) El orden que nace del caos: Ventanas de orden
En la dinámica de la población, el caos se presenta de una manera increíble; lo
explicaremos porque este comportamiento es esencial en el surgimiento de la
complejidad a partir de lo lineal, del caos a partir de lo complejo y del orden
a partir del caos. La ecuación demográfica parecía tener siempre un
comportamiento lineal y cuando se daban perturbaciones se atribuía al
desconocimiento de las variables. Pero en 1970, estudiando el ciclo de insectos
y bacterias, se descubrió algo asombroso. Cuando la tasa de natalidad es menor a
uno, la población desaparece paulatinamente; cuando la tasa de población es
mayor a dos, después de algunas fluctuaciones, la tasa de la población queda
estabilizada en 0.5, para 2.7 la tasa fluctúa en virtud del crecimiento y los
depredadores para, finalmente, estabilizarse en 0.63; hasta una tasa menor a
tres pero mayor a 1, la población queda estacionaria teniendo como atractores a
una sola cifra (dependiendo de la tasa) y no importa cuantos ciclos
consideremos, la población tenderá a estabilizarse en suatractor; pero en el
punto crítico de 3.0 se da el cambio cualitativo, la tasa de población se hace
compleja y el atractor se bifurca en dos valores estables que se alternan
anualmente (véase la gráfica) que representa la interacción entre los
depredadores y la población considerada, provocando ciclos periódicos. Para una
tasa de 3.4495, los ciclos bifurcados se vuelven inestables y se dividen en
cuatro estados estables que se vuelven a alternar; si seguimos aumentando la
tasa, los atractores se bifurcan de nuevo a 8, luego a 16, etc. Hasta aquí vimos
como un cambio cuantitativo en un esquema lineal y determinado provoca un cambio
cualitativo a la complejidad; no obstante, el sistema sigue siendo perfectamente
determinable; pero para un punto crítico poco menor a 3.56999 el sistema se
vuelve inestable, cualquier cambio infinitesimal puede desencadenar el caos;
433
cuando éste se desencadena, tenemos un proceso irreversible que ha saltado al
caos (véase la figura), ya es imposible determinar la tasa de población para el
año siguiente.
Cuando estamos al borde del caos, el más pequeño cambio cuantitativo provoca una
brusca transición cualitativa, como una explosión atómica o como el inicio de
una revolución social, que puede estallar por el más mínimo ataque a los niveles
de vida (como, por cierto, se dio en Argentina cuando la clase media vio
esfumados sus ahorros). Este punto crítico está expresado en el famoso efecto
mariposa acuñado por Lorenz, que en meteorología representa que, más allá de
cierto tiempo, nuestra predicción en las condiciones meteorológicas ya no se
aplica, en virtud de los mas pequeños cambios meteorológicos en las condiciones
iniciales: así, el batir de las alas de una mariposa en un punto crítico podría
marcar la diferencia, varias semanas más tarde, entre un ciclón y una sequía (el
siguiente esquema representa la diferencia del batir de las alas de una mariposa
o más precisamente los atractores de Lorenz).
Una vez llegados al caos, vemos que éste tiene un orden, porque está limitado al
espacio caótico (o, en el espacio de fases, al toro) y lo más asombroso es que,
dentro del mismo mar caótico, encontramos zonas llamadas "ventanas de orden" que
vuelven a dar lugar a tasas lineales por algunos períodos y que
son fractales con respecto a la escala inicial; aquí el orden vuelve a nacer del
caos por un incremento cuantitativo en una interacción dialéctica de transición
a los contrarios y de unidad de los opuestos (véase la imagen).
En contra de lo que se pudiera pensar, las características de la transición del
orden que se bifurca y de la bifurcación que transita al caos, son tan
universales como "Pi", estas características comunes se expresan en los números
de Feigenbaum*, que "aparecen de modo universal y caracterizan la transición del
orden al caos; son fundamentales para la naturaleza"89, nos dice el
doctor Rañada. Lo que interesa aquí es el hecho de que las características de la
dinámica caótica de las poblaciones se presenta en una cantidad cada vez mayor
de fenómenos que van desde el humo del cigarro que se bifurca antes de
desparecer y las oscilaciones del ojo de los esquizofrénicos, pasando por la
transición del flujo laminar al turbulento, los casos de sarampión en
Nueva York, los ritmos cardiacos que se bifurcan justo antes de un ataque
cardiaco, hasta la actividad cerebral. En todos estos casos, un simple aumento
de un parámetro específico provoca un salto cualitativo.
434
e) La ‘creatividad’ del caos: la objetividad progresiva del tiempo
Quizá lo más importante en esta fascinante teoría es que, de acuerdo
con Ilya Prigogine y como veíamos con respecto a los fractales no lineales, la
transición del orden al caos puede constituir un proceso creativo y de
surgimiento de nuevas leyes y nuevos niveles de desarrollo, de la misma forma
que para Marx la anarquía del capital y las revoluciones que emergen de lo
caduco, que sin duda son fenómenos de rompimiento de la continuidad y de caos,
son el caldo de cultivo donde todo lo inamovible y eterno es barrido y en donde
se empieza a gestar una nueva sociedad. "Los fenómenos irreversibles no se
reducen, como se pensaba antes, a un aumento del desorden", comenta Prigogine,
"Estos fenómenos, por el contrario, tienen un papel constructivo muy
importante"90.
Así, de acuerdo con la ciencia del caos, los cerebros que en su encefalograma
tienen estructuras fractales o complejas, corresponden a los estados mentales
más alertas. Los sistemas biológicos por ser inestables se adaptan, cambian y
sobreviven. Sin el caos, el universo estaría muerto. En el caos aleatorio de las
supernovas, las partículas elementales vencen el punto de increíble oposición
del electromagnetismo que las separa uniéndose en virtud de la fuerza nuclear
fuerte; el caos que une a las micropartículas permite el nacimiento de los
núcleos atómicos, que a su vez atrapan electrones y forman los diferentes átomos
para formar planetas, vida, mente y sociedades tecnológicas. Cada punto de
transición de lo potencial a lo irreversible crea nuevas leyes y nuevas
posibilidades de evolución; negaciones diferentes a sus antecedentes y que, por
el famoso "efecto mariposa", no se pueden anticipar para toda la eternidad. Un
universo sin caos sería un universo eternamente muerto y eternamente el mismo.
Como se puede ver en la siguiente figura, parece ser que el caos esta en el
tuétano mismo del universo (véase la figura).
La flecha del tiempo para la teoría del caos es un proceso creativo. "Esta
flecha del tiempo sigue presente en la actualidad. Es más, existe un estrecho
vínculo entre irreversibilidad y complejidad. Cuanto más nos elevamos en los
niveles de complejidad (química, vida, cerebro), más evidente es la flecha del
tiempo"92. Esto, en verdad, es una reivindicación de la idea dialéctica, tan
menoscabada por la crítica superficial, del carácter progresivo del desarrollo a
través de contradicciones.
La flecha del tiempo era para Ludwig Boltzmann sinónimo de muerte térmica (o
aumento de la entropía), que convertiría al universo en una eterna nada incapaz
de volver a crear la luz de una estrella. La evolución del cosmos sólo tenía un
camino sin retorno a la muerte eterna; se concebía a la segunda ley de la
435
termodinámica aplicable a un sistema termodinámico aislado, como una ley
absoluta de la naturaleza; paradójicamente al mismo tiempo
queBoltzmann planteaba esta idea, Darwin concebía una teoría en la que explica
que de la naturaleza podía surgir vida; pero hasta la física anterior al Caos,
sólo se comprendía cabalmente el primer boleto del universo. No obstante las
limitaciones de su tiempo, Engels había criticado la idea del final de todo
movimiento "el movimiento no puede, pues, crearse sino sólo transformarse y
transportarse (...) por todo ello, un estado inmóvil de la materia resulta ser
una de las representaciones más vacías, para llegar a ella hay que imaginarse el
equilibrio relativo en que puede encontrarse un cuerpo en esta tierra como un
reposo absoluto, para generalizarlo luego al conjunto del universo"93. Con la
teoría del caos, se ha dado un salto cualitativo que ha confirmado
experimentalmente esta tesis de Engels.
Afortunadamente el Universo no es un sistema aislado reducible a las leyes de la
termodinámica. Las estructuras que se autoorganizan están por todas partes, la
interacción y el caos pueden organizar una vez llegados al punto de
irreversibilidad de manera espontánea a la materia, aun en la dinámica de los
gases, donde se supone sólo se tiene el camino hacia el desorden. Un ejemplo
asombroso es el reloj químico, en donde una mezcla específica de gases de
diferentes colores a cierta temperatura, que de acuerdo a la segunda ley debería
llegar al equilibrio inerte "se observó que la solución cambiaba periódicamente
su color, pasando a intervalos regulares de incolora a amarillo pálido para
volver a hacerse incolora, lo que significa que la reacción retrocedía y volvía
a avanzar como si no pudiese decidir qué sentido tomar"94.
La importancia de este ejemplo en la autoorganización de la materia la
comenta Prigogine: "Tal grado de orden surgiendo de la actividad de miles de
millones de moléculas parece increíble y, de hecho, si no se hubieran observado
relojes químicos, nadie creería que un proceso semejante fuera posible. Para
cambiar el color todas al mismo tiempo, las moléculas deben tener una manera de
comunicarse. El sistema tiene que actuar como un todo. (...) Las
estructuras disipativas introducen probablemente uno de los mecanismos físicos
más simples de comunicación"95, parece que, después de todo, el universo no
tiene un billete sólo hacia la muerte; el billete hacia la muerte implicaba su
contrario, vida y muerte se condicionan recíprocamente; la muerte de una
estrella es el nacimiento potencial de un nuevo sistema, de la misma forma que
el metabolismo y la muerte de unas células significa el desarrollo y la vida del
organismo.
Ya habíamos comentado en otra parte que Einstein había puesto al tiempo en
relación al movimiento relativo de la materia. Para Prigogine las
436
características de irreversibilidad, bifurcación, caos y nuevo orden propios de
los sistemas caóticos le dan al tiempo, además de objetividad, un carácter
irreversible con lo cual pretende fundamentar la flecha del tiempo de Boltzmann,
pero, ahora, como una flecha creativa ad infinitum y no como una flecha hacia la
muerte; en donde los puntos de rompimiento de la continuidad son también
rompimiento de la simetría temporal. Al igual queEinstein el tiempo depende del
movimiento de un sistema, pero se agrega la idea de que los sistemas dinámicos
tienden a la complejidad o en lenguaje dialéctico a la negación de la negación,
en una dinámica en espiral, en un progreso contradictorio.
La teoría del caos ha permitido una comprensión profundamente dialéctica de la
naturaleza y una promesa de cautivantes aplicaciones en la ciencia y la técnica,
que van desde la transmisión de información compleja con operaciones muy
sencillas, la reproducción de modelos y fenómenos naturales, que parecían
imposibles de reproducir; hasta el control de procesos caóticos para predecir,
por ejemplo, un ataque al corazón o estimular al caos para que genere una
infinidad de estados ordenados de acuerdo con lo que se requiera en un momento
dado. Dejemos que Prigogine termine con sus propias palabras este capítulo:
"Después que tenemos la irreversibilidad, la flecha del tiempo, podemos estudiar
su efecto en otras rupturas de la simetría y la aparición del orden y el
desorden a la vez, a escala macroscópica. En ambos casos el orden y el desorden
emergen, a la vez, del caos. Si la descripción fundamental se hiciese en
términos de leyes dinámicas estables, no tendríamos entropía, pero tampoco
coherencia debida al no equilibrio, ni posibilidad de hablar de estructuras
biológicas, y por lo tanto tendríamos un universo del que estaría excluido el
hombre. (...) Tradicionalmente estas leyes (las leyes de la naturaleza) estaban
asociadas al determinismo y a la reversibilidad en el tiempo. En los sistemas
inestables las leyes de la naturaleza se tornan fundamentalmente
probabilísticas. Expresan lo que es posible, y no lo que es cierto. Esto resulta
especialmente palpable en los primeros momentos del universo. En este momento el
universo se puede comparar con un niño que acaba de nacer y podría llegar a ser
arquitecto, músico o empleado de banca, pero no puede llegar a serlo todo a la
vez. Evidentemente, la ley probabilista contiene fluctuaciones e incluso
bifurcaciones"96 y termina comentando que para la teoría del caos, a diferencia
de la visión lúgubre de la muerte térmica: "El mensaje es (..) optimista. La
ciencia empieza a ser capaz de describir la creatividad de la naturaleza, y hoy
el tiempo ya no habla de soledad, sino de alianza entre el hombre y la
naturaleza descrita por él"97. De la misma manera, como dice Alan Woods, a los
marxistas, a diferencia de la decadente filosofía del pesimismo: "Se nos ha
acusado de ser unos optimistas incorregibles. Pues bien, nos declaramos
culpables. Los marxistas somos optimistas por naturaleza. Pero nuestro optimismo
437
no es artificial, sino que está arraigado en dos cosas; la filosofía del
materialismo dialéctico y nuestra confianza en la clase obrera y en el futuro
socialista de la humanidad"98.
IV. MECÁNICA CUÁNTICA Y DIALÉCTICA
El átomo mueve al mundo; nada más cierto, pero también es certísimo que el mundo
mueve al átomo, ya que el átomo posee fuerza propia, ésta no puede quedar sin
efecto.
Denis Diderot, 17131784
Introducción
La física cuántica es una de las grandes revoluciones científicas del siglo XX,
sólo comparable a la revolución de la física newtoniana del siglo XVIII.
Representa un aumento espectacular en los horizontes del conocimiento y del
potencial productivo de los hombres; es perfectamente posible poner esas fuerzas
increíbles descubiertas por la física cuántica y la ciencia moderna bajo el
control democrático y racional de los trabajadores, arrebatándola al grupo de
parásitos en cuyo interés egoísta de ganancia se desarrolla y se utiliza.
Entre otras cosas, la física cuántica ha podido arrojar luz a fenómenos que van
desde lo más pequeño hasta ahora conocido (los quarks y los gluones), pasando
por la tabla periódica de los elementos, hasta lo infinitamente grande: la
formación de las estrellas y la explosión de supernovas, procesos que son la
matriz de todos los elementos químicos que hacen posible la existencia de soles,
galaxias y, por supuesto, la vida y el pensamiento. Esto representa por sí mismo
una expresión de que lo infinitamente pequeño y lo infinitamente grande son
aspectos que sólo pueden ser comprendidos en su interconexión.
A pesar de ser una de las grandes conquistas del género humano, la física
cuántica, sin hablar de la ciencia y la cultura en general, es una gran
desconocida para la mayoría de las personas. De hecho, las ideas de la ciencia
son el monopolio de un grupo reducido de iluminados, trabajando para las grandes
corporaciones, encerrados en las universidades y que a veces, además de la
ciencia, tienen intereses más sustanciosos que defender. Está claro que, dentro
del capitalismo, la población tiene suficientes cosas de qué ocuparse antes que
de la ciencia y de la cultura como, por ejemplo, el hambre, el desempleo y, en
general, sobrevivir al día siguiente.
Por si esto fuera poco, en realidad lo que se enseña al respecto en la escuela,
con maestros mal pagados, con estudiantes mal comidos y con planes de estudio en
438
constante agresión por parte de la burguesía, sirve de muy poco para
interesarlos en la ciencia y en general en cualquier cosa que no sea, para los
que tienen el privilegio de ir a la escuela, salir lo más pronto posible y
conseguir un empleo para sobrevivir. Generalmente, por ejemplo, se enseña en la
escuela secundaria que el átomo es como un sistema planetario en el que los
electrones de carga negativa orbitan en círculos perfectos alrededor de un
núcleo formado de protones, con carga idéntica al electrón pero de signo
contrario y de neutrones con masa igual a la del protón, pero sin carga. Esta
representación por supuesto es desafortunada y sumamente abstracta y consiste en
la transposición más o menos arbitraria del movimiento newtoniano a un nivel de
la realidad material que requiere otros instrumentos conceptuales para
reflejarla con mayor aproximación. Para poder comenzar con nuestro tema, hay que
acercarse un poco más a la complejidad concreta del átomo y visualizar el
escenario en donde se desenvuelve la física cuántica estándar y la relativista,
aún a costa de alejarnos un poco de los familiares esquemas académicos.
Los electrones, cuyo tamaño es al ser humano lo que el ser humano es a la vía
láctea y cuya masa es al mosquito, lo que el mosquito es al sol99, que giran
alrededor del núcleo, no describen un movimiento newtoniano en el que se pueda
localizar el cuerpo en movimiento con absoluta precisión (a=a) "La posición de
una partícula, como el electrón", nos comenta el profesor M. Y. Han, uno de los
descubridores de los quarks, "nunca está perfectamente definida, sino que se
extiende sobre una región, dando lugar a incertidumbres inherentes. Una órbita
circular realmente se parece más a un anillo toroidal, con contornos muy
difusos. Se parecen mucho a los anillos que se hacen con humo de cigarros, con
una distribución desigual de humo que esta girando, fluctuando y cambiando
constantemente"100. El movimiento de las partículas subatómicas es caótico, pero
el caos, como vimos anteriormente, es al mismo tiempo ordenado, puede ser
representado mediante un espacio de fases, en este caso un
anillo toroidal llamado nube electrónica, que representa el espacio en donde
podemos encontrar con mayor probabilidad un electrón que, al mismo tiempo,
estará cambiando su posición constantemente y dejando infinitos puntos del campo
de probabilidades por los que no pasa. Por esta razón, la delimitación del átomo
no es precisa, sino contradictoria y dialéctica, porque cuando la nube del
último nivel de energía comienza a difuminarse por completo, es posible aun
encontrar electrones que extienden el límite del átomo un poco más allá, pero en
la siguiente millonésima de segundo no existirá ninguno (aun así como veremos
más adelante, un miserable átomo tiene un alcance de influencia infinito).
El tamaño de los átomos fluctúa entre el pequeño margen de 1 a
3 angstroms (1 angstrom=1x1010 metros) y aún así los núcleos atómicos son
439
60.000 veces mas pequeños que el átomo, cuya unidad de medida son
los fermis (1x1035 metros), para dar un ejemplo de lo que esto significa,
tendríamos que imaginar esquemáticamente "un aeropuerto cuya pista principal
tiene tres millas de longitud. Justo en la mitad de la pista en el centro del
aeropuerto, cuyos límites están marcados por barreras de 12 millas hay una
pelota de baloncesto de cerca de un pie de diámetro. En un extremo lejano del
aeropuerto, a los pies de la barrera, escondido entre las hierbas, hay
una piedrecita del tamaño de un frijol"102. En este ejemplo los límites del
aeropuerto representan los límites del átomo, el balón representa el núcleo y
el frijol al electrón. ¡En realidad el esquema simplista del colegio no era más
que una superficial e inadecuada caricatura! En este escenario alucinante se
desenvuelven los procesos estudiados por la física cuántica normal y relativista
Cuando hablamos del mundo subatómico, estamos ante fenómenos que involucran
dimensiones de 1010 metros (un angstrom); masas del orden de 9 x 1028 grs. y a
tiempos característicos que fluctúan entre 1010 a 1020 segundos. Dimensiones y
procesos que escapan a la vida cotidiana y sobrepasan a la imaginación más
desbordante. Hablamos de un nivel de la realidad que ya no es posible explicar
con los viejos modelos cartesianos, ni con la vieja lógica del sentido común (a
menos que caigamos en el idealismo y en el subjetivismo). En estas condiciones
estamos en el punto crítico más allá del cual nos encontramos con partículas
extremadamente susceptibles a la interacción recíproca, o dialéctica diríamos
nosotros; las variables que describen los fenómenos subatómicos, a diferencia de
la mecánica de Galileo y Newton, no son independientes y están orgánicamente
interrelacionadas, no se puede alterar una variable sin modificar otras en el
acto. Un fenómeno que, por ejemplo, desafía el sano sentido común y que es
objeto de una acalorada polémica, fundamentalmente entre una posición
materialista (Einstein, Planck, Prigogine y otros) y la ortodoxa o subjetivista
(Heisenberg, Borh y otros), es que mientras con mayor precisión conocemos el
momento o velocidad de una partícula, más indeterminada es su posición y
viceversa (el famoso principio de incertidumbre enunciado por Heisenberg). Por
si fuera poco, el movimiento de estas partículas es dual (onda y partícula)
y probabilístico (como planteó Louis de Broglie): a toda partícula le
corresponde una onda y al mismo tiempo las propiedades de la onda están
determinados por las partículas que la portan. Si bien no es posible conocer con
exactitud la posición y la velocidad de una partícula individual, cuyo
movimiento es caótico, es posible saber la probabilidad de encontrar una
partícula en un punto determinado, considerando un gran número de partículas
mediante la visualización del espacio de fases (principalmente gracias a la
mecánica matricial de Erwin Schrödinger), refutando de paso el prejuicio formal
de que el todo es igual a la suma de las partes.
440
Todas las propiedades del átomo sin excepción están cuantizadas, es decir, que
sólo cambian a otro nivel de energía —transformando sus propiedades o pasando a
ser una partícula totalmente diferente por la emisión o absorción de energía (en
forma de luz, rayos X, rayos gamma, alfa, u otras partículas)— , en puntos
críticos que están relacionados con la constante Planck, puntos en donde se da
el salto cualitativo o salto cuántico. En general, los paradigmas relacionados
con la física cuántica además de la teoría de la relatividad, son
fundamentalmente dos: la constante Planckrelacionada además con la unidad
materia y energía; y el principio de incertidumbre de Heisenberg. Discutiremos
sus implicaciones filosóficas.
A lo anterior se debe agregar que a niveles aún más pequeños en el interior del
núcleo atómico (cuya medida es como veíamos el fermi), a velocidades aún
mayores, los efectos de la relatividad comienzan a hacer efecto; entramos aquí
al mundo de la mecánica cuántica relativista, cuyas ideas fundamentales son el
principio de Paul Dirac, según el cual a toda partícula le corresponde una
antipartícula. La idea de los cuantos de acción o interacciones entre las
partículas, proceso que supone, por ejemplo, en la fuerza nuclear fuerte, la
emisión espontánea de partículas o cuantos que transforman en su contrario en
tiempos inimaginablemente cortos, a la partícula emisora y receptora:
transformación por la que podemos decir que son ellas mismas y no son las mismas
en millonésimas de segundo. Los cuantos de acción son responsables de las cuatro
fuerzas o campos principales de la naturaleza: la fuerza electromagnética —con
sus polos opuestos implícitos que explica desde la interacción y unión entre
moléculas, hasta la interacción sináptica—; la fuerza nuclear fuerte, atractiva
y repulsiva al mismo tiempo, que explica la unidad del núcleo atómico; la fuerza
nuclear débil, que explica la desintegración radioactiva y el hecho de que los
átomos inestables se conviertan con el tiempo en un elemento totalmente
diferente; y, finalmente, el campo gravitatorio (cuyo cuanto aún se desconoce).
Aquí no hay prejuicio más vulgar que la idea metafísica de que A=A. En realidad
el átomo es una suma de contradicciones en cuyo interior los opuestos se
transforman el uno en el otro; colisionan y se transforman en energía (luz) y en
donde la energía es absorbida transformándose en materia; en donde solamente en
puntos críticos se dan transformaciones cualitativas tanto del átomo como de sus
"partículas elementales"; en donde el movimiento se expresa en la unidad
dialéctica entre onda y partícula y en donde partículas cada vez más pequeñas
presuntamente elementales, se encuentran en un proceso aparentemente sin final,
confirmando la idea dialéctica de la complejidad infinita de la realidad y el
proceso infinito de conocimiento humano.
441
No cabe duda de que una de las mejores maneras de fundamentar, nutrir y
desarrollar la filosofía de Marx y Engels es estudiando estas maravillosas
conquistas del pensamiento humano y, al mismo tiempo, aportar una salida al
subjetivismo e idealismo de la ortodoxia teórica de la escuela de Copenhague,
pantano en el que desemboca el positivismo, y tener una actitud materialista
consecuente de la física cuántica; una concepción dialéctica de la naturaleza.
En este capítulo exploraremos todas estas fascinantes implicaciones. Con este
esquema inicial pasemos, por fin, a abordar la dialéctica del mundo subatómico.
a) Mecánica cuántica estándar
1) Los saltos cuánticos o saltos dialécticos en la mecánica cuántica
En realidad, el átomo cumple estrictamente con la ley hegeliana de la línea
nodal de medida. En física cuántica el aumento cuantitativo de energía
suministrado al átomo se transforma, en puntos críticos, en un cambio
cualitativo. El átomo no cumple con el dogma linneano (variante naturalista del
liberalismo reformista) según el cual "la naturaleza no da saltos". Más bien al
contrario, en física cuántica los cambios se dan a través de saltos bruscos y
repentinos. Una de las características más importantes del átomo y una de las
ideas fundamentales que le da el nombre a la física cuántica, es el hecho de que
está cuantificado (como lo propuso Bohr, retomando las ideas de Planck). Las
órbitas que describen las nubes electrónicas alrededor del núcleo, por ejemplo,
representan energía o niveles de energía energía resultante de la interacción
entre los propios electrones y de estos con el núcleo, llamada fuerza
electromagnética, que tiene valores determinados, discretos o cuantificados.
"Sería como un hipotético rascacielos", nos dice M. Y. Han, "en el que sólo
existiese un número intermitente de plantas: 3, 8, 16, 64...son las únicas
plantas que existen en el edificio y no hay nada entre ellas"103. Podemos
suministrar energía a un átomo (bombardeándolo con electrones de baja energía
por ejemplo) y no sucederá nada, el átomo seguirá siendo el mismo, mientras no
lleguemos a los puntos críticos en los que la cantidad de energía se transforma
en calidad, punto en donde los electrones saltarán a un nivel mayor de energía
convirtiendo al átomo en uno más energético y emitiendo rayos X al mismo tiempo
(bombardeándolo con electrones de alta energía por ejemplo). La diferencia entre
los niveles de energía entre las órbitas es de 10–34 julios (1 julio igual a 1
vatio por segundo, NE) el valor de la constante Planck, valor esencial en la
física moderna que determina el punto crítico donde se transforman sus
cualidades.
442
Esta característica no es un simple dato curioso del átomo, es la idea esencial
de la física cuántica: todas las propiedades del átomo están cuantizadas o en
lenguaje dialéctico se transforman mediante saltos cualitativos, no sólo las
orbitas de los electrones, sino todas sus características: el tamaño del átomo,
relacionado con la función de onda de Schrödinger, es decir, con el espacio
donde hay probabilidad de encontrar un electrón; la forma geométrica del campo
que emite el átomo o las partículas en su interacción dialéctica4554
(electromagnético, fuerte y débil), la cual sólo puede adquirir formas discretas
o específicas; aquí, por cierto, la forma geométrica o el espacio en el que está
inmerso la partícula depende dialécticamente de la misma partícula. Espacio y
materia como ya veíamos en la física de Einstein están orgánicamente unidos y
son inconcebibles sin esta relación (a despecho de la vacía geometría
euclidiana). Incluso el valor del espín o el valor de la rotación de todas las
partículas llamadas elementales sobre su propio eje, ya sea a la derecha o a la
izquierda, serán múltiplos de la constante Planck. El espín, además, es un
ejemplo más de que no hay materia sin movimiento.
2) El campo magnético y el espectro electromagnético: unidad y lucha de
contrarios y negación de la negación
Para representarse el movimiento fuera de la materia existente hay que
imaginarse una fuerza que actúe sobre ella. Pero no es así. La molécula, dotada
de la propiedad que le es inherente, es por sí misma una fuerza activa. Actúa
sobre otra molécula, que a su vez actúa sobre la primera.
Denis Diderot
Los electrones y protones son como imanes que implican la unidad entre cargas
opuestas y cuya relación determina la carga del átomo en cuestión y su capacidad
para unirse con otros átomos para formar moléculas. La interacción entre las
cargas opuestas del protón y el electrón determina el campo magnético del átomo.
Sin esta contradicción sería imposible la formación de cuerpos macroscópicos y
por supuesto, usted y yo no estaríamos aquí discutiendo sobre la dialéctica. El
campo magnético implica la interacción entre contrarios: lo positivo y lo
negativo. A su vez, la unidad de contrarios entre la atracción electromagnética
y la repulsión que se le opone en el movimiento de las partículas,
específicamente en el electrón que se mueve a varios kilómetros por segundo, es
el secreto de la formación de moléculas que se manifiesta desde la pompa de
jabón, cuya tensión superficial es la tensión entre la fuerza electromagnética y
la gravedad, pasando por la unión entre las moléculas del ADN, hasta la
interacción eléctrica entre la neuronas que, a su vez, en su relación con el
443
mundo externo, posibilitan el pensamiento (por cierto un argumento más en contra
del solipsismo idealista).
Al mismo tiempo, las moléculas o uniones entre átomos manifiestan propiedades
que no se pueden reducir a las características de los átomos que las componen.
Cuando se une una gran cantidad de moléculas que superan el punto crítico de
magnitudes, tiempos y masas que caracterizan a la física cuántica, la
constante Planck y consecuentemente la longitud de onda (o el
carácter probabilístico del movimiento subnuclear) se hace prácticamente
despreciable; de hecho no desaparece, pero a efectos prácticos queda subordinada
a una nueva ley representada por la gravedad que la niega y la conserva al mismo
tiempo. Con la gravedad entramos al campo concreto donde las categorías de la
mecánica clásica se transforman de anacrónicas y falsas en pertinentes y
verdaderas.
Muchas propiedades nuevas emergen con el salto cualitativo que representa la
formación de moléculas y cuerpos macroscópicos. En la teoría del caos y la
complejidad, a estos fenómenos se les llama propiedades emergentes. Por ejemplo
nos dice Alan Woods: "Una molécula de agua es una cuestión relativamente
sencilla: un átomo de oxígeno unido a dos átomos de hidrógeno gobernados por
ecuaciones de física atómica bien comprendidas. Sin embargo, cuando combinamos
un gran número de moléculas, adquieren propiedades que ninguna de ellas tiene
aisladamente —liquidez— . Este tipo de propiedad no está implícita en las
ecuaciones. En lenguaje de la complejidad, la liquidez es un fenómeno
emergente"105. Aún más sorprendente es el hecho de que el fenómeno del
pensamiento, de acuerdo con la teoría del caos, es también un fenómeno emergente
que no se puede reducir a la suma de las partes o como resultado de simples
hechos atómicos aislados. Según el positivismo, los hechos atómicos o hechos de
la experiencia son eventos aislados y sin ninguna relación más que el haber sido
objeto de mis impresiones empíricas e inmediatas. Pero en el mundo real, los
hechos no son aislados sino que están interconectados en una red cuyos infinitos
puntos de intersección determinan las propiedades de los objetos y en cuya
interacción orgánica emergen fenómenos nuevos e inesperados. Así, nos explica de
manera contundente Alan Woods: "El conocimiento de los detalles de las neuronas,
axones y sinapsis individuales no es suficiente para explicar los fenómenos del
pensamiento y las emociones. Sin embargo, no hay en ello nada místico. En el
lenguaje de la teoría de la complejidad, tanto la mente como la vida son
fenómenos emergentes. En el lenguaje de la dialéctica, el salto de la cantidad a
la calidad significa que el todo posee cualidades que no pueden ser deducidas de
la suma de las partes, ni reducidas a ellas. Ninguna de las neuronas es
consciente en sí misma. Pero sí lo son la suma de las neuronas y sus
444
interconexiones. Las redes neuronales son sistemas no lineales. Es la actividad
compleja y las interconexiones entre las neuronas lo que produce el fenómeno que
llamamos conciencia"106.
Es irónico que la autoproclamada "filosofía de la ciencia" (El círculo de Viena)
no quiso darse cuenta de que la ciencia desarrollada en su tiempo (la física
cuántica), trataba precisamente de esos saltos cualitativos que habían sido tan
desdeñosamente rechazados como metafísica, prefiriendo entretenerse en su nueva
y "profunda" ocupación de ser "policía de la ciencia", un policía con un
criterio empíricamente estrecho (como la mentalidad de todo policía de tráfico);
y en su sueño metafísico y quijotesco de encontrar la estructura lógica formal
de las matemáticas, proyecto ahora abandonado desde que Kurt Gödel demostró que
las matemáticas no se podían reducir a la lógica formal. En contraste el genio
de Engels, sin conocer nada de física cuántica ni mucho menos de teoría del
caos, tan sólo con los limitados marcos de la ciencia de su tiempo y con esa
metafísica desechada por los positivistas, ya había señalado la idea fundamental
de "las propiedades emergentes" de la teoría del caos: "La molécula" —nos
dice Engels— "se descompone en sus átomos, que tienen propiedades muy distintas
de la de aquella (...) los átomos libres del oxigeno naciente pueden lograr con
gran facilidad lo que nunca conseguirán los del oxígeno atmosférico, unidos por
una molécula. (...) El campo en que la ley de la naturaleza descubierta
por Hegel celebra sus triunfos más importantes es la de la química. Se puede
denominar a ésta la ciencia de los cambios cualitativos de los cuerpos a
consecuencia de los de la modificación en la composición cuantitativa"107. De
hecho con la unión atómicomolecular, posibilitada por el fenómeno del
electromagnetismo, emerge con un salto cualitativo la interacción y
trasformación de átomos, moléculas, iones y radicales, forma de movimiento
estudiado por la química; la química misma constituye una propiedad emergente,
inexistente en el átomo per se.
Cuando un electrón da un salto cuántico, libera (o absorbe) energía que se
propaga en forma de onda. El electromagnetismo no es más que la carga eléctrica
en movimiento; movimiento que genera una onda de fotones que se extiende en
todas direcciones llamada radiación electromagnética. El campo electromagnético
y, en general, los otros tres campos fundamentales de la naturaleza, son
resultado del movimiento e interacción entre la materia, expresado en sus
respectivos cuantos de acción o partículas materiales. Al mismo tiempo las
propiedades del campo dependen de las características de movimiento del cuanto
específico. El espectro electromagnético, por ejemplo, representa los saltos
cualitativos en la radiación electromagnética, en función de los cambios
cuantitativos de la frecuencia de propagación de los fotones (o las oscilaciones
445
por segundo, Hertz). Todo mundo sabe la diferencia entre los rayos X y las ondas
de radio; ambas tienen propiedades totalmente distintas: los rayos X traspasan
los órganos y se reflejan en el tejido óseo y permiten obtener radiografías, las
ondas de radio por su parte, al menos en el contexto capitalista, constituyen un
medio de difusión de estupideces y mentiras y de control mediático de la clase
dominante. La única diferencia está en que los rayos X se encuentran en una
frecuencia mucho más alta que las ondas de radio. Verdaderamente el espectro
electromagnético es una confirmación sorprendente de los cambios cuantitativos
que se transforman en cualitativos. Este espectro incluye, desde la frecuencia
más alta hasta la más baja: a los rayos gamma, rayos X, rayos ultravioleta, luz
visible (pasando por el violeta, azul, verde, amarillo, naranja, rojo), para
pasar al infrarrojo, a las microondas con las que calentamos nuestra comida
basura; llegando a las ondas de radio, para finalizar en la parte más baja del
espectro con la onda larga usada en loswalkietalkies. Este ejemplo es tan claro
y evidente que hasta los positivistas, quienes se habían rasgado las vestiduras
en su lucha contra la dialéctica, lo podrían entender. Quizá la tesis
de Engels ya no suene tan descabellada, después de todo, a los oídos de los
señores analíticos, "es probable que los mismos caballeros que hasta ahora
tacharon a la transformación de la cantidad en calidad de misticismo y de
trascendentalismo incomprensible", dice el propio Engels, "declaren ahora que en
verdad se trata de algo evidente por sí mismo, (..) entonces tendrán que
consolarse como el MonsieurJourdain de Molière, quien hizo prosa durante toda su
vida, sin tener la menor noticia de ello"108.
3) Dualidad ondapartícula o unidad de contrarios
Hasta la postura dialéctica del movimiento de la luz, sostenida por la mecánica
cuántica, las posturas corpuscular y ondulatoria eran vistas como opuestos
irreconciliables; ¿qué podía ser más opuesto que estos dos tipos de
movimiento?. Newton creía que la luz significaba el movimiento de partículas
discretas, visión que fue negada por la teoría ondulatoria de Huygens y Maxwell
y sustituida de nuevo por la teoría cuántica que incorpora ambas posturas en una
relación orgánica. Hasta esta negación dialéctica, ambas teorías, la corpuscular
por un lado y la ondulatoria por el otro, tenían sustento experimental. Algunos
fenómenos sólo podían ser interpretados como la confirmación del movimiento
corpuscular de la luz, de hecho con un fenómeno de tipo corpuscular
(dispersión Compton), Thompson descubrió la existencia de los electrones. No
obstante, otros fenómenos como la difracción e interferencia parecían ser la
confirmación del movimiento ondulatorio. Esta pugna de posturas parecía
fortalecer la visión pragmática o subjetivista de la ciencia; parecía, en
efecto, que las teorías científicas no tienen nada que ver con la realidad
446
material o con leyes objetivas sino, más bien, con la mejor descripción de
fenómenos inconexos de la experiencia, que pueden admitir descripciones
convencionales de cualquier tipo y no tienen que ver con la realidad objetiva,
sino con nuestras experiencias subjetivas e incluso (como con Feyerabend) con la
capacidad retórica de las teorías en pugna.
La mecánica cuántica, no obstante, supone un salto cualitativo; el movimiento
corpuscular y ondulatorio de la luz representan las dos caras de la misma
moneda. Sorprendentemente en el movimiento de las partículas subatómicas, el
movimiento corpuscular y ondulatorio está orgánicamente vinculado y sólo tiene
sentido en esta vinculación. Erwin Schrödinger hizo un descubrimiento asombroso,
representado en la ecuación que lleva su nombre: a todo electrón y en general a
toda partícula con masa finita en reposo se le asocia una longitud de onda;
mientras más grande sea la masa y la velocidad de una partícula, la longitud de
onda tiende a cero y el movimiento puede ser descrito con los tradicionales
planos cartesianos: el movimiento corpuscular se vuelve dominante. Pero mientras
la masa sea menor, como las masas características del mundo subatómico, la
longitud de onda se transforma en un aspecto esencial del movimiento. Los
fotones son partículas en movimiento pero, al mismo tiempo, la probabilidad de
su ubicación queda establecida dentro de los límites de la función de onda que,
a su vez, depende de la velocidad y la masa del ensamble de partículas; entre
los dos aspectos de su movimiento (onda y partícula) hay una relación de mutua
determinación.
La confirmación experimental de esta relación dialéctica es sorprendente: Si
lanzamos un chorro de electrones a una pantalla fotográfica que detecte su
impacto, interponiendo una barrera con dos agujeros los suficientemente angostos
que se oponga al movimiento de los electrones, veremos que el patrón de
movimiento reflejado en la pantalla no será el resultado de dos cúmulos de
impactos bien definidos, como el sentido común nos haría suponer, —y como sucede
si en lugar de electrones lanzamos granos de arena— sino que la distribución en
la pantalla reflejará, en palabras del doctorLuis de la Peña: "una distribución
mucho más complicada, con una serie de máximos y mínimos muy notables y cuyo
número excede por mucho el número de rendijas, (...) el fenómeno observado con
electrones no puede explicarse en un lenguaje puramente corpuscular"110. Este
experimento se ilustra en la figura siguiente.
Los electrones que chocan con las rendijas provocan ondas, como cuando arrojamos
una piedra a un estanque tranquilo; las ondas que se propagan por el estanque no
se reducen a partículas con posiciones definidas sino que la onda abarca un
espacio que no puede ser reducido a un movimiento discreto; está en un lugar y
en otro al mismo tiempo. "El contacto con sistemas clásicos nos ha acostumbrado
447
a que una piedra está en un lugar o no está allí", nos dice el doctor Alberto
Clemente de la Torre, "en la mecánica cuántica a un electrón se le asigna una
probabilidad de estar en cierto lugar que, en algunas ocasiones, no es ni cero
(no está), ni uno (si está), sino algún valor intermedio"112. La imposibilidad
de determinar la posición exacta de un electrón que viaja varios kilómetros por
segundo es evidente; aquí el electrón está en un punto y en otro en un momento
determinado y su probabilidad de estar y no estar queda determinado por la onda
que describe su movimiento. Esto no es simplemente la imposibilidad subjetiva de
fijar su posición específica sino un aspecto concreto, verificable
experimentalmente, del movimiento de los electrones (esta cuestión la
abordaremos con más detalle cuando discutamos el "principio de incertidumbre").
La onda, no obstante, no es el resultado de la simple suma de las partículas. Si
repetimos el experimento anterior reduciendo el chorro de electrones hasta que
pase un electrón a la vez por los agujeros en la barrera que se interpone a la
placa, veremos que en esta quedan registrados puntos discretos, confirmando en
este caso el aspecto corpuscular de los electrones; pero al mismo tiempo los
electrones aislados o corpúsculos siguen vinculados a una onda específica. De
esta manera si seguimos lanzando los electrones progresivamente veremos que los
puntos en la placa comienzan a perderse y su ubicación quedará dentro de los
límites de la onda que describimos en el experimento anterior. Es decir, que el
movimiento de un corpúsculo aislado está determinado por su respectiva longitud
de onda. Es, en realidad, una relación dialéctica porque al mismo tiempo que la
onda es producto de la difracción (fenómeno ondulatorio) de los corpúsculos,
además de estar determinada en sus características por la velocidad y masa de
los corpúsculos, los corpúsculos aislados tienen su ubicación determinada por la
onda asociada; la vinculación es recíproca e inseparable.
Además, este experimento pone en evidencia la relación dialéctica entre orden y
caos, que veíamos en el capítulo anterior. En palabras del doctor Luisde la
Peña: "Cada electrón está sujeto a un movimiento estocástico (caótico,
impredecible), por lo que la trayectoria específica es impredecible; esto hace
que electrones idénticamente preparados tengan un comportamiento diferente, que
no existan dos electrones dinámicamente idénticos. Sin embargo, en cada arreglo
experimental, el comportamiento estadístico de un gran número de electrones es
perfectamente regular, controlable y predecible (con ayuda de la mecánica
cuántica); este comportamiento estadístico presenta, frecuentemente, propiedades
ondulatorias, que están caracterizadas por la longitud de onda de
de Broglie"113. Aquí tenemos la contradicción dialéctica de que una onda de
características perfectamente predecibles y determinadas esté compuesta por
partículas caóticas e impredecibles y que lo caótico e impredecible de los
448
electrones esté, al mismo tiempo, determinado en una onda específica; aquí, como
en muchos otros casos, el todo no es igual a la suma de las partes y el cambio
cuantitativo da resultados cualitativos totalmente diferentes e incluso
opuestos. "Todos estos son fenómenos de la materia", nos dice Trotsky comentando
el electromagnetismo, y la radiactividad —que constituían para él teorías muy
nuevas y prometedoras en sus implicaciones para la filosofía marxista—,
"procesos materiales, ondas y turbulencias en el espacio y en el tiempo. Los
nuevos descubrimientos y sus aplicaciones técnicas sólo demuestran que la
materia es mucho más heterogénea y rica en potencialidades de lo que hasta ahora
se había pensado. Pero, hoy, como antes, nada se hace de la nada"114.
4) El ‘principio de incertidumbre’
Como hemos señalado, una tesis fundamental del materialismo dialéctico es que
pequeños cambios cuantitativos pueden producir grades cambios cualitativos. La
proposición adicional a esta tesis es que el todo no es igual a la suma de las
partes y que las partes manifiestan propiedades específicas en relación al todo.
Una de las características más relevantes de las partículas subatómicas es el
hecho de que son extremadamente susceptibles a las perturbaciones o en lenguaje
de la dialéctica, los pequeños cambios e interacciones provocan en ellas cambios
cualitativos recíprocos, sobre todo, entre velocidad y posición. La "acción" o
la capacidad que un sistema tiene de modificar su entorno es muy grande en
comparación con los sistemas reflejados en la mecánica clásica. Una consecuencia
de este hecho es que las características que definen al nivel subatómico no
pueden ser consideradas de manera aislada, como en el caso de un mecanismo de
relojería; en física clásica, por ejemplo, la posición y la velocidad no tienen
dependencia numérica alguna, es verdad que la velocidad es el resultado del
cambio de posición, pero el determinar la posición no nos dice nada con respecto
a la velocidad, dos cuerpos pueden adquirir la misma posición sin tener la misma
velocidad.
En Física cuántica, por el contrario, la relación entre posición y velocidad se
vuelve esencial. Tan esencial que este fenómeno se expresa en el "principio de
incertidumbre" un principio fundamental de la física cuántica. Este principio
plantea que "si determinamos con absoluta precisión la posición de una partícula
subatómica, el conocimiento sobre su velocidad quedará indeterminado y, a la
inversa, mientras mejor quede determinada la velocidad de una partícula, más
indeterminada será su posición". Este principio refleja la relación entre
las incertezas recíprocas de la posición y la velocidad, las dos no pueden ser
nulas al mismo tiempo, es decir, no pueden simultáneamente estar absolutamente
determinadas, la determinación absoluta de una modifica objetivamente a la otra
al aumentar su campo de probabilidad. De hecho, si se pudiera determinar la
449
posición y velocidad al mismo tiempo, como sucede en el movimiento mecánico,
violaríamos lo más esencial de la física cuántica: el hecho de que el valor de
la capacidad de perturbación de las partículas a este nivel no puede ser menor
al de la constante Planck ya que al determinar al mismo tiempo posición y
velocidad, la constante Planck podría valer cero, cosa que es imposible. En
otras palabras diríamos que la parte no se puede separar del todo y el todo
resiente los cambios pequeños de sus elementos constituyentes.
La fuerza de la costumbre se imprime en nuestros cerebros de manera tan
conservadora que parece increíble que si en la vida cotidiana podemos determinar
la posición de un corredor de los cien metros planos en un momento en el tiempo
sin modificar su velocidad, en el mundo subatómico no sucede lo mismo; Alberto
Clemente de la Torre comenta al respecto que: "Considerar el sistema como
susceptible de ser separado en sus partes, es consecuencia de nuestra
experiencia con sistemas clásicos, pero no necesariamente para los sistemas
cuánticos. Los observables de un sistema cuántico están ligados de cierta forma
que impiden su total independencia (..) La necesidad de considerar el sistema
físico en su totalidad, no siempre separable, se denomina holismo. Pero conviene
resaltar que este holismo en la física corresponde a argumentos científicos
rigurosos con sustento experimental y no debe ser confundido con
charlatanerías pseudocientíficas"115. Lo que muchos científicos destacados
parecen no saber es que la relación entre los observables en física cuántica
representa una relación dialéctica; podemos parafrasear a Marx cuando, citando
a Maurice le responde "¿qué ha definido el autor sino el método dialéctico?". En
efecto, el holismo no es más que otra manera de decir que las características de
los sistemas cuánticos están en determinación dialéctica y que por nuestra parte
sólo nos corresponde poner en relieve esa relación y enriquecer nuestra
filosofía en este hecho material.
Es claro que la posición y la velocidad de una vaca en movimiento no se altera
en lo más mínimo porque lo iluminemos con un haz de luz, ya que la acción o
capacidad de perturbación es tan pequeña en los procesos mecánicos, como para
ser modificada por simples fotones. En contraste, en el mundo de la física
cuántica la capacidad de perturbación es tan grande, que el simple hecho de
interactuar con un fotón transforma sus cualidades; así cuando se observa un
electrón con un microscopio, la única manera en que podemos ver directamente a
las partículas subatómicas, se altera el estado del sistema, mientras la luz sea
de onda corta (baja energía) la velocidad de la partícula quedará determinada,
quedando indeterminada su posición, mientras que con fotones de gran energía
determinaremos la posición y no sabremos nada de la velocidad. El intercambio de
450
energía del fotón lanzado por el aparato hace del fotón parte del sistema
observado.
Este hecho fue interpretado de distintas maneras por los científicos más
eminentes. La "escuela de Copenhague", con Bohr y Heisenberg a la cabeza,
interpretó el "principio de incertidumbre" de manera idealista y positivista. En
realidad, de acuerdo con esta interpretación: "el concepto de objeto material,
de constitución y naturaleza independientes del observador, es ajeno a la física
moderna, la que, forzada por los hechos, ha debido renunciar a esta
abstracción"116, afirmó con toda claridad Heisenberg. Lo que concebimos como una
partícula elemental "no es una formación material en el espacio y en el tiempo,
sino, en cierto modo, un símbolo (..)"117, sostuvo W. Pauli.
Además Heisenberg afirmó: "la teoría cuántica no se refiere a la naturaleza,
sino a nuestros conocimientos de la naturaleza"118. La ciencia, según esta
escuela, no afirma nada sobre la realidad objetiva puesto que la observación es
modificación y por tanto, la ciencia no trata sobre la cosa en sí, sino frases
sobre los aparatos utilizados y, en última instancia, sobre fenómenos
subjetivos.
Los fenómenos llamados objetivos sólo se materializan al ser observados. "Estas
consideraciones llevan a Bohr a decir que es falso creer que la meta de la
física es descubrir cómo es la naturaleza, pues, en verdad, sólo se ocupa de lo
que podemos decir acerca de ésta, dudando así que la realidad de la naturaleza
sea conocible. La palabra realidad, dice Bohr, es una palabra que hay que
aprender a usar correctamente. La descripción de la naturaleza que hace la
física no es, para Bohr, un reconocimiento de la realidad del fenómeno, sino una
descripción de las relaciones entre diferentes aspectos de nuestra
experiencia. Heisenberg afirma, extremando el pensamiento de Bohr, que la meta
única de la física es predecir los resultados experimentales, excluyendo en el
lenguaje toda mención a la realidad"119.
Además, si no hay realidad objetiva con la cual podamos contrastar los esquemas
teóricos, las formas alternas de organizar la experiencia en teorías o sistemas
son complementarios; de esta manera se concilia la visión religiosa y científica
pues son sólo posturas complementarias120 de articulación de los "hechos de la
experiencia".
En absoluto la idea filosófica central de la Escuela de Copenhague tiene
sustento en el principio de incertidumbre o en cualquier cosa que no sea la
posición deliberadamente idealista que Heisenberg sostuvo y que, por cierto, le
sirvió de justificación para apoyar el régimen nazi (aunque por supuesto, esto
no disminuye en absoluto su aporte científico). En primer lugar no es la
451
observación, ni el acto subjetivo de medir, lo que trasforma las propiedades del
sistema cuántico, sino el electrón y el fotón que emite el microscopio el que
interactúa con el sistema de manera independiente a la observación. No es la
visión del sujeto, ni siquiera la medición lo que transforma el sistema; no se
puede confundir el acto subjetivo de observar y medir con la objetividad del
instrumento usado para observar y medir; ni siquiera es el aparato como tal el
que cambia el estado del sistema, sino el fotón lanzado por ese aparato, exista
o no observador, sea o no un aparato el que lo emita. El electrón por supuesto
es un objeto material y no una proyección idealista, es la unidad fundamental de
carga y sustento de innumerables adelantos tecnológicos y fenómenos naturales,
inclusive el pensamiento mismo es resultado de la actividad eléctrica del
cerebro en su relación con el ambiente natural y social.
El formalismo de la mecánica cuántica no incluye por ningún lado la observación
subjetiva. El principio de incertidumbre, que expresa la vinculación dialéctica
entre las variables y su carácter probabilístico, se funda en la
constante Planck, que es una ley fundamental para el nacimiento de estrellas,
galaxias, elementos químicos, los cuatro campos fundamentales de la naturaleza y
cuerpos macroscópicos. Procesos que de hecho prueban su independencia con
respecto a la subjetividad al ser condiciones esenciales de la misma
subjetividad. En efecto, no es posible la existencia de sujetos pensantes donde
no hay posibilidad de surgimiento de cuerpos macroscópicos. Procesos todos ellos
regidos, entre otras leyes, por los saltos dialécticos de la constante Planck.
Sólo basta mirar por un telescopio potente para presenciar eventos que
ocurrieron antes de la existencia de la subjetividad. La llamada radiación de
fondo es testigo del nacimiento de soles y galaxias en donde las leyes de la
física cuántica jugaron (y juegan) un papel primordial, "pero la idea de que
esta radiación es el resultado de mediciones es absurda: ¿quién medía?"121, nos
dice con toda razón IlyaPrigogine. En realidad los positivistas se comportan
como los clérigos que no creyeron lo que veían por el telescopio de Galileo,
pues contradecía las sagradas escrituras y seguramente era cosa del demonio122.
En el caso de los positivistas no es posible la existencia del mundo y
su cognoscibilidadporque eso es, (¡Dios nos libre!), metafísica; en ambos casos
existe una posición dogmática, subjetivista y sin ningún apoyo en la ciencia. En
segundo lugar el "principio de incertidumbre" sólo se manifiesta en procesos en
donde la constante Planck juega el papel central. Y constituye una
generalización abusiva y sin fundamento plantear la incerteza como propiedad
absoluta del universo. En tercer lugar la física cuántica no tiene nada de
indeterminada, la medición de los efectos de un ensamble de partículas, como por
ejemplo el campo magnético, es una de las más exactas y determinadas que existen
dentro de la ciencia moderna.
452
La postura ortodoxa está en contradicción no sólo con la física cuántica, sino
con la experiencia científica en general, cuya idea implícita es que el mundo no
sólo existe, sino que además es cognoscible, que la ciencia describe leyes
objetivas. De hecho, la mayoría de los científicos, por no hablar del resto de
la humanidad a lo largo de todos los tiempos, tienen la convicción, aunque sólo
sea por las características de su propia actividad y no una posición filosófica
deliberada, de que el mundo existe independientemente de su percepción.
Inclusive los pocos científicos que sostienen conscientemente la visión
ortodoxa, cuando están en las cuatro paredes de sus laboratorios y aún en el
mundo cotidiano, trabajan y actúan como si su objeto de estudio existiera al
margen de su pensamiento, lo cual parece ser una manifestación de lo poco que
respetan sus consideraciones filosóficas reservadas para las discusiones en los
seminarios y en las cafeterías. ¿Qué valor puede tener una filosofía científica
que es inaplicable cuando se hace ciencia? ¿Puede haber una filosofía científica
al margen del quehacer científico? Y a la inversa. ¿Qué sentido puede tener una
ciencia que no dice nada del mundo objetivo? ¿Cómo puede tener valor práctico
algo que no tiene conexión más que con nuestra subjetividad? En realidad el
positivismo como filosofía de la ciencia es inútil justo cuando se hace ciencia,
es como un paraguas que es inútil justo cuando llueve, como explica Engels:
"¿Qué se pensaría de un zoólogo que dijese: un perro parece tener cuatro patas,
pero qué sabemos si en realidad tiene cuatro millones de patas o ninguna? (...)
pero los hombres de ciencia se cuidan de no aplicar la frase de la cosa en sí a
las ciencias naturales; sólo se lo permiten al pasar a la filosofía. Esta es la
mejor prueba de la poca seriedad con que la toman, y del escaso valor que posee.
Si se tomara en serio, ¿de qué serviría investigar nada?"123.
Es una pena y un indicador verificar que detrás de la ortodoxia hay intereses no
meramente científicos (como el prestigio y el control de los recursos de los
institutos por ejemplo, que la posición de EPR, planteada
por Einstein, Podolsky y Rosen, (además de Erwin Schrödinger y el mismo Planck),
que postula una interpretación materialista de la física cuántica ha sido
silenciada deliberadamente y que generalmente no sea planteada con tanta
insistencia como la visión ortodoxa, evitando una discusión general racional al
respecto. "Tal intento de callar el problema no es neutro", nos dice Clemente
de la Torre, "sino que favorece una interpretación ortodoxa de la teoría que se
adoptó en sus principios, sustentada por la enorme autoridad, bien merecida,
de Bohr, Heisenberg y otros de sus fundadores. Hoy, la mayoría de los físicos
que investigan temas fundamentales de esta teoría no se adhieren a dicha
interpretación y encuentran necesaria una actitud más crítica en la didáctica de
la física cuántica"124.
453
Einstein, Podolsky y Rosen publicaron en 1935 ¿Puede considerarse completa la
descripción que de la realidad física da la Mecánica Cuántica?, en donde
fundamentalmente se argumenta que la mecánica cuántica describe fenómenos reales
existentes, con independencia de la subjetividad. Las partículas subatómicas
tienen simultáneamente posición y velocidad y el hecho de no poderla determinar
con los instrumentos teóricos a nuestra disposición sólo significa que la física
cuántica como teoría aún es incompleta y está en proceso de elaboración; existen
variables ocultas que por principio no son incognoscibles y que nos obligan, por
ahora, a considerar de manera probabilística dichos fenómenos. En este argumento
debemos señalar dos elementos: a) que se reconoce la existencia del mundo
material y b) que la física cuántica es sólo una aproximación a los fenómenos
objetivos, dejando fuera de su consideración variables ocultas que impiden su
precisión absoluta, es decir, la física cuántica no es una teoría completa. El
destacado investigador Luis de la Peña señala la esencia de la posición de EPR y
la suya: "(...) se considera que la función de onda describe un sistema material
que existe con independencia de nosotros y que tiene la propiedad objetiva de
encontrarse en ese estado, independientemente de nuestro conocimiento sobre el
sistema"125.
De igual manera, Erwin Schrödinger ridiculizó la visión ortodoxa en su famoso
experimento conocido como el gato de Schrödinger, en donde un gato es encerrado
en una caja con un frasco de cianuro y un tubo con un átomo que emite un
electrón al segundo de cerrar la caja, electrón cuya probabilidad de salir hacia
la izquierda o hacia la derecha es igual. En el lado derecho tenemos un detector
de electrones que de ser activado romperá el frasco de cianuro y,
consecuentemente, el gato morirá y del lado izquierdo el electrón saldrá y el
gato vivirá. Si la visión ortodoxa es correcta, el "colapso de función de
estado" o determinación de la posición del electrón sólo ocurre con la visión
subjetiva del fenómeno, es decir, la posición del electrón no se materializa más
que cuando alguna subjetividad se digna mirar dentro de la caja. Como la
probabilidad del electrón hacia la izquierda (gato muerto) y a la derecha (gato
vivo) es, en este caso, igual, mientras no abramos la caja, el electrón no
tiene, según la visión positivista, ni posición ni velocidad, por no ser
propiedades objetivas, por tanto el gato, mientras no se mire dentro de la caja,
¡no estará ni vivo ni muerto! Las implicaciones de este conocido experimento
mental son claras: evidentemente el gato ya estaba vivo o muerto antes de que el
científico abriera la caja, el científico sólo cobra conciencia de un hecho
preexistente a su constatación subjetiva; consecuentemente el electrón tiene
posición y velocidad, independientemente de la subjetividad y la observación; y
el hecho de que en los fenómenos cuánticos las variables de posición y velocidad
454
estén íntimamente vinculadas no impide su carácter material, ni es argumento (ni
siquiera desde el punto de vista de la lógica formal) para negar su objetividad.
El adoptar una postura conscientemente materialista no se reduce a adquirir una
postura consistente con la ciencia moderna y en particular de la física
cuántica, como habían señalado ya los clásicos del marxismo. Todo error en la
teoría se refleja tarde o temprano en la práctica. La posición filosófica en la
ciencia en tanto que unidad teóricopráctica deriva en resultados concretos,
como el investigar o no fenómenos de interés para la ciencia moderna que de
acuerdo con la visión idealista de Copenhague no tendría ningún sentido
investigar, en efecto, si la cosa en sí es incognoscible y "el principio de
incertidumbre" significa que no hay leyes ni causalidad objetivas "no hay mucho
más que investigar en relación al comportamiento azaroso de los electrones", nos
dice Luis de la Peña, "pero si se cree que el fenómeno azaroso es causado por
algún agente externo," (o interno agregaríamos nosotros) "es evidente que este
agente requiere de una cuidadosa investigación física, lo que abre un amplio
terreno a la investigación"126.
Una alternativa materialista y dialéctica fascinante a la explicación de
la estocasticidad (aleatoriedad) de los fenómenos cuánticos constituye la teoría
del caos, que tiene algunas diferencias secundarias con las postura
materialista de EPR. No es necesario buscar la causa de la aleatoriedad en
fenómenos externos sino en una característica inmanente de este tipo de
fenómenos: la acción o susceptibilidad asombrosa a los cambios por interacción
dinámica, o en palabras de teoría del caos "susceptibilidad a las condiciones
iniciales" pueden ser indicadores de que los fenómenos cuánticos son fenómenos
explicables en términos de caos. Son caóticos y ordenados al mismo tiempo o, en
otras palabras, del desorden y aleatoriedad de las partículas elementales,
aleatoriedad inevitable en virtud de su susceptibilidad a los pequeños cambios,
de sus velocidades inmensas y su complejidad aún mayor que en la termodinámica;
nace el orden a gran escala, orden probabilísticamente determinado con la
función de onda. El orden y las leyes que nacen del desorden del caos es tan
sorprendente que el margen de error de la medición del momento magnético, por
ejemplo, es del orden de uno en 10.000 millones; la incertidumbre en la mecánica
cuántica no es obstáculo para adquirir certidumbres que superan la precisión de
la mayoría de las ciencias.
Así, las variables ocultas que buscaba Einstein y la posición EPR, podrían
encontrar su explicación en la teoría del caos y en las características
inmanentes de los fenómenos cuánticos; efectivamente, las partículas tienen
posición y velocidad independientemente de la observación y medición (el hecho
mismo de que la medición objetiva transforme el estado nos dice mucho sobre las
455
leyes objetivas de ese fenómeno) pero su medición no puede ser más que
probabilística por las características mismas que no pueden ser explicables en
función de las partículas aisladas sino del todo cualitativamente distinto. Se
ha comprobado más allá de cualquier duda, que los sistemas cuánticos son
sistemas orgánicos o dialécticos irreductibles a las partes componentes; éstas
son precisamente las características fundamentales de los sistemas caóticos o
dialécticos que conjugan dialécticamente el orden y el desorden, el todo y las
partes. "Por tanto", nos dice Ilya Prigogine, "en mecánica cuántica tiene que
haber un mecanismo intrínseco que lleve a los aspectos estadísticos observados
(...) este mecanismo es, precisamente, la inestabilidad, el caos"127.
Independientemente del desarrollo ulterior de la física cuántica y de que las
causas de la aleatoriedad se encuentren en la teoría del caos o en algún factor
externo —la teoría del caos es aún muy joven— , no cabe duda que la solución de
esta fructífera polémica se dará en el campo del materialismo y de la búsqueda
de la solución en el mundo objetivo y sus leyes inmanentes. La preocupación
esencial de Einstein: que la mecánica cuántica, como la ciencia en general,
describen el mundo independientemente del observador, sustituirá, sin duda, a la
ortodoxia, cada vez más cuestionada y criticada.
B) Física cuántica relativista
1) unidad y lucha de contrarios, negación de la negación y saltos cualitativos
Y si miramos preparar ajenjos
Sentimos amargor: tanta certeza
Tenemos de que envían emisiones
De sí todos los cuerpos de continuo,
Que a todas partes giran sin pararse,
Y sin interrumpir jamás su flujo,
Tito Lucrecio Caro, aprox 9955 a. C.
Cuando a principios de siglo Ernest Rutherford descubrió el núcleo atómico,
abrió un nuevo horizonte de investigación y con el consiguiente descubrimiento
de la estructura interna del núcleo, se comprendió mejor la fuente de las cuatro
fuerzas fundamentales de la naturaleza (fuerza nuclear fuerte, débil, fuerza
electromagnética y gravitatoria), comprensión que aún está muy lejos de ser
456
exhaustiva, pero que permite comprender muchas interrogantes aparentemente
inextricables y sin relación aparente, como el origen de las galaxias, la tabla
periódica de los elementos y las propiedades de las partículas más
increíblemente pequeñas y efímeras hasta ahora conocidas.
Tanto Hegel como Engels se mofaron del uso indiscriminado del término fuerza,
que en muchos casos servía como un pretexto deus ex machina para ocultar nuestra
ignorancia sobre las verdaderas causas de los fenómenos naturales. A lo más, el
concepto de fuerza era pertinente en la mecánica clásica en donde el impulso
venía de una fuerza externa al sistema. Pero en la explicación de los campos por
la mecánica cuántica relativista esa necesidad de fuerzas externas ha sido
superada; las fuerzas, si es que es correcto seguir usando ese término, se
explican por la emisión de cuantos o, mejor dicho, por la unidad dialéctica
entre radiación y absorción de partículas materiales que interactúan y
transforman a la partícula emisora y receptora; cuantos que provienen de la
estructura interna de las partículas elementales (demostrando que no son tan
elementales) y de la unidad materiaenergía de la relatividad de Einstein; ya no
hay necesidad de acudir a fuerzas misteriosas y externas a las que son tan
aficionados los místicos y ocultistas charlatanes.
El átomo constituye el punto crítico o salto cualitativo donde comienza a operar
de manera decisiva el electromagnetismo, que permite la unión molecular. Con la
unión de moléculas en cuerpos de tamaño suficiente para hacer despreciable la
longitud de onda de Schrödinger se da el salto cualitativo a la fuerza
gravitatoria, que es 1011 veces más pequeña que la electromagnética, y que, no
obstante, tiene una influencia infinita —aunque inversamente proporcional al
cuadrado de la distancia— y opera ya entre dos objetos, desde la manzana que
según la leyenda cayó en la cabeza de Newton hasta el colapso gravitacional de
los agujeros negros; cuando bajamos de escala hasta los 1015 metros (fermis) se
niega dialécticamente el electromagnetismo: el electromagnetismo sigue
existiendo a este nivel pero su presencia ya no juega el papel decisivo, estamos
ante un caso de "negación de la negación". Ahora los protones que por
electromagnetismo se repelerían mutuamente, se pueden unir entre si y con los
neutrones para formar el núcleo atómico (en un espacio que en el caso del núcleo
de carbono es, con relación al átomo de 60.000 a 1, a pesar de que el tamaño del
protón es 2.000 veces mayor al electrón).
Por su magnitud espectacular, 100 veces superior a la electromagnética, esta
interacción entre la materia es conocida como la fuerza nuclear fuerte, aunque
su campo de acción es infinitamente pequeño. Por esta limitación los núcleos
atómicos tienen una barrera potencial de 84 protones para su tamaño a partir de
este punto cualitativo el núcleo se transforma de estable en inestable, el
457
núcleo de uranio, por ejemplo, es tan grande que esta al borde del caos, la
frágil unión nuclear se puede romper más allá de la capacidad de la fuerza
nuclear fuerte para mantener el núcleo como unidad dinámica, expulsando
violentamente el contenido del núcleo en forma de una temible explosión atómica
con la liberación de la energía implícita a la materia, poniendo de relieve su
unidad dialéctica y mostrando un ejemplo concreto y violento de salto
cualitativo. La fuerza nuclear fuerte, además, consiste en la tensión dinámica
de tendencias opuestas: atracciónrepulsión y absorciónradiación: este campo es
atractivo y repulsivo de manera simultánea; se vuelve repulsivo cuando los
nucleones casi se tocan y atractivo cuando atractiva cuando se "alejan" a 3 o 4
veces el radio del protón; se transforma cualitativamente en su contrario mas
allá de este punto cuantitativo. Por su parte el proceso dialéctico absorción
emisión se manifiesta con la emisión recíproca de una partícula virtual liberada
de la energía interna de los nucleones (protones y neutrones) transformada en
materia, partícula conocida como mesón (por tener masa media entre el protón y
el electrón) que viaja a velocidades cercanas a la de la luz y cuya vida media
es de 1023 segundos; esta partícula es el cuanto o partícula asociada a este
campo, que interactúa con los nucleones y los mantiene unidos.
Con el surgimiento dialéctico de la fuerza nuclear fuerte aparece la fuerza
nuclear débil que es responsable de la desintegración radiactiva, verdadero
alquimista de la naturaleza, en virtud del cual las partículas radioactivas o
inestables se transforman en un elemento totalmente diferente; así, por ejemplo,
"en un gramo de radio cada segundo se transforman 37.000 millones de átomos en
átomos de otro elemento, el radón, que es un elemento gaseoso"128 y este cambio
cualitativo espectacular se dio porque el átomo de radio perdió sólo dos
unidades cuantitativas en su número atómico. Además la fuerza nuclear débil se
manifiesta en el interior del núcleo de una manera dialécticamente asombrosa:
esta fuerza transforma un neutrón en un protón emitiendo en el acto un electrón;
a su vez el protón se transforma en neutrón emitiendo en el acto un positrón
(antipartícula del electrón) y todo ello en la inimaginable fracción de tiempo
de 1023 segundos. ¿Qué sentido puede tener aquí el prejuicio de que A es igual
a A, cuando esa A se transforma en B y esa B en A millones de veces en milésimas
de segundo? ¿No tendríamos literalmente que decir que la identidad de A
permanece cambiando y trasformándose en su contrario para volver a ser la misma
millones de veces en milésimas de segundo? Las leyes de identidad son útiles
cuando estudiamos la estructura formal de los juicios y en los estrechos límites
de la vida cotidiana, pero constituye una necedad proyectarla como esencia
ontológica del mundo. La necia dialéctica de la naturaleza se impone aquí una
vez más.
458
Al mismo tiempo, un miserable átomo, por su campo electromagnético, tiene una
influencia infinita, verdaderamente el átomo es una unidad discreta, finita,
determinada, cuya existencia finita tiene una influencia infinita. Incluso los
cuerpos del tamaño de nuestra experiencia cotidiana y base de todos nuestros
prejuicios lógicos (A=A), al contrario de lo que afirmaron los empiristas
estrechos, no constituyen entes aislados o "hechos atómicos" (en la terminología
arbitraria e inapropiada de Wittgenstein130) sin ninguna vinculación, cuyo
conocimiento no nos dice nada acerca del mundo en su totalidad. En realidad su
influencia es infinita ya que su campo gravitatorio tiene un alcance infinito.
Conocemos elementos de lo infinito por medio de lo finito. Lo finito e infinito
no están separados por un abismo, por la relación universal de la materia y la
unidad dialéctica entre lo finito y lo infinito, de la cual el campo
gravitacional y el electromagnético constituye sólo un ejemplo. Podemos
constituir una concepción general del mundo sin necesidad de ningún misticismo
ni charlatanería.
Con el descubrimiento de la dinámica del núcleo atómico, se ha podido
fundamentar la tabla periódica de los elementos químicos; las propiedades
cualitativas de los elementos están en función de las diferencias cuantitativas
de sus pesos atómicos o más precisamente, del número de protones en el núcleo.
El extraordinario genio de Mendeleyev consiste en que, sin tener noticia sobre
la estructura del átomo y solamente con el conocimiento cuantitativo de los
pesos atómicos, relacionó y organizó la tabla periódica vinculando la cantidad
con la cualidad, descubriendo que propiedades similares se repetían
periódicamente por el simple aumento de los pesos atómicos; propiedades que "se
niegan y se conservan al mismo tiempo" y que se transforman de la cantidad en
calidad, como diríamos en lenguaje dialéctico. "Y la demostración de esto es
brillante" —escribió Engels a quien produjo honda impresión la conquista del
pensamiento del gran químico ruso—, "Mendeleyev probó que las distintas brechas
que ocurren en la serie de elementos emparentados, organizados según los pesos
atómicos, indicaba que en ellas había nuevos elementos que descubrir. Describió
por anticipado las propiedades químicas generales de uno de esos elementos
desconocidos (...) Locoq de Boisbaudran descubrió ese elemento, y las
predicciones de Mendeleyev concidían con muy leves discrepancias. El eka
aluminio fue, a partir de entonces, el galio. Por medio de la aplicación —
inconsciente— de la ley de Hegel, de la transformación de la cantidad en
calidad, Mendeleyev realizó una hazaña científica que no es excesiva audacia
equiparar con la de Leverrier, cuando calculó la órbita del planeta Neptuno,
hasta entonces desconocido"131. A pesar de esta hazaña
científica,Mendeleyev mismo creía que los elementos químicos eran inmutables, el
oro siempre sería oro y el plomo, plomo hasta el final de los tiempos. El gran
459
revolucionario León Trotsky comentó al respecto de las implicaciones de la
radiactividad: "Hasta muy recientemente los científicos supusieron que en el
mundo existían cerca de noventa elementos, que estaban más allá de todo tipo de
análisis y que no podían ser transformados el uno en el otro. Esta noción
contradecía al materialismo dialéctico, que habla de la unidad de la materia, y,
lo que es todavía más importante, de la transformación de los elementos de la
materia"132. Como comenta Trotsky, la periodicidad de las propiedades de los
elementos y el conocimiento de la radiactividad, manifestación de la fuerza
nuclear débil, ha logrado no sólo la conciencia del hecho de que la naturaleza
misma transforma y crea a los elementos químicos en las profundidades de las
estrellas y en las explosiones de supernova, sino el acariciado sueño medieval
de los alquimistas, la transformación deliberada de los elementos químicos.
"Desde entonces, casi todos los elementos conocidos han sido transmutados por
medio del bombardeo con diversas partículas (...) Hoy día , el mercurio puede
transformarse de hecho en oro, mediante técnicas nucleares; pero el costo actual
de esta transmutación sería tan elevado que el proceso sería un fracaso
económico"133.
Más sorprendente aún es el hecho de que con la aplicación —aunque inconsciente
por parte de la mayoría de los científicos— de las leyes dialécticas implícitas
a la física moderna, específicamente en las propiedades periódicas de los
elementos y en la física cuántica, se han podido producir elementos químicos
inexistentes en la naturaleza, creando núcleos atómicos artificiales que por sus
características son útiles para el hombre. El hombre conoce a la naturaleza
transformándola objetivamente. Junto con la transformación de sus relaciones
sociales, la historia de la naturaleza, desde la emergencia activa del hombre,
no se puede separar de la historia de la humanidad. La interacción hombre
naturaleza se va volviendo más determinante conforme avanza el potencial técnico
del ser humano. Con el desenvolvimiento de los modos de producción y a medida
que, de ser esclavo de la naturaleza, el hombre se convierte en su amo, aun
cuando dentro del capitalismo el amo sea estúpido y egoísta (todo un burgués
contemporáneo), el capitalismo ha llevado esta transformación hasta sus límites,
dentro de lo que cabe, en una sociedad de clases y ha vuelto a las fuerzas
productivas, potencialemancipatorio en una sociedad sin clases, contra el hombre
mismo; como su "nuevo amo" aparentemente indomable. Para Marx, el hecho de que
no sólo podamos reproducir la cosa en sí sino además crear cosas en sí como
cosas para nosotros que no existían antes de la intervención objetiva del ser
humano, representa una prueba asombrosa de la terrenalidad y objetividad del
pensamiento del hombre y la posibilidad misma de poner sus resultados bajo el
control democrático de la humanidad.
460
2) Materia y antimateria: unidad de contrarios
Una de las tesis cardinales del materialismo dialéctico "la unidad y lucha de
contrarios" ha encontrado su confirmación más sorprendente en el terreno de la
naturaleza con el principio de Paul Dirac: "a toda partícula le corresponde su
antipartícula". Desde entonces las antipartículas han sido descubiertas, una a
una, en los aceleradores nucleares. Y el principio de Paul Dirac se ha
convertido en una de las piedras angulares de la física moderna
Las partículas y sus antipartículas son verdaderos opuestos, idénticos en su
masa, en su espín; su oposición radica en su carga opuesta; oposición que se
manifiesta explosivamente cuando los opuestos se encuentran : se aniquilan
transformándose en fotones de diversa energía; pero los opuestos negados siguen
implícitos en los fotones, vuelven a emerger cuando la característica esencial
de la luz —su movimiento a 300.000 kilómetros por segundo— es negada mediante la
colisión con diversas partículas, generando en el acto diversas partículas y
antipartículas.
La gran explosión que generó el universo conocido se supone que originó la misma
cantidad de materia y antimateria. Una de las líneas de investigación más
cautivantes de la cosmología y la física modernas es rastrear el destino de la
antimateria generada. Si esta hipótesis resulta correcta la unidad de contrarios
estaría implicada en el origen mismo del universo conocido.
Las contradicciones han sido encontradas, una detrás de otra, en las partículas
llamadas elementales, como burlándose de su nombre y mofándose de la ley de
identidad. Todo un abanico de contradicciones (en todos los niveles hegelianos:
diferencia, contradicción, antagonismo) están implicados en cada una de las
partículas elementales. Así el neutrón en estado libre se desintegra en un
electrón, un protón y un antineutrino; el protón se desintegra en un neutrón, en
un positrón (antielectrón) y un neutrino; los mesones (cuantos de la interacción
fuerte) además de existir positivos, negativos, y neutros decaen en fotones de
gran energía; los muones (electrones pesados), además de ser positivos o
negativos se desintegran en neutrones, neutrinos y antineutrinos o en
positrones, neutrinos y antineutrinos respectivamente. Muchas de estas de
sintegraciones (como la de los muones) se dan en pocas millonésimas de segundo y
otras como la del protón en un tiempo en años de un 1 seguido de 31 a 33 ceros.
Por si estas contradicciones no fueran suficientes y no estuviéramos
suficientemente apabullados y confundidos con la enorme cantidad de nuevas
partículas materiales —por no hablar del irónico nombre de "partículas
elementales"—, agreguemos a esto que todas tienen sus antipartículas y que todos
los nucleones se componen de partículas aun más pequeñas llamadas quarks, que
461
además de existir en cuatro variantes, también tienen sus antipartículas. Con
los quarks emerge un nuevo nivel de la realidad, con nuevas propiedades o campos
(también cuantificados con la constantePlanck), que no existen en el nivel de
los nucleones (protones, neutrones, mesones,) campos conocidos con los
extravagantes nombres de: color, extrañeza, belleza, etc.; junto con sus cuantos
o partículas, conocidos como gluones que, se cree, son responsables de estos
campos, mostrando que incluso los quarks, en tanto emiten partículas virtuales,
no son "elementales". Hasta el momento sólo el electrón y algunas otras
partículas permanecen sin revelar su estructura interna. Muchos científicos,
ilusamente diríamos nosotros, las siguen considerando partículas elementales,
eternas e inmutables, pero, como lo demuestra la historia de la ciencia,
seguramente será cuestión de tiempo para que revelen sus secretos. El átomo
supuestamente indivisible y simple es un verdadero universo compuesto por una
cantidad, en imparable crecimiento, de "partículas elementales" (hasta el
momento se han descubierto alrededor de ochenta) cuya característica más
relevante consiste en que no son elementales.
Una tras otra, estas partículas han sido derribadas de su pedestal de supuestas
partículas irreductibles, más allá de las cuales ya no hay nada que investigar.
Alan Woods y Ted Grant en Razón y Revolución subrayan el constante e
interminable proceso de confirmación de la complejidad infinita de la materia,
que representa una de las ideas fundamentales del materialismo dialéctico. "A
pesar del hecho de que la experiencia ha demostrado que la materia no tiene
límite, los científicos siguen buscando en vano los "ladrillos de la materia".
(...) Las propiedades de los quarks todavía esperan ser analizadas, y no hay
razón para suponer que eso no se vaya a conseguir, señalando el camino para el
sondeo cada vez más profundo de las infinitas propiedades de la materia. Este es
el camino por el que siempre ha avanzado la ciencia. Las supuestamente
infranqueables barreras al conocimiento que ha erigido una generación, han sido
derribadas por la siguiente, y así sucesivamente. Toda la experiencia previa nos
da la razón al afirmar que este proceso dialéctico de avance del conocimiento
humano es tan infinito como el propio universo"134. El materialismo dialéctico,
bien entendido, representa una concepción del desarrollo como una espiral
dialéctica siempre abierta y rica en contenido cuya única constante es el
movimiento y la contradicción concretas.
3) Las partículas elementales y el desarrollo del Universo:
unidad dialéctica de lo finito y lo infinito
462
En resolución: quien quiera conocer los más importantes secretos de la
naturaleza contemple y considere en torno a lo mínimo y a lo máximo de los
contrarios y opuestos".
Giordano Bruno, 15481600
Una confirmación asombrosa e incontrovertible de la unidad dialéctica entre lo
finito y lo infinito se encuentra en la vinculación recíproca de las partículas
elementales con las características y el desarrollo del universo, la gestación
de estrellas y todos los elementos químicos. Es difícil comprender sin quedarse
anonadados los conceptos de infinito que implica esta relación.
Tanto Engels como Marx135 siempre argumentaron que el concepto matemático de
infinito no era una simple creación de la razón: "...todo el sistema solar y las
distancias que aparecen entre éste aparecen, a su vez, como infinitamente
pequeñas en cuanto tratamos con distancias calculadas en años luz",
dice Engels hablando de la objetividad del concepto de infinito. "Aquí ya
tenemos, pues, un infinito, no sólo de primero, sino además de segundo grado, y
podemos dejar a cargo a la imaginación de los lectores la construcción de nuevos
infinitos de un grado más elevado en el espacio infinito, si tienen deseos de
hacerlo"136. Es difícil de asimilar para el sentido común que el universo tan
inconmensurablemente inmenso, tanto que todos los granos de arena de toda las
playas del mundo serían insuficientes para contabilizar las estrellas que nacen,
se desarrollan y mueren en ese infinito escenario, esté relacionado con su
extremo opuesto que le es inconmensurable e infinitamente pequeño.
Matemáticamente sus magnitudes relativas están infinitamente separadas y
opuestas, sin embargo, existe una relación esencial entre estos opuestos. Las
partículas elementales surgen y se fusionan en átomos en las entrañas de las
estrellas; estrellas que existen como manifestación de la energía que se
requiere para fusionar las partículas en átomos y transmutar elementos;
estrellas que forman galaxias, cúmulos de galaxias y supercúmulos; estrellas que
explotan y generan nuevos elementos químicos, agujeros negros y pulsares que
emiten neutrones; partículas y átomos que tras ser arrojados en la vastedad del
universo se unen en nubes moleculares o matrices de nuevas estrellas y galaxias;
galaxias que pueden ser estudiadas por la influencia infinita del espectro
electromagnético emitido por los elementos químicos inconmensurablemente
pequeños con relación a las estrellas e infinitamente pequeños en relación con
el universo y que, no obstante, hacen sentir su influencia en todo el universo.
El universo es el sistema más grande e infinito, donde se desenvuelven todos los
procesos materiales en sus infinitas manifestaciones; este todo infinito se
vincula con su opuesto infinitamente pequeño, que está al borde de la no
existencia, la mayoría de las partículas elementales son inestables y tienen una
463
vida media que llega a ser de millonésimas de segundo, tiempos que no son nada
en la escala del universo. Con un criterio materialista tenemos la oportunidad
de estudiar la unión de lo infinitamente grande e infinitamente pequeño, no en
la intuición irracional de un Schopenhauer, sino en el estudio de las leyes
concretas del universo, leyes que unifican los opuestos. Desde hace varias
décadas, dicha unidad se ha puesto de relieve en la ciencia y la cosmología
modernas con implicaciones filosóficas infinitamente más ricas y cautivantes que
las abstracciones vacías y presuntuosas de la filosofía burguesa posmoderna
entretenida en un empirismo estéril o en la noche negra de la irracionalidad
donde "todos los gatos son pardos".
El "polvo de estrellas", producto de la explosión agónica de una estrella en
forma de nova o supernova, se acumula en una suerte de cementerios estelares o
"nubes moleculares" formadas de polvo y principalmente de moléculas de
hidrógeno; el rompimiento del balance entre las fuerzas opuestas de la presión,
que tiende a expandir la nube y la gravedad que la tiende a contraer, o en otras
palabras, el rompimiento de su simetría como resultado de su interacción con el
resto del universo, provoca la condensación en grumos de estas nubes que las
colapsan gravitacionalmente. Este proceso de nacimiento de galaxias a partir del
caos puede ser visto en la nebulosa de Orión. El caos, la falta de simetría
y homegeneidad en el universo, como habíamos visto, genera orden. Según una
teoría del astrofísico soviético L. M. Orzenoi: "el universo primordial se
encontraba en un estado caótico, lleno de gigantescos remolinos de materia, tal
como en un líquido turbulento"137. Cuando la masa implicada en el colapso
gravitacional supera el punto cualitativo de una décima parte de la masa del sol
y una temperatura de los seis millones de grados, la nube molecular comienza a
romper la enorme oposición del electromagnetismo y fusiona los protones en
átomos para formar helio a partir del hidrógeno; con esta reacción termonuclear
presenciamos el nacimiento de una estrella. No obstante las estrellas de estas
magnitud solo producen átomos de helio y un poco de nitrógeno. Las estrellas que
tienen una masa mayor a la mitad de la del Sol producen todos los elementos más
ligeros que el hierro, entre ellos el carbono y el oxígeno, sin los cuales, el
surgimiento de la vida sería imposible.
Lo más representativo de la verdadera alquimia natural de las estrellas está en
que la masa de los átomos creados no es igual a la suma de sus partes138, los
átomos creados son más ligeros que los protones de los cuales se formaron, la
diferencia de masa se manifiesta en la increíble energía de las reacciones
atómicas que originan el brillo de las estrellas. Además los protones y
neutrones que forman los átomos son cualitativamente distintos a los que se
encuentra en estado libre; en la interacción dialéctica que describimos más
464
arriba, las partículas subatómicas adquieren estabilidad, sin la cual decaen
radiactivamente para formar protones y electrones: las únicas partículas con
cierta estabilidad (los protones se desintegran en 1 x 1033 años)
El nacimiento de estrellas y su desarrollo se da en función de cambios graduales
interrumpidos por bruscos cambios cualitativos a través de la dinámica y tensión
de fuerzas opuestas. Su dinámica sólo puede ser entendida cabalmente como un
proceso dialéctico. La estrella consiste en la dinámica de la presión de gas
caliente que irradia energía y tiende a expandirla y la gravedad de su masa que
tiende a contraerla, mientras que el parámetro para determinar sus propiedades
se mide en función de su relación cuantitativa con la masa del sol. La lucha
entre las fuerzas opuestas de la estrella determina su destino.
Cuando la masa de la estrella no supera el punto crítico de una vez y media la
masa solar, al terminar de manera gradual y más o menos lineal su combustible
(hidrógeno), las tendencias repulsivas dominan, se convierte en una gigante roja
para, finalmente, explotar en forma de nova y crear una nebulosa; las tendencias
gravitatorias dominarán posteriormente el núcleo de la estrella que se colapsará
y se comprimirá a un tamaño de unas cinco veces la Tierra, en donde las fuerzas
gravitacionales serán tan inmensas que una cucharada de materia pesará mas de
cien kilogramos139.
Cuando la masa de la estrella supera el punto crítico de una vez y media la masa
del sol (punto crítico conocido como "límite de Chandrasekhar"), da el salto
cualitativo y al final de su vida se colapsará aún más, hasta superar a la
fuerza nuclear fuerte, los protones se fusionan para crear neutrones y neutrinos
formando una estrella de "neutrones" en una masa de un escaso radio de diez
kilómetros girando y emitiendo un campo magnético y pulsos en ondas de radio.
Estos pulsares tienen un campo gravitacional tan inmenso que una cucharada de su
materia pesa miles de millones de toneladas.
Si la masa de la estrella supera unas seis veces la del sol, explotará como
supernova con la fuerza suficiente para crear los átomos de todos los elementos
más pesados a partir del hierro, átomos que, a diferencia de los más ligeros, al
fusionarse, gracias a la enorme energía de la supernova, tienen un peso superior
a las partículas que los componen; no han perdido energía sino que la han
absorbido transformándola en materia; aquí, como en todos los procesos
complejos, el todo nunca es igual a la suma de las partes y las partes no son
iguales que en su aislamiento. Un testigo de esta explosión espectacular de
supernova la constituye la nebulosa Cangrejo. Nebulosas que son embriones de
nuevas galaxias en cuyo centro el antiguo núcleo colapsará tan infinitamente que
la velocidad para escapar a su gravitación superará a la velocidad de la luz,
465
dando origen a un "agujero negro". A diferencia de lo que se pudiera suponer los
"agujeros negros", fenómenos extraordinariamente destructivos, tienen, al mismo
tiempo, un papel creativo en el universo y se encuentran en el centro de toda
galaxia, al parecer, en los puntos de no retorno, en la periferia de los
agujeros negros, mas allá de los cuales nada, ni siquiera la luz, puede escapar
se forman remolinos y chorros de materia que rompen el fino equilibrio de las
nubes moleculares colapsándolas en nuevas estrellas y galaxias. Cuando la
expansión de la galaxia ha llegado a cierto punto el "agujero negro" deja de
arrojar material y se inactiva. Como comenta Alan Woods: "Aquello que en
principio se suponía era una fuerza puramente destructiva, ahora resulta ser una
fuerza creadora, un elemento que reside en el centro de toda galaxia,
manteniéndola unida y dándole cohesión, esencial para toda la vida y para
nosotros mismos (...) De esta forma, la fuerza más destructiva de todo el
universo resultó tener poderes colosales creadores. La concepción dialéctica de
la unidad y lucha de contrarios ha recibido una poderosa confirmación de la
fuente más inesperada"140.
Hemos dejado muy atrás la creencia del gran filósofo Aristóteles según la cual
el reino celeste, incluidas las estrellas, constituían el reino de
loecuclidianamente puro e inmutable; y también hemos dejado muy atrás los
prejuicios positivistas de Augusto Comte, según el cual, investigar la
composición química del sol, por no hablar del resto de las estrellas, era una
perdida de tiempo por estar oculta o ser una cosa en sí absolutamente
inaccesible142. A pesar de todos estos prejuicios presuntuosos que imponen
límites artificiales al conocimiento, no sólo hemos accedido al conocimiento de
la composición de nuestra estrella, no sólo sabemos que algún día el Sol no
volverá a aparecer en el horizonte (el ejemplo clásico del escepticismo
de Hume), y no porque los científicos hayan adoptado el escepticismo
positivista, sino por el conocimiento de sus leyes inmanentes que predicen el
fin de su combustible; además, hemos ido mucho más allá de lo que supuestamente
podíamos acceder en el conocimiento de la cosa en sí, no sólo de la vinculación
de lo infinitamente pequeño con lo infinitamente grande, sino en la vinculación
de los fenómenos estelares con la creación de los elementos químicos que hacen
posible la vida y el pensamiento. La cosa en sí no sólo se ha vuelto cosa para
nosotros sino que ha mostrado cómo de su evolución dialéctica ha surgido el
pensamiento que, en algunas filosofías, además de imponerse límites, en un
delirio producto de la división extrema del trabajo manual e intelectual del
capitalismo, se cree fundamento solipsista o trascendental de la naturaleza.
466
CONCLUSIONES
El sentido común, herencia y expresión de la vida cotidiana nos dice que "A" es
igual a "A". Las leyes de la lógica formal son adecuadas para una gran cantidad
de fenómenos de la vida cotidiana, precisamente de aquellos eventos lineales y
aparentemente estables como, por ejemplo, reconocer la identidad y permanencia
de los objetos de nuestra vida diaria; saber que un perro es un perro
(especialmente si se trata de mi perro), la autoconciencia de mi propio Yo,
saber reconocer los rostros familiares y queridos; todas son condiciones para la
supervivencia en el mundo cotidiano143.
Sin embargo, el mundo cotidiano no deja de informar continuamente de la
complejidad del mundo capitalista, donde la estabilidad es sólo un momento
transitorio del movimiento. La lógica formal es una fuerza esencialmente
conservadora y tranquilizadora que se convierte en una especie de
rigor mortismental cuando no se reconoce en sus propios límites; la estabilidad
relativa de lo cotidiano se transforma en su contrario por la gradual
acumulación de tensiones producto, en este caso, de las leyes inmanentes del
capitalismo, que actúan en las profundidades, que llegan a un punto crítico y
emergen bruscamente a la superficie; transformando la conciencia de los hombres,
especialmente de los trabajadores. El cuerpo muerto y rígido vuelve a cobrar
vida; el Yo aparentemente inmutable se transforma bruscamente; el Yo
individualista se percata de su fuerza como clase social. En realidad es ya otro
sujeto cualitativamente distinto, una negación dialéctica de su conciencia
pasada. Estos procesos, impulsados en última instancia por factores objetivos,
obligan a las masas a intentar tomar el destino en sus propias manos. Se llaman
revoluciones; procesos que son profundamente dialécticos y que, en palabras
de Marx, constituyen la locomotora de la historia.
Ahora la lógica formal se torna en un cascarón vacío, rígido y sin vida porque
la estabilidad ha sido rota y el movimiento a través de contradicciones se
vuelve absoluto. "Trataré aquí de esbozar lo esencial del problema en forma muy
concisa" nos dice Trotsky hablando de los límites de la lógica formal. "La
lógica aristotélica del silogismo simple parte de la premisa de que "A" es igual
a "A". Este postulado se acepta como axioma para una cantidad de acciones
humanas prácticas y generalizaciones elementales. Pero en realidad "A" no es
igual a "A". Esto es fácil de demostrar si observamos estas dos letras bajo una
lente: son completamente diferentes. Pero, se podrá objetar, no se trata del
tamaño o la forma de las letras, dado que ellas son sólo símbolos de cantidades
iguales, por ejemplo de una libra de azúcar. La objeción no es válida; en
realidad una libra de azúcar nunca es igual a una libra de azúcar: una balanza
delicada descubrirá siempre la diferencia. Nuevamente se podría objetar: sin
467
embargo una libra de azúcar es igual a sí misma. Tampoco esto es verdad: todos
los cuerpos cambian constantemente de peso, color, etc. Nunca son iguales a sí
mismos. Un sofista contestará que una libra de azúcar es igual a sí misma en un
"momento dado". Fuera del valor práctico extremadamente dudoso de este "axioma",
tampoco soporta una crítica teórica. ¿Cómo concebimos realmente la palabra
"momento"? Si se trata de un intervalo infinitesimal de tiempo, entonces una
libra de azúcar está sometida durante el transcurso de ese "momento" a cambios
inevitables. ¿O este "momento" es una abstracción puramente matemática, es
decir, cero tiempo? Pero todo existe en el tiempo y la existencia misma es un
proceso ininterrumpido de transformación; el tiempo es en consecuencia, un
elemento fundamental de la existencia. De este modo el axioma "A" es igual a
"A", significa que una cosa es igual a sí misma si no cambia, es decir, si no
existe"144.
Quizá cuando vamos al mercado y queremos comprar azúcar estas consideraciones
dialécticas carecen de importancia y aparentan ser necedades pedantes e
inútiles. Seguramente resultará un ejercicio bastante improductivo buscar
contradicciones en todo lo que vemos cada vez que vamos a La merced, —aun
cuando Marx haya mostrado que "el mercado" se encuentra plagado de
contradicciones—. Pero cuando nos enfrentamos con procesos dinámicos y
complejos, a los que la vida cotidiana se encuentra en última instancia
subsumida, la cosa cambia. Precisamente estos fenómenos son los de más interés
para la ciencia moderna y la filosofía marxista y en los que se puede encontrar
respuestas a los problemas que aquejan a la humanidad. Y no es que los procesos
complejos como los estudiados por la economía política marxista, la teoría de la
relatividad, la teoría del caos y la mecánica cuántica, no puedan ser entendidos
racionalmente. Todo lo contrario, la condición para comprender racional y
cabalmente y de forma coherente la dinámica interna de estos procesos complejos
se encuentra, según Marx, en "la reproducción de lo concreto por la vía del
pensamiento"145, en someter lo concreto, síntesis de múltiples determinaciones,
a un estudio objetivo que desvele sus leyes subyacentes, y a su vez, comprender
la riqueza del fenómeno como manifestación inmediata de su esencia (ley). El
materialismo dialéctico es un modelo general del movimiento, una guía para la
acción y un método para el estudio de lo complejo; un método basado en la
historia y en las ciencias particulares modernas, se abstrae de allí y se aplica
como método para la intervención práctica.
El objetivo primordial de este trabajo ha sido poner de relieve que la ciencia
moderna muestra, en general, que el movimiento lineal o la acumulación gradual
de alguna de las variables involucradas provoca saltos repentinos; que el
movimiento implica la dinámica de fuerzas y tendencias opuestas y diversas, y
468
que los saltos cualitativos, debido a la acumulación cuantitativa por medio de
contradicciones, dan lugar a nuevos fenómenos y estabilidades relativas que
niegan las leyes anteriores al surgir nuevas y, al mismo tiempo, procesos en los
que se puede rastrear su antecesor porque conservan algunas leyes como
subordinadas. Estas son, a grandes rasgos, las tres leyes generales del método
dialéctico abstraído de la naturaleza y de la sociedad como un modelo que
refleja en su generalidad la dinámica del movimiento y que puede ser aplicado a
lo concreto, nuevamente para comprender sus múltiples determinaciones
específicas en sus manifestaciones infinitas.
a) Los saltos cualitativos
Aunque desde Darwin la idea de evolución y cambio se ha fijado en la conciencia
popular, se tiene una idea castrada y vulgar de movimiento. Esperamos haber
mostrado que una de las ideas más importantes de la ciencia moderna se encuentra
en los puntos críticos, ya sea en la teoría del caos donde el cambio gradual
provoca un salto al caos y del caos al orden; en la mecánica cuántica en donde
la constante Planck determina los puntos críticos de cambio cualitativo de todos
los números cuánticos (espín, campo magnético, niveles de energía, encanto,
etc.), es decir, de todas las propiedades a nivel atómico y subatómico (al menos
el nivel de la realidad subatómica hasta donde se ha estudiado); en la teoría de
la relatividad donde la mecánica clásica se transforma en física relativista en
virtud de su relación con la velocidad de la luz, los movimientos relativos y la
gravedad.
La idea dialéctica de la transformación de lo cuantitativo en cualitativo y
viceversa, parece ser un patrón que se repite en una multitud asombrosa de
ciencias y fenómenos: desde la cosmología y la evolución estelar a la física,
con las transiciones de fase: de conductor a superconductor, los estados de
agregación de la materia (sólido, líquido, gaseoso); en el espectro
electromagnético, etc.; en la química y en física con las propiedades
emergentes, con la tabla periódica de los elementos químicos, la desintegración
radiactiva; en geología con la acumulación de tensiones, choques de placas
tectónicas que provocan terremotos.
Estos saltos cualitativos dan lugar a nuevos fenómenos, a una nueva relativa
estabilidad con leyes específicas. Estos saltos vinculan a las ciencias entre sí
e incluso vuelven sus fronteras borrosas: la física cuántica relativista se
transforma en standard cuando disminuyen las velocidades; ésta se transforma en
química cuando se vuelve dominante el electromagnetismo que une las moléculas, y
genera procesos de óxidoreducción y unión de iones y radicales; la tabla
469
periódica de los elementos químicos se comprende mejor a través de la física
cuántica; la física cuántica se transforma en física clásica cuando la longitud
de onda disminuye con los cuerpos de la vida cotidiana; la física clásica se
transforma en relativista cuando aumentan las velocidades y la gravedad.
La química se transforma en biología cuando aparece históricamente el
metabolismo y la fotosíntesis, y aun antes cuando aparecen los primeros
"metanógenos" y la formación de proteínas. La vida genera conciencia y la
conciencia adquiere su impulso más importante con la fabricación de herramientas
por el hombre, transformándose en conciencia social y en historia humana que, a
su vez, condiciona y determina a la historia de la naturaleza, como lo explicó
de manera maravillosa y premonitoria Engels. Incluso la idea incorrecta
gradualista de Darwin, que no nacía de la idea misma de evolución, ni de la
evidencia fósil, sino de la convicción ciega de Darwin en el cambio gradual, ha
sido negada, al mismo tiempo que se conserva en su esencia central evolutiva por
la teoría hoy generalmente aceptada de equilibrio puntuado, en donde se afirma
que la evolución es un proceso contradictorio de cambios graduales —como los
tres mil millones de años después de la aparición de la vida en la tierra—
interrumpidos por cambios bruscos y rápidos: de extinciones masivas y aparición
repentina de nuevas especies, como la explosión cámbrica hace unos 600 millones
de años que produjo los principales diseños de la vida animal en pocos millones
de años, incluso, el mismo surgimiento repentino de la vida hace unos tres mil
millones de años. "Si el gradualismo es más un producto del pensamiento
occidental que un hecho de la naturaleza", nos dice el creador de esta
teoría, Stephen Jay Gould, "entonces deberíamos tomar en consideración
filosofías alternativas de cambio para ampliar nuestro espacio de prejuicios
limitativos. En la Unión Soviética, por ejemplo, los científicos se formaron una
idea del cambio muy diferente —las llamadas leyes de la dialéctica, reformuladas
por Engels a partir de la filosofía de Hegel—. Las leyes dialécticas son
explícitamente puntuacionales. Hablan, por ejemplo, de ‘la transformación de
cantidad en cualidad’. Esto puede sonar a bobadas esotéricas, pero sugiere que
el cambio se produce a grandes saltos tras una lenta acumulación de tensiones
que un sistema resiste hasta llegar a un punto de fractura. Calentamos el agua y
finalmente hervirá. Opriman a los trabajadores cada vez más y se producirá la
revolución. Eldredge y yo nos sentimos fascinados al enterarnos de que muchos
paleontólogos rusos apoyaban un modelo similar a nuestro equilibrio
puntuado"146.
Incluso la idea dialéctica de cambios cuantitativos que se convierten en
cualitativos ha recibido su confirmación de la fuente más asombrosa e
inesperada: El Genoma Humano. Como explica Alan Woods y Ted Grant en su
470
excelentísima obra Razón y Revolución: "Hasta ahora los científicos creían que
el genoma humano contenía las instrucciones para crear entre 50.000 y 150.000
genes. Esta suposición se basaba en su comparación con los organismos simples,
como la mosca del vinagre (Drosophila melanogaster). Los científicos decían que
si esta humilde mosca tenía 13.000 genes, una entidad más grande y compleja como
el ser humano debería tener muchos más. Una estimación superior a los 150.000
genes parecía razonable, después de descifrar los dos primeros genomas animales.
Pero estaban equivocados. Probablemente el número de genes humanos no supere los
treinta o cuarenta mil.
"Este pequeño número les plantea a los científicos un dilema. Si el ser humano
sólo tiene trece mil genes más que la lombriz intestinal (...) ¿cómo explicar su
gran complejidad? ¿Por qué comparativamente somos tan avanzados? La lombriz
intestinal es una pequeña criatura tubular formada por 959 células, de las
cuales 302 son neuronas. El cuerpo humano posee cien billones de células, de las
cuales unas cien mil millones son células nerviosas. A pesar de la tendencia
actual a negar la existencia del proceso evolutivo, sería bastante razonable
suponer que hay algo más en el Homosapiens que en la Caenorhabditis elegans.
(...)
"Existe una interacción compleja entre la composición genética del organismo y
las condiciones físicas que lo rodean. En lenguaje hegeliano, los genes
representan el potencial. Pero este potencial solo se puede activar a través del
estímulo exterior. (...) El editorial de The Observer llega a la siguiente
conclusión ‘políticamente, ofrece alivio para la izquierda y su creencia en el
potencial de todos (...) Pero condena a la derecha, con su gusto por las clases
dominantes y el pecado original"147.
De hecho entre humanos y chimpancés sólo hay una diferencia del 1% en su
composición genética, pero es una diferencia cualitativa fundamental y evidente
para todos; y a pesar de ello, sobre todo en el hombre contemporáneo, lo
dominante en el desarrollo humano no es la genética, sino el ambiente social
capitalista que inhibe y ahoga las potencialidades culturales, científicas y
hasta genéticas en el ser humano
b) Unidad y lucha de contrarios
Otra tesis que hemos intentado someter a prueba es la idea de "la unidad y lucha
de contrarios" o, en otras palabras, la vinculación recíproca, la tensión entre
fuerzas opuestas como fuente del desarrollo. Incluso el simple cambio de lugar,
como decía Lenin, no puede entenderse como una simple suma de estados de reposo
471
sino, más bien, como la unidad entre la discreción y la continuidad; como la
discreción del objeto que pasa por una sucesión de puntos y, al mismo tiempo, la
continuidad de su trayectoria. Las contradicciones se manifiestan de manera
específica dependiendo del tipo de proceso y el nivel de la realidad del que se
trate y se vuelven mas relevantes y evidentes a medida que la complejidad del
proceso aumenta. Como comentó el destacado profesor y doctor en Ciencias,
Pedro Miramontes: el movimiento requiere contradicción. En una esfera
platónicamente perfecta, idéntica a sí misma, situada en el vacío es imposible
saber o determinar movimiento alguno, ni relación ni punto de referencia alguno
para determinar su movimiento; se requiere pintar una raya a la esfera perfecta,
pero con ello deja de ser perfecta, se rompe su simetría. El movimiento requiere
que esa "A" deja de ser "A" o igual a sí misma para que suceda el movimiento,
condición esencial para la existencia148.
Hemos intentado mostrar que las cuatro fuerzas fundamentales de la naturaleza
implican una relación de tendencias opuestas. La fuerza nuclear débil implica la
unidad y tensión dinámica entre protones y neutrones en su transformación
recíproca, emitiendo partículas radiactivas (alfa, beta o gamma); la "fuerza
nuclear fuerte" se presenta como unidad dialéctica de la atracción y repulsión y
la interacción de las partículas con sus cuantos; el electromagnetismo con sus
polos opuestos inmanentes y como resultado de la relación entre las cargas del
núcleo y de los electrones, además, del campo magnético implícito en los
protones, electrones y otras partículas en sí mismas; a nivel del núcleo atómico
la unidad y lucha de contrarios se manifiesta en la correspondencia entre
materia y antimateria y su aniquilación mutua para dar origen a energía o
fotones; los fotones, a su vez, como potencial de surgimiento de partículas y
antipartículas, por no hablar de la oposición y diversidad implícitas en la
inagotable complejidad de las partículas elementales.
La unión entre finito e infinito que implica el campo magnético y gravitatorio,
así como la unidad entre lo infinitamente inmenso: el universo y lo
infinitamente pequeño: las partículas elementales; la unidad entre lo finito e
infinito en los fractales; la unidad dialéctica entre orden y caos en Teoría del
Caos, en donde la aleatoriedad puede comprenderse determinada en su espacio de
fases y en sus atractores extraños y el orden como producto del caos creativo; o
en otras palabras, quizá menos académicas: "Un desmadre organizado"149. La
vinculación entre necesidad y accidente en donde el punto crítico es fracturado
por un accidente aparentemente insignificante que manifiesta la necesidad misma
de ese rompimiento y de las leyes que llevaron hasta este punto crítico.
Los opuestos irreconciliables de la mecánica clásica, espacio, tiempo, materia y
energía, se han comprendido en su interacción recíproca con la teoría de la
472
relatividad: el espacio se curva y se determina por la materia que contiene; la
materia no puede concebirse, en su heterogeneidad, fuera del espacio; el tiempo
se transforma con el movimiento de un sistema material; las longitudes, masas y
tiempos propios de un cuerpo están en relación con su movimiento. La materia y
la energía no están separados por un abismo infranqueable, en tanto que la
fuente del movimiento y desarrollo de la materia esta implícita en ella misma En
la evolución estelar vemos la unidad de contrarios en la tensión entre la
expansión de la energía de la estrella y su contracción gravitacional, que hace
de la estrella un sistema con relativa estabilidad. Contradicciones que anuncian
ya la posibilidad del rompimiento de dicha estabilidad, rompimiento que genera
nuevos fenómenos cualitativamente distintos como enanas blancas, estrellas de
neutrones y agujeros negros destructivos y extraordinariamente creativos al
mismo tiempo; tanto que se encuentran en el centro de toda galaxia, atestiguando
su unidad con la creación de planetas y estrellas y eventualmente vida y
conciencia.
La teoría de la evolución se explica como la unidad entre lo accidental y lo
necesario: Lo accidental de la mutación genética, lo accidental de infinidad de
características fenotípicas, que no tienen ninguna utilidad evolutiva y al mismo
tiempo accidentalidad, que en su interacción dialéctica con el medio, posibilita
a que algunos de esos accidentes se manifiesten como necesarios en la
supervivencia y en relación con la transformación constante del medio. La
contradicción concreta se encuentra en el núcleo de la propia vida: "Vivir es
consumirse y consumir la propia vida es ya morir. La vida y la muerte están
estrecha e indisolublemente unidas. Los contradictorios, concretamente, están
unidos, ¡son idénticos!"150.
En matemáticas Marx y Engels ya habían puesto de relieve la unidad dialéctica
entre una recta como un fragmento infinitesimalmente pequeño de una curva cuya
integración daba origen a su contrario: la circunferencia. Las contradicciones
han sido la característica esencial de la matemática moderna dando, de paso, el
tiro de gracia al intento de encontrar una estructura lógico formal a todas las
matemáticas: podemos hablar de la topología en donde un plano es un fragmento
pequeño de una esfera y en la fractalidad en donde existe autosemejanza
estructural infinita en una estructura finita. Matemáticas que tratan del mundo
tal cual es: un mundo abollado, doblado, retorcido o en otras palabras
contradictorio. Es importante tomar conciencia de que estas tensiones entre la
diferencia y la oposición no son arbitrarias sino que se fundan en las
fuerzas mas generales de la naturaleza hasta ahora conocidas y en las
matemáticas implicadas.
473
c) Negación de la negación
La "negación de la negación" vincula las diferentes etapas cualitativas del
desarrollo, considerando lo que tienen de específicas, en su esencia relativa
(en la leyes que se manifiestan en ese nivel) y, a la vez, en lo que conservan
de su pasado o de su origen relativo; y en su tendencia a la autoorganización y
a la mayor complejidad. Hegel le dio expresión a esta idea de una forma ya
clásica y particularmente bella: "El capullo desaparece al abrirse la flor, y
podría decirse que aquel es refutado por ésta; del mismo modo que el fruto hace
aparecer la flor como un falso ser allí de la planta, mostrándose como la verdad
de ésta en vez de aquella. Estas formas no sólo son distinguibles entre sí, sino
que se eliminan las unas a las otras como incompatibles. Pero, en su fluir,
constituyen al mismo tiempo otros tantos momentos de la unidad orgánica, en la
que, lejos de contradecirse , son todos igualmente necesarios, y esta igual
necesidad es cabalmente lo que constituye la vida del todo151".
La negación implica una nueva etapa de un desarrollo orgánico, en la cual nuevas
leyes emergen y al mismo tiempo se conservan las huellas de su antecesor negado.
Tratamos de mostrar que las cuatro leyes fundamentales de la naturaleza
constituyen negaciones dialécticas. En el interior del núcleo domina la mecánica
cuántica relativista con sus leyes específicas (fuerza nuclear fuerte, fuerza
nuclear débil y electromagnetismo). Cuando estamos en el nivel de las órbitas de
los electrones se niegan las fuerzas nucleares y domina el electromagnetismo. La
onda de Schrödinger, que define a la mecánica cuántica, es negada y disminuida
por las leyes de Newton hasta hacerse despreciable con los cuerpos mesocósmicos,
la onda deSchrödinger sigue asociada a los cuerpos pero es tan pequeña que es
prácticamente inexistente. Cuando aumenta la velocidad y la gravedad, las leyes
de la relatividad general niegan a la física de Newton y la conservan al mismo
tiempo como un caso especial. Al igual que las etapas de la vida de la planta,
estos son niveles de la realidad que se niegan recíprocamente y se conservan al
mismo tiempo
El caos es un punto límite de la acumulación de tensiones en un movimiento
lineal y constituye su negación. Pero el caos conserva un orden particular que
conjuga orgánicamente aleatoriedad y determinación; el orden se afirma en el
caos de una forma más compleja y creativa. A su vez, el orden del caos genera
una nueva ventana de orden lineal dentro de un mar caótico. Este orden niega
nuevamente al caos, nueva linealidad que tiene las semillas del caos. La
linealidad mecánica de un péndulo, por ejemplo, implica perturbaciones
insignificantes que llevadas al extremo generan caos, aun en esta linealidad se
encuentra el caos negado, que puede volverse determinante al negar la linealidad
ahora dominante. La geometría fractal de los atractoresextraños propia de los
474
procesos caóticos, mantiene autosemejanza en sus infinitos niveles pero, en
los fractales no lineales, los niveles son cualitativamente distintos, se
conserva la fractalidad estructural pero se niegan cualitativamente.
De la misma forma en que una flor riega su simiente para preparar futuras
generaciones; las estrellas explotan para esparcir el polvo de estrellas y
preparar futuras generaciones estelares. Negación del polvo estelar y de la
estrella desaparecida. De la misma manera que un individuo es negación
dialéctica de sus progenitores y los conserva en sus genes. Y el genoma humano
conserva genes antiquísimos de organismos más simples y antiguos que fueron ya
hace mucho tiempo negados y que no obstante permanecen en nuestros genes mismos.
La comprobación científica de la negación de la negación en los genes humanos es
asombrosa. "En muchos casos nos hemos encontrado con que los humanos tienen
exactamente los mismos genes que las ratas, los ratones, los gatos, los perros o
incluso moscas del vinagre", afirma uno de los dos equipos que estudiaron el
genoma humano. "Tomemos por ejemplo el gen PAX6. Hemos descubierto que si está
dañado no se formarán los ojos. Si le implantamos a la mosca del vinagre un gen
humano, conseguiremos que su descendencia recupere la visión"152. A pesar de
ello, el individuo no puede ser reducido a su carga genética que queda subsumida
a la relación con su medio ambiente.
El individuo ya no es el mismo que fue cuando era niño o joven, pero en su
vejez, el individuo conserva las experiencias negadas de su pasado que
constituyen lo que es. Y el individuo joven o viejo no se reduce a su
individualidad aislada, sino que se constituye inmerso en su formación social
con leyes independientes de su subjetividad; leyes objetivas que en sus puntos
críticos de desarrollo se definen por la acción consciente de los individuos y,
en ocasiones, de un solo individuo que se encuentra a la cabeza de fuerzas
sociales. En estos puntos excepcionales la subjetividad emerge y puede decidir
el desenlace de un proceso objetivo (lo que Marx llamó el factor subjetivo).
La teoría del caos parece confirmar la idea dialéctica del desarrollo
progresivo, idea generalmente denigrada e incomprendida. De acuerdo
con IlyaPrigogine los procesos muestran una tendencia hacia la organización y la
mayor complejidad; fundamentando la línea progresiva del tiempo. La negación de
la negación se representa como una espiral ascendente y contradictoria, cuyos
vórtices, a veces, caen por debajo de la espiral anterior y que, a veces, se
eleven muy por encima de su predecesora y, en la totalidad orgánica de su
desarrollo, muestra una tendencia creciente hacia la complejidad. La evolución
del cosmos, el nacimiento de galaxias y estrellas, por lo menos hasta donde
conocemos, consiste en el rompimiento de la relativa simplicidad, tanto en
composición como en dinámica, de las nubes moleculares provocando un colapso
475
gravitacional, dando origen a estrellas, galaxias, cúmulos de galaxias y
supercúmulos, que generarán el resto de los elementos químicos a partir del
hidrógeno. Y a partir de aquí, en condiciones propicias, el surgimiento de la
materia viva y, con el cerebro del hombre, la materia que ha cobrado conciencia
de sí misma. En palabras de Lenin "la materia más altamente organizada". Después
de todo, podemos afirmar que el cerebro humano es más complejo que una fría nube
molecular. Aun con el fin de nuestro sistema solar por la explosión del Sol en
una supernova, podemos estar seguros junto con Engels que: "por la misma férrea
necesidad con que un día desaparecerá de la tierra su floración más alta, el
espíritu pensante, volverá a brotar en otro lugar y en otro tiempo"153.
La vida misma constituye un proceso de creciente complejidad estructural, desde
los simples organelos reductores de metano, hasta los organismos multicelulares
y el hombre mismo. Con el hombre, el mundo natural del cual surgió, queda
subordinado y negado a las leyes del desarrollo histórico. Por supuesto, el
mundo natural sigue existiendo, y sigue estando en la base de la vida y de la
producción humanas, pero su historia se vuelve cada vez más inseparable del
desarrollo de las fuerzas productivas, a tal grado que ha sido totalmente
transformada irracionalmente, dentro del capitalismo (a excepción de algunos
arrecifes coralinos del Caribe como diría Marx). La historia del hombre, desde
el hombre paleolítico de las cuevas de Francia y España, hasta el hombre
moderno, muestra un inmenso aumento de la capacidad de transformar la
naturaleza; ésta es la base de la historia y de la vida humana. Se puede objetar
que por lo menos el hombre primitivo no devastaba la naturaleza ni asesinaba
masivamente a sus semejantes y que, más que de un progreso, tendríamos que
hablar de un retroceso; pero eso sólo prueba que el hombre moderno tiene una
capacidad infinitamente superior de asesinar a sus semejantes y transformar su
entorno.
El hombre, antes de amar a sus semejantes, necesita comer y para comer necesita
producir; y el producir ha transformado las relaciones entre los hombres muchas
veces y de ellos mismos con la naturaleza. El hombre se volvió hombre en su
intento de controlar y transformar la naturaleza. El desarrollo de la ciencia y
la técnica y la consiguiente transformación de las relaciones
sociales constituye el motor de la historia y no los sermones sobre moral
abstracta. La misma complejidad de la ciencia dentro del capitalismo posibilita
que el hombre salte del reino de la necesidad al reino de la libertad, no con
las lecciones de moral sino por medio de la revolución y el control democrático
de las fuerzas productivas. Este salto revolucionario representa la conservación
de las conquistas culturales del capitalismo al mismo tiempo que su negación
total.
476
Si la espiral de desarrollo no resuelve satisfactoriamente las tendencias de su
propio desarrollo, el proceso puede ser frustrado, ya no como negación
dialéctica, sino como liquidación del proceso mismo. Así, la especialización
extrema en los organismos, su adaptación perfecta a un medio determinado, puede
generar la extinción de una especie al entrar en contradicción con un medio que
se transforma más allá de su punto de adaptación. Esto fue lo que sucedió con
algunos rivales bípedos del Homo habilis excesivamente adaptados (Homo faber).
Esto fue lo que sucedió con la caída del imperio romano cuando el régimen
esclavista llegó a sus límites y los esclavos fueron incapaces de tomar la
hegemonía; la invasión de los bárbaros significó el accidente que provocó el
colapso necesario de un régimen, ya podrido desde hacía siglos. Y no hay razones
para pensar que un colapso de la civilización no pueda volver a ocurrir si las
contradicciones ya insoportables del capitalismo, en especial la propiedad
privada y los estados nacionales, no son resueltas por la vía revolucionaria. La
primera y segunda guerra mundial fueron un serio aviso de que el capitalismo
había llegado ya a sus límites; la contradicción se resolvió temporalmente con
la destrucción masiva de las fuerzas productivas de toda Europa y con la muerte
de masde 55 millones de personas. Esto posibilitó el auge de posguerra que
finalizó en 1973. Ahora somos testigos de una crisis de sobreproducción a escala
global. Las condiciones objetivas para la negación revolucionaria están dadas;
el proletariado constituye ya más del 70% de la PEA de los países avanzados, hoy
es más fuerte que nunca. Sin su permiso no se prende un foco ni se mueve una
rueda. La vinculación económica se extiende a escala global. Los escépticos
eternos de la revolución y de la capacidad creativa de las masas pueden mirar
con sus propios ojos procesos revolucionarios a ritmos diferentes en toda
América Latina: Argentina, Bolivia, Venezuela, Perú, Brasil; y huelgas generales
en Italia, España, Francia, movilizacionesantibélicas de decenas de millones de
personas en todo el mundo el mismo día, sobre todo en países que se suponían
modelos de estabilidad y de capitalismo con rostro humano. El rostro humano ha
mostrado su verdadera cara al atacar las jubilaciones y pensiones de todos los
trabajadores del mundo. Todas las ilusiones del pasado han quedado hechas
añicos. Hay inestabilidad a todos los niveles en todos los continentes del
planeta. Estamos al borde del caos y al borde de un nuevo período histórico.
La concepción del mundo que mejor se corresponde a la complejidad
de las procesos revolucionarios y los procesos naturales que estudia la ciencia
moderna es la filosofía de Marx y Engels: un modelo general del movimiento a
través de las contradicciones y de los rompimientos de la continuidad en sus
manifestaciones concretas. Un instrumento de análisis concreto para la
intervención concreta. "El materialismo dialéctico no es, naturalmente, una
filosofía eterna e inmutable", nos dice Trotsky. " Pensar otra cosa es
477
contradecir el espíritu de la dialéctica. El ulterior desarrollo del pensamiento
científico creará, indudablemente, una doctrina más profunda en la que el
materialismo dialéctica entrará como material de estructuración. Sin embargo, no
hay ninguna base para esperar que esta revolución filosófica se realice bajo el
decadente régimen burgués, sin mencionar que un Marx no nace todos los años ni
todas las décadas. La tarea de vida o muerte del proletariado no consiste
actualmente en interpretar de nuevo al mundo, sino en rehacerlo de arriba
abajo"154.
Herzen decía que la dialéctica era el "álgebra de la revolución". Ningún tipo de
filosofía es eterna como tampoco lo es ningún modo de producción. El capitalismo
sólo ha existido de modo dominante unos 200 años. La historia registrada consta
de 5.000 años y la humanidad tiene tan sólo una existencia de 100.000 años. En
esta escala, el capitalismo junto con su filosofía, su moral, sus instituciones,
que muchos creen eternos y ante los cuales muchos se arrodillan cobardemente,
equivale a los últimos segundos dentro de un drama de 24 horas; solamente un
suspiro. Esos últimos segundos han dado ya lo que podían ofrecer a la humanidad
y ha llegado la hora de que la continuidad del tiempo se vuelva a romper, como
ha ocurrido muchas veces a lo largo de la historia, para que una nueva sociedad
más justa emerja del caos capitalista y el hombre dé un nuevo salto de gigante
hacia delante.
"Dum suspiro spero!" (mientras hay vida hay esperanza), dijo en una ocasión el
joven Trotsky lleno de esperanza revolucionaria ante el futuro, que nunca lo
abandonaría a lo largo de toda su vida y que suscribimos totalmente por su
vigencia "... Si yo fuera uno de esos cuerpos celestes, miraría con completa
indiferencia a esta miserable bola de polvo y suciedad... Alumbraría por igual
sobre el bien y el mal... Pero soy un hombre. ¡La historia mundial que para
ti, desapasionado glotón de la ciencia, y para ti, contador de la eternidad, es
sólo un momento despreciable en la balanza del tiempo, para mí lo es todo! ¡En
tanto viva lucharé por el futuro, por ese radiante futuro en el que el hombre
fuerte y bello, será el dueño de la cambiante corriente de su historia, a la que
dirigirá hacia los horizontes infinitos de la belleza, la alegría y la
felicidad! (...)
"El siglo XIX" —el lector puede leer siglo XX— "ha satisfecho en muchos aspectos
las esperanzas del optimista. Pero también lo ha decepcionado en otros tantos,
aún más numerosos... Lo ha obligado a transferir la mayoría de sus esperanzas al
siglo XX. Siempre que el optimista se veía confrontado por un hecho atroz,
exclamaba: ¡Cómo es posible que esto pueda ocurrir en los umbrales del siglo XX!
Cuando proyectaba bellos paisajes armoniosos los ponía en el siglo XX.
478
"¡Y ahora ese siglo ha llegado! ¿Qué ha traído consigo en sus inicios?
"En Francia, la espuma venenosa del odio racial, en Austria el antagonismo
nacionalista...; en África del Sur, la agonía de un pueblo débil, asesinado por
un coloso (...) Odio, asesinatos, hambre y sangre...
"Parece como si el nuevo siglo, este gigantesco recién llegado, estuviera
destinado desde el mismo momento de su surgimiento a llevar al optimista al
pesimismo absoluto y al nirvana cívico...
"— ¡Muera la utopía!, ¡Muera la fe!, ¡Muera el amor!, ¡Muera la esperanza!,
truena el siglo XX con salvas incendiarias y con el golpeteo de las
ametralladoras.
"— Ríndete patético soñador. Aquí estoy, yo, tu largamente esperado siglo XX, tu
"futuro".
"— No, responde el optimista invencible: Tú, tú eres sólo el presente155".
Fuente: Fundacion Federico Engels, www.engels.org
479